Re: [FRsAG] cold backup, vous connaissez du "vrai" glacier ?

2020-12-02 Par sujet Daniel Caillibaud
Le 02/12/20 à 16h41, Yann Pretot a écrit : > Hello Daniel, > > AWS fait ça dans Glacier avec les Vault Locks. Tu peux définir une > politique de conservation pour une durée donnée, et tant qu’elle n’expire > pas, rien ni personne ne peut supprimer le contenu de tes archives. > > La FAQ donne un

Re: [FRsAG] cold backup, vous connaissez du "vrai" glacier ?

2020-12-02 Par sujet Daniel Caillibaud
Le 02/12/20 à 17h11, Rémy Dernat a écrit : > Bonjour, > > Dans le genre vraiment pas cher, vous avez aussi mega.nz : > https://mega.nz/pro > > De mon point de vue, pas vraiment pro, mais si tu chiffres bien, ça ne > devrait pas poser problème... Oui, de toute façon c'est chiffré (je ne fais

Re: [FRsAG] cold backup, vous connaissez du "vrai" glacier ?

2020-12-02 Par sujet Rémy Dernat
Bonjour, Dans le genre vraiment pas cher, vous avez aussi mega.nz : https://mega.nz/pro De mon point de vue, pas vraiment pro, mais si tu chiffres bien, ça ne devrait pas poser problème... Cdlmt Le 02/12/2020 à 16:53, Daniel Caillibaud a écrit : Le 02/12/20 à 9h03, Joël DEREFINKO a

Re: [FRsAG] cold backup, vous connaissez du "vrai" glacier ?

2020-12-02 Par sujet Daniel Caillibaud
Le 02/12/20 à 9h03, Joël DEREFINKO a écrit : > Pour du pur backup, il y a rsync.net qui a une offre qui semble > correspondre au besoin (de mémoire : WORM) https://rsync.net/ > > Transfert des datas vers leur « cloud » avec les outils standards (rsync, > sftp, scp, rclone, …) Ça c'est cool,

Re: [FRsAG] Single node Ceph (Was: Re: Proxmox 6.3-2 et Pool LVM-Thin)

2020-12-02 Par sujet Etienne Menguy
> Si on n'a que 3 noeuds et qu'on en perd un, on n'a pas exactement 33% > des PG hors ligne, mais un peu plus ou un peu moins, ce qui fait qu’on > se retrouve potentiellement avec des écritures bloquées sur une partie > du cluster. Il y a peut être des cas particuliers avec la configuration, mais

Re: [FRsAG] cold backup, vous connaissez du "vrai" glacier ?

2020-12-02 Par sujet Daniel Caillibaud
Le 01/12/20 à 21h48, Benoit Garcia a écrit : > > J'ai regardé toutes les offres de type glacier, y'a rien qui répond à > > ça, le proprio du service ou celui qui a les droits en écriture peut > > toujours effacer le contenu. > > > > Vous connaissez qq chose qui répondrait à ce besoin ? > AWS S3

Re: [FRsAG] Single node Ceph (Was: Re: Proxmox 6.3-2 et Pool LVM-Thin)

2020-12-02 Par sujet Etienne Menguy
> Ah ? Intéressant, tu pourrais ajouter du détail sur ça ? C'est principalement pour avoir moins de chances de perdre des données. Mais également, le problème de n'avoir que 2 fois la donnée c'est qu'en cas d'inconsistance ( si l'une des copie de l'objet change) tu ne sauras pas dire quelle

Re: [FRsAG] Single node Ceph (Was: Re: Proxmox 6.3-2 et Pool LVM-Thin)

2020-12-02 Par sujet Stéphane Rivière
> Au passage, je ne vois pas pourquoi 4 serveurs seraient forcément > nécessaires, ni une bonne idée. Je n'utilise pas CEPH. Voilà le notes que j'avais pris à l'époque. Aucune idée de la pertinence. Ces colistiers ont du vécu :) Leurs messages m'ont semblé assez clairs. J'en avais conclu que

Re: [FRsAG] Single node Ceph (Was: Re: Proxmox 6.3-2 et Pool LVM-Thin)

2020-12-02 Par sujet Stéphane Rivière
> Maintenant, est-ce que d'après vous j'ai loupé un truc dans le setup ou > est-ce que c'est réellement viable ? (en dehors du fait que c'est un > gros hack par rapport à ce pourquoi Ceph est prévu). Aucune idée. Mais SPOF sur le node... mais j'imagine que dans certains cas, ça doit être bien :)

Re: [FRsAG] Single node Ceph (Was: Re: Proxmox 6.3-2 et Pool LVM-Thin)

2020-12-02 Par sujet Julien Escario
Le 02/12/2020 à 15:20, Etienne Menguy a écrit : > Hello, > > Si tu veux faire vraiment faire du Ceph sur un seul serveur, je te conseille > d'avoir 3 OSD (sur 3 disques différents) et la triple réplication. > Ca permettra d'assurer la consistance des données et de ne pas en perdre. Ah ?

Re: [FRsAG] Single node Ceph (Was: Re: Proxmox 6.3-2 et Pool LVM-Thin)

2020-12-02 Par sujet Etienne Menguy
Hello, Si tu veux faire vraiment faire du Ceph sur un seul serveur, je te conseille d'avoir 3 OSD (sur 3 disques différents) et la triple réplication. Ca permettra d'assurer la consistance des données et de ne pas en perdre. D'un point de vue technique ça fonctionnera sans problème, ceph se

[FRsAG] Single node Ceph (Was: Re: Proxmox 6.3-2 et Pool LVM-Thin)

2020-12-02 Par sujet Julien Escario
Le 02/12/2020 à 11:33, Stéphane Rivière a écrit : >> Pour ma part, je suis encore en mono-server sans HA et j'ai cru >> comprendre que Ceph sous Proxmox répondait également à ce besoin. Je > > CEPH c'est le top mais pour les riches (smile), il parait qu'il faut 4 > bécanes pour être vraiment

Re: [FRsAG] cold backup, vous connaissez du "vrai" glacier ?

2020-12-02 Par sujet Daniel Caillibaud
Le 01/12/20 à 21h53, Kevin LABECOT a écrit : > De mon côté la même mais avec Backblaze et niveau tarif il n’y a pas > mieux pour moi. Pour du backup/archivage c’est le must à mon sens. Sauf que pour l'immutable il faut utiliser un client veam, c'est visiblement la seule solution. -- Daniel Il

Re: [FRsAG] Proxmox 6.3-2 et Pool LVM-Thin

2020-12-02 Par sujet Pi Droid
Effectivement, bon faut que je cible une sacrée réussite alors :D Voici ce que j'ai fait (uniquement sur data2cold pour l'instant) : - Augmenter encore la taille du metadata : lvextend --poolmetadatasize +224M v2cold/data2cold - Eteindre toutes les VM et containers utilisant le Thinpool -

Re: [FRsAG] Proxmox 6.3-2 et Pool LVM-Thin

2020-12-02 Par sujet Stéphane Rivière
> @Stéphane > > Je ne connais pas du tout Ganeti (j'ai été voir un peu de quoi il > s'agissait) Imho, ce fut génial, ça l'est encore dans certains cas. Pas pour notre use-case. > C'est intéressant comme approche votre gestionnaire de cluster (et ca > m'éclaire un peu plus sur le fonctionnement

Re: [FRsAG] Proxmox 6.3-2 et Pool LVM-Thin

2020-12-02 Par sujet Pi Droid
Salut, Merci pour ces retours ainsi que toutes ces explications ! Ça me rassure énormément :) @Johann > Tu as une solution pour résoudre le soucis du pmspare qui n'a plus la bonne taille : > - Éteint toute tes VM utilisant le thinpool > - Démonte tout ce qui tape dedans > - Effectue ensuite un