Le 02/12/20 à 16h41, Yann Pretot a écrit :
> Hello Daniel,
>
> AWS fait ça dans Glacier avec les Vault Locks. Tu peux définir une
> politique de conservation pour une durée donnée, et tant qu’elle n’expire
> pas, rien ni personne ne peut supprimer le contenu de tes archives.
>
> La FAQ donne un
Le 02/12/20 à 17h11, Rémy Dernat a écrit :
> Bonjour,
>
> Dans le genre vraiment pas cher, vous avez aussi mega.nz :
> https://mega.nz/pro
>
> De mon point de vue, pas vraiment pro, mais si tu chiffres bien, ça ne
> devrait pas poser problème...
Oui, de toute façon c'est chiffré (je ne fais
Bonjour,
Dans le genre vraiment pas cher, vous avez aussi mega.nz :
https://mega.nz/pro
De mon point de vue, pas vraiment pro, mais si tu chiffres bien, ça ne
devrait pas poser problème...
Cdlmt
Le 02/12/2020 à 16:53, Daniel Caillibaud a écrit :
Le 02/12/20 à 9h03, Joël DEREFINKO a
Le 02/12/20 à 9h03, Joël DEREFINKO a écrit :
> Pour du pur backup, il y a rsync.net qui a une offre qui semble
> correspondre au besoin (de mémoire : WORM) https://rsync.net/
>
> Transfert des datas vers leur « cloud » avec les outils standards (rsync,
> sftp, scp, rclone, …)
Ça c'est cool,
> Si on n'a que 3 noeuds et qu'on en perd un, on n'a pas exactement 33%
> des PG hors ligne, mais un peu plus ou un peu moins, ce qui fait qu’on
> se retrouve potentiellement avec des écritures bloquées sur une partie
> du cluster.
Il y a peut être des cas particuliers avec la configuration, mais
Le 01/12/20 à 21h48, Benoit Garcia a écrit :
> > J'ai regardé toutes les offres de type glacier, y'a rien qui répond à
> > ça, le proprio du service ou celui qui a les droits en écriture peut
> > toujours effacer le contenu.
> >
> > Vous connaissez qq chose qui répondrait à ce besoin ?
> AWS S3
> Ah ? Intéressant, tu pourrais ajouter du détail sur ça ?
C'est principalement pour avoir moins de chances de perdre des données.
Mais également, le problème de n'avoir que 2 fois la donnée c'est qu'en cas
d'inconsistance ( si l'une des copie de l'objet change) tu ne sauras pas dire
quelle
> Au passage, je ne vois pas pourquoi 4 serveurs seraient forcément
> nécessaires, ni une bonne idée.
Je n'utilise pas CEPH. Voilà le notes que j'avais pris à l'époque.
Aucune idée de la pertinence. Ces colistiers ont du vécu :) Leurs
messages m'ont semblé assez clairs.
J'en avais conclu que
> Maintenant, est-ce que d'après vous j'ai loupé un truc dans le setup ou
> est-ce que c'est réellement viable ? (en dehors du fait que c'est un
> gros hack par rapport à ce pourquoi Ceph est prévu).
Aucune idée. Mais SPOF sur le node... mais j'imagine que dans certains
cas, ça doit être bien :)
Le 02/12/2020 à 15:20, Etienne Menguy a écrit :
> Hello,
>
> Si tu veux faire vraiment faire du Ceph sur un seul serveur, je te conseille
> d'avoir 3 OSD (sur 3 disques différents) et la triple réplication.
> Ca permettra d'assurer la consistance des données et de ne pas en perdre.
Ah ?
Hello,
Si tu veux faire vraiment faire du Ceph sur un seul serveur, je te conseille
d'avoir 3 OSD (sur 3 disques différents) et la triple réplication.
Ca permettra d'assurer la consistance des données et de ne pas en perdre.
D'un point de vue technique ça fonctionnera sans problème, ceph se
Le 02/12/2020 à 11:33, Stéphane Rivière a écrit :
>> Pour ma part, je suis encore en mono-server sans HA et j'ai cru
>> comprendre que Ceph sous Proxmox répondait également à ce besoin. Je
>
> CEPH c'est le top mais pour les riches (smile), il parait qu'il faut 4
> bécanes pour être vraiment
Le 01/12/20 à 21h53, Kevin LABECOT a écrit :
> De mon côté la même mais avec Backblaze et niveau tarif il n’y a pas
> mieux pour moi. Pour du backup/archivage c’est le must à mon sens.
Sauf que pour l'immutable il faut utiliser un client veam, c'est
visiblement la seule solution.
--
Daniel
Il
Effectivement, bon faut que je cible une sacrée réussite alors :D
Voici ce que j'ai fait (uniquement sur data2cold pour l'instant) :
- Augmenter encore la taille du metadata : lvextend --poolmetadatasize
+224M v2cold/data2cold
- Eteindre toutes les VM et containers utilisant le Thinpool
-
> @Stéphane
>
> Je ne connais pas du tout Ganeti (j'ai été voir un peu de quoi il
> s'agissait)
Imho, ce fut génial, ça l'est encore dans certains cas.
Pas pour notre use-case.
> C'est intéressant comme approche votre gestionnaire de cluster (et ca
> m'éclaire un peu plus sur le fonctionnement
Salut,
Merci pour ces retours ainsi que toutes ces explications ! Ça me rassure
énormément :)
@Johann
> Tu as une solution pour résoudre le soucis du pmspare qui n'a plus la
bonne taille :
> - Éteint toute tes VM utilisant le thinpool
> - Démonte tout ce qui tape dedans
> - Effectue ensuite un
16 matches
Mail list logo