> >> El Vie 01 May 2009, David Avila escribió: >>> Buenas, en mi trabajo me han pedido que trabaje en la replicación >>> de un server de archivos (samba + debian) para lo cual dispongo de >>> dos servidores IBM de identícas caracteristicas. Pensaba agregarle >>> otra placa de red de 1000 a cada uno para realizar a traves de >>> ellas -con un cable cruzado- un rsync que durante el dia copie los >>> datos que se vayan sumando en el server que esté en produccion al >>> de backup y luego en la noche hacer que queden exactamente iguales. >>> Esto me permite tener durante archivos durante el día que >>> "accidentalmente" suelen ser eliminados. ¿Alguien tiene alguna >>> mejor sugerencia o conoce algun sistema de backup interesante? >>> ¿O esta bien asi? Desde ya gracias... >> >> Tengo 2 cosas así funcionando: >> - backups parciales diarios y semanales completos con tar >> - replicación con rsync una vez por día >> >> En el que tengo replicación con rsync, a veces vienen a pedirme que >> les recupere un archivo que borraron 1 mes atrás el cual obviamente >> no existe más en la copia. El único propósito que satisface esa >> replicación es que si explota el servidor primario, tengo la opción >> de servir los datos desde otra máquina.
De hecho, las veces que uso el backuppc para recuperar archivos, por lo general es para usuarios que me plantean cosas como: - "el mes pasado tenía una planilla en tal directorio... y ya no está..." - "sobreescribí un archivo en el que vengo trabajando hace 2 semanas y ahora tengo el archivo vacío" - yo mismo cambié algo de algún archivo de x servidor en /etc y las cosas ahora no funcionan como yo esperaba :)... entonces fácilmente vuelvo la versión del archivo anterior. - entre tantas otras cosas que suceden! > > Por este motivo, yo he reemplazado casi todos mis scripts de backup por > backuppc, que con su sistema de versiones e historial puedo recuperar > cosas eliminadas hace mucho tiempo. Usa rsync + tar y no guarda archivos > "duplicados" entre copia y copia (parciales y completas), lo que permite > tener muchas versiones del mismo archivo sin necesariamente ocupar tanto > espacio en disco. Además la adminsitración web lo hace muy cómodo de usar > y las notificaciones via mail hacen muy confiable, ya que en caso que un > backup no se haga correctamente recibis un mail con el aviso. > > Por si no se dieron cuenta ya... soy un backuppcfun :) > >> En ese sentido, una idea más copada podría ser usar un sistema de >> archivos distribuido como drdb o coda, la cual podés acoplar o no a >> algún esquema de alta disponibilidad, de modo que el segundo servidor >> empiece a funcionar automáticamente si el primero palma. De ese modo >> los datos no vuelven al pasado (el rsync se ejecuta a las 6:00 por >> ejemplo) y no tengo que hacer un toque manual para que el segundo >> servidor tome el rol primario. Pero para eso, tenés que hablar con >> Pisa. >> >> En el que tengo bakcups parciales, el objetivo no es la alta >> disponibilidad, sino tener un respaldo de la información que cubra un >> rango largo de tiempo, para poder volver atrás lo suficiente como >> para revertir un pedo en la manipulación de los datos que haya estado >> mucho tiempo sin ser detectado. >> >> Me parece que esto último es lo que querés. >> >> Tal vez lo que necesitás es sólo una copia de lo que hay en otro lado, pero mi consejo, es que sin mayor costo (ni de cpu, memoria, disco) que un simple rsync, con backuppc obtenés algo mucho más completo. De paso la restauración es tan sencilla que recuperás archivos/directorios (de una o varios máquinas) en menos de 2 minutos, cosa que con scripts de backup y varios archivos .tar guardados no haces tan rápido ni de manera tan sencilla. -- Hernan [email protected]
