--- El mar 10-abr-12, C. L. Martinez <[email protected]> escribió:
> De: C. L. Martinez <[email protected]> > Asunto: Re: Backup Remoto > Para: [email protected] > Fecha: martes, 10 de abril de 2012, 3:04 > On Tue, Apr 10, 2012 at 4:56 AM, > Fredy Guio <[email protected]> > wrote: > > > > Podrias ver las posibilidades que te da rsync + SSH > > > > http://es.wikipedia.org/wiki/Rsync > > > > Le 9 avril 2012 21:43, [email protected] > > <[email protected]> > a écrit : > > > >> Te Recomiendo que montes un Server Backup > Completo. > >> > >> Puede que sea lo que buscas: > >> > >> > >> http://www.ibotme.com/2011/06/freenas-servidor-de-archivos-para-windows-linux-mac/ > >> > >> http://www.ibotme.com/2011/05/syncany-open-source-software-para-backup-en-linea/ > >> > >> Saludos > >> Minato > >> > >> ________________________________ > >> De: Juan <[email protected]> > >> Para: [email protected] > >> Enviado: Domingo, 8 de abril, 2012 9:11 P.M. > >> Asunto: Backup Remoto > >> > >> Buenas noches: > >> > >> Tengo una necesidad, en mi trabajo me piden mandar > un backup de datos > >> de un servidor debian a otro de otra sucursal y se > me está > >> complicando. > >> > >> El escenario es el siguiente, en el servidor de la > sucursal A tengo un > >> directorio de 140Gb que se actualiza dia a dia con > los archivos que se > >> agregan y modifican ese dia. Se hace un backup > incremental de esos > >> archivos nuevos, sin borrar lo que se fue borrando > de cada maquina en > >> un directorio oculto. Ahora me piden que ese > directorio lo mande a > >> otra sucursal. > >> > >> Yo pensaba comprimirlo con tar y enviarlo a la > madrugada, una vez y > >> luego hacer copias incrementales de ese mismo tar y > enviarlas > >> semanalmente. > >> > >> El tema es que no se me ocurre como hacerlo y no se > que va a pasar la > >> primera vez, ya que no debe ser muy facil pasar un > archivo de 100 gb > >> por internet. No tengo NADA de experiencia en esto > y no hay > >> administrador de sistemas, me arreglo yo como puedo > con todo. > >> > >> No quiero que nadie me haga el trabajo, solamente > que me den ideas > >> para investigar y asi poder armar los scripts. > >> > >> El backup local que se hace a diario ya lo tengo y > funciona perfecto. > >> La linea para comprimir el directorio de backup la > tengo (tar -Pvuf > >> backup.tar /directorio-de-backup-local). > >> > >> Lo que me falta saber es si una vez que tenga el > primer backup hecho, > >> puedo copiar los archivos nuevos y modificados en > un archivo > >> diferente, es decir, por primera vez hago el tar y > me queda en el > >> archivo backup-completo.tar.gz y luego hago una > copia incremental en > >> archivo-ddmmaaaa.tar.gz, asi lo que envio a la otra > sucursal es este > >> ultimo archivo semanal y no todo de nuevo cada > vez. > >> > >> ¿Estoy en lo correcto? > >> > >> Gracias a quien me pueda dar una mano desde ya. > >> > >> saludos > >> > >> Juan Hola : en mi trabajo tengo que traer a central por la noche archivos de entre 200Mb y 600Mb diariamente, y uso script con rsync por tunel ssh croneados y funciona muy bien. Lo interesante de rsync son la cantidad de parametros con los que podes jugar; y en mi situacion en la zona donde trabajo los enlaces aparte de ser muy inestables son de poco ancho de banda(los adsl en algunos lugares son de 1Mb.. en otros menos) y como soporta cortes en la transmision y retoma(con cortes pequeños) lo podes dejar croneado en varios horarios por si se interrumpio. por ejemplo: rsync -P --recursive -acvzx --delete -e 'ssh -p xxxx -i /home/xx/.ssh/id_dsa' /home/xx/archivos/* [email protected]:/home/archivos_destino/ obviamente necesitas usar claves publicas y privadas para automatizar. Pero como te decian, depende de lo que quieras implementar y el crecimiento que tendra, para una estructura de backup mas importante yo he usado bacula y funciona muy bien, pero obviamente es mas costoso en tiempo de apredizaje. saludos Marcos Negrini -- To UNSUBSCRIBE, email to [email protected] with a subject of "unsubscribe". Trouble? Contact [email protected] Archive: http://lists.debian.org/[email protected]

