Hola Yo tengo un enfoque diferente al que te han dado anteriormente.
Cuando trabajas con archivos muy grandes, lo mejor que puedes hacer para transferirlos (aun en discos flexibles) es partir el archivo en otros mas peque�os. Te doy un ejemplo a continuaci�n. tengo un archivo (que es un duro virtual) de 8GB (el enfoque funciona tambi�n con archivos m�s grandes) $ ls -l -rw-r--r-- 1 marcelo marcelo 8456486912 May 27 20:39 root_fs lo puedo partir en 80 archivos m�s chicos de... digamos... 100MB cada uno $ split --bytes=$((1024*1024*100)) root_fs esto te crea muchos archivos m�s chicos, que son m�s f�ciles de transferir $ ls -l x* -rw-r--r-- 1 marcelo marcelo 104857600 May 29 10:27 xaa -rw-r--r-- 1 marcelo marcelo 104857600 May 29 10:27 xab ... Ahora puedes hacer much�simos y muy peque�os. Si quieres puedes sacar md5s antes y despu�s de la transmisi�n para asegurarte la itegridad de cada archivo. Muchos archivos chicos se pueden pasar sin problemas con scp. Una vez que los transfieras todos, los concatenas. $ cat x* > root_fs LISTO EL POLLO! Saludos On Thu, 2004-05-27 at 14:19, I�aki wrote: > Hola, > > Estoy intentando por todos los medios averiguar c�mo descargarme de otro > ordenador Linux (al que tengo acceso) un archivo muy grande, e intento para > ello disponer de la posibilidad de continuar la descarga si se interrumpe la > conexi�n o porque el archivo es realmente grande y me interesa descargarlo a > intervalos (imaginad pel�culas). > > Gracias de antemano. -- Marcelo Morales <[EMAIL PROTECTED]> Red Cetus S.R.L.

