Hola

Yo tengo un enfoque diferente al que te han dado anteriormente.

Cuando trabajas con archivos muy grandes, lo mejor que puedes hacer para
transferirlos (aun en discos flexibles) es partir el archivo en otros
mas peque�os. Te doy un ejemplo a continuaci�n.

tengo un archivo (que es un duro virtual) de 8GB (el enfoque funciona
tambi�n con archivos m�s grandes)

$ ls -l
-rw-r--r--    1 marcelo  marcelo  8456486912 May 27 20:39 root_fs

lo puedo partir en 80 archivos m�s chicos de... digamos... 100MB cada
uno

$ split --bytes=$((1024*1024*100)) root_fs 

esto te crea muchos archivos m�s chicos, que son m�s f�ciles de
transferir

$ ls -l x*
-rw-r--r--    1 marcelo  marcelo  104857600 May 29 10:27 xaa
-rw-r--r--    1 marcelo  marcelo  104857600 May 29 10:27 xab
...

Ahora puedes hacer much�simos y muy peque�os. Si quieres puedes sacar
md5s antes y despu�s de la transmisi�n para asegurarte la itegridad de
cada archivo. Muchos archivos chicos se pueden pasar sin problemas con
scp.

Una vez que los transfieras todos, los concatenas.

$ cat x* > root_fs

LISTO EL POLLO!

Saludos

On Thu, 2004-05-27 at 14:19, I�aki wrote:
> Hola, 
> 
> Estoy intentando por todos los medios averiguar c�mo descargarme de otro 
> ordenador Linux (al que tengo acceso) un archivo muy grande, e intento para 
> ello disponer de la posibilidad de continuar la descarga si se interrumpe la 
> conexi�n o porque el archivo es realmente grande y me interesa descargarlo a 
> intervalos (imaginad pel�culas).
> 
> Gracias de antemano.
-- 
Marcelo Morales <[EMAIL PROTECTED]>
Red Cetus S.R.L.

Responder a