Достать файл больше 2 гиг
Доброго времени суток, all На днях сделал маленький бэкапчик гига на 2.5. Переложил его с одного сервера на другой с помощью shell link mc (ногами просьба не пинать - но всё прошло замечательно) и теперь пытаюсь утащить к себе по медленному каналу дабы сложить на dvd. У mc (а может не у него) похоже есть проблема (и даже не одна:) с соединениями, которые живут больше суток - он их просто рвет. Хотя когда пробовал sftp mount (точно не помню название) - он тоже отваливался где-то через сутки. На медленном канале файл не успевает дойти полностью. Закачка рвется на 2048Mb (циферь сама по себе тоже настораживает). Докачки в mc естествено нет. Попробовал забрать его wget -c ftp://bla-bla-bla На что получил следующее: wget -c ftp://user:[EMAIL PROTECTED]/dir/file.tar.gz --11:10:50-- ftp://user:[EMAIL PROTECTED]/dir/file.tar.gz = `file.tar.gz' Connecting to server:21... connected. Logging in as user ... Logged in! == SYST ... done.== PWD ... done. == TYPE I ... done. == CWD /dir ... done. == SIZE file.tar.gz ... done. == PASV ... done.== REST 2147483647 ... done. == RETR file.tar.gz ... done. Length: 548,402,407 [-1,599,081,240 to go] (unauthoritative) 100%[] 2,147,483,647 --.--K/s wget: progress.c:704: create_image: Assertion `insz = dlsz' failed. Aborted Из идей пока только порвать split'ом на сервере файл на куски, докачать отдельно недостающий кусок и собрать вместе. Может кто знает более другой более правильный путь - большие файлы попадаются всё чаще и плясать с бубном вокруг каждого - это не есть правильно. PS: Везде Debian Sarge +/- версия ядра -- WBR, Dmitrii +375 29 40-LINUX
Re: Достать файл больше 2 гиг
wget -c ftp://user:[EMAIL PROTECTED]/dir/file.tar.gz --11:10:50-- ftp://user:[EMAIL PROTECTED]/dir/file.tar.gz = `file.tar.gz' Connecting to server:21... connected. Logging in as user ... Logged in! == SYST ... done.== PWD ... done. == TYPE I ... done. == CWD /dir ... done. == SIZE file.tar.gz ... done. == PASV ... done.== REST 2147483647 ... done. == RETR file.tar.gz ... done. Length: 548,402,407 [-1,599,081,240 to go] (unauthoritative) 100%[] 2,147,483,647 --.--K/s wget: progress.c:704: create_image: Assertion `insz = dlsz' failed. Aborted может он (или фтп-сервер) просто не умеет работать с файлами 2 гиг Из идей пока только порвать split'ом на сервере файл на куски, докачать отдельно недостающий кусок и собрать вместе. Может кто знает более другой более правильный путь - большие файлы попадаются всё чаще и плясать с бубном вокруг каждого - это не есть правильно. scp ? -- To UNSUBSCRIBE, email to [EMAIL PROTECTED] with a subject of unsubscribe. Trouble? Contact [EMAIL PROTECTED]
Re: Достать файл больше 2 гиг
23.08.06, Igor Chumak[EMAIL PROTECTED] написал(а): wget (и возможно ftpd) пересобрать чтобы не было 2г барьера. или в качестве сервера proftpd - он точно умеет принимать/отдавать большие файлы - на днях пробегала пара-тройка образов dvd - всё прошло гут. Правда чем их качили - сказать не могу - но на сервере они появились :-) попробовать curl, lftp - может они в дефолтной сборке это умеют Пошел пробовать.. Спасибо. -- WBR, Dmitrii +375 29 40-LINUX
Re: Достать файл больше 2 гиг
В сообщении от 23 августа 2006 11:16 Dmitrii Varvashenia написал(a): На медленном канале файл не успевает дойти полностью. Закачка рвется на 2048Mb (циферь сама по себе тоже настораживает). rsync не пробовал для этого дела задействовать ? -- WBR, Eugene V. Kravtsoff || EK01-UANIC, KRAV-RIPE JID: [EMAIL PROTECTED], ICQ: 930-128-41 Mobile: 8 044 592 01 67 MSN: [EMAIL PROTECTED], LJ : lj-user=ekrava -- To UNSUBSCRIBE, email to [EMAIL PROTECTED] with a subject of unsubscribe. Trouble? Contact [EMAIL PROTECTED]
Re: Достать файл больше 2 гиг
You ([EMAIL PROTECTED]) wrote: DV 100%[] DV 2,147,483,647 --.--K/s wget: progress.c:704: create_image: DV Assertion `insz = dlsz' failed. Aborted DV Может кто знает более другой более правильный путь - большие DV файлы попадаются всё чаще и плясать с бубном вокруг каждого - это DV не есть правильно. Проверить версию wget, у него были траблы на границе 2гиг в районе 1.9. --
Re: Достать файл больше 2 гиг
Dmitrii Varvashenia wrote: wget -c ftp://user:[EMAIL PROTECTED]/dir/file.tar.gz --11:10:50-- ftp://user:[EMAIL PROTECTED]/dir/file.tar.gz = `file.tar.gz' Connecting to server:21... connected. Logging in as user ... Logged in! == SYST ... done.== PWD ... done. == TYPE I ... done. == CWD /dir ... done. == SIZE file.tar.gz ... done. == PASV ... done.== REST 2147483647 ... done. == RETR file.tar.gz ... done. Length: 548,402,407 [-1,599,081,240 to go] (unauthoritative) [...] PS: Везде Debian Sarge +/- версия ядра Для начала следует взять wget новее - из testing, например. Sarge'вский даже при отсутствии проблем с серверной стороны не справляется с такими файлами. -- To UNSUBSCRIBE, email to [EMAIL PROTECTED] with a subject of unsubscribe. Trouble? Contact [EMAIL PROTECTED]
Re: Достать файл больше 2 гиг -FIXED
Всем ответившим спасибо. с lftp всё прошло ок.. rsync всё никак руки не дойдут наладить - задача уж больно редко повторяется - в будущем постараюсь просто не плодить такие здоровые файлы. wget пересобирать/брать из testing лениво - буду ждать следующую версию :-) PS: Везде Debian Sarge +/- версия ядра Для начала следует взять wget новее - из testing, например. Sarge'вский даже при отсутствии проблем с серверной стороны не справляется с такими файлами. -- WBR, Dmitrii +375 29 40-LINUX
Re: Достать файл больше 2 гиг -FIXED
Dmitrii Varvashenia wrote: rsync всё никак руки не дойдут наладить - задача уж больно редко повторяется - в будущем постараюсь просто не плодить такие здоровые файлы. wget пересобирать/брать из testing лениво - буду ждать следующую версию :-) Так возьми на backports.org ;) Там имеется wget-1.10.2 -- Best regards, Dmitry Kovalev. debian GNU/Linux 3.1(Sarge) + backports -- To UNSUBSCRIBE, email to [EMAIL PROTECTED] with a subject of unsubscribe. Trouble? Contact [EMAIL PROTECTED]
Re: Достать файл больше 2 гиг -FIXED
-BEGIN PGP SIGNED MESSAGE- Hash: SHA1 Dmitrii Varvashenia wrote: rsync всё никак руки не дойдут наладить - задача уж больно редко повторяется - в будущем постараюсь просто не плодить такие здоровые файлы. не надо его настраивать - он через ssh может работать, то есть никаких дополнительных сервисов ставить не надо - -- Best regards, Sergey Spiridonov -BEGIN PGP SIGNATURE- Version: GnuPG v1.4.3 (GNU/Linux) Comment: Using GnuPG with Mozilla - http://enigmail.mozdev.org iD8DBQFE7EHMJ3NEeIx4r3YRAvucAJ9riaSTKMK0jy3k9tJzl20Mfw739wCffDCB Zb7LG8cMhsd7axcKJlsMu2E= =nw44 -END PGP SIGNATURE- -- To UNSUBSCRIBE, email to [EMAIL PROTECTED] with a subject of unsubscribe. Trouble? Contact [EMAIL PROTECTED]
Re: Достать файл больше 2 гиг
Dmitrii Varvashenia - debian-russian@lists.debian.org @ Wed, 23 Aug 2006 11:16:32 +0300: DV Доброго времени суток, all DV На днях сделал маленький бэкапчик гига на 2.5. DV Переложил его с одного сервера на другой с помощью shell link mc DV (ногами просьба не пинать - но всё прошло замечательно) и теперь DV пытаюсь утащить к себе по медленному каналу дабы сложить на dvd. DV У mc (а может не у него) похоже есть проблема (и даже не одна:) с DV соединениями, которые живут больше суток - он их просто рвет. DV Хотя когда пробовал sftp mount (точно не помню название) - он тоже DV отваливался где-то через сутки. DV На медленном канале файл не успевает дойти полностью. DV Закачка рвется на 2048Mb (циферь сама по себе тоже настораживает). DV Докачки в mc естествено нет. DV Попробовал забрать его wget -c ftp://bla-bla-bla DV На что получил следующее: DV wget -c ftp://user:[EMAIL PROTECTED]/dir/file.tar.gz DV --11:10:50-- ftp://user:[EMAIL PROTECTED]/dir/file.tar.gz DV= `file.tar.gz' DV Connecting to server:21... connected. DV Logging in as user ... Logged in! DV == SYST ... done.== PWD ... done. DV == TYPE I ... done. == CWD /dir ... done. DV == SIZE file.tar.gz ... done. DV == PASV ... done.== REST 2147483647 ... done. DV == RETR file.tar.gz ... done. DV Length: 548,402,407 [-1,599,081,240 to go] (unauthoritative) DV 100%[] DV 2,147,483,647 --.--K/s wget: progress.c:704: DV create_image: Assertion `insz = dlsz' failed. DV Aborted DV Из идей пока только порвать split'ом на сервере файл на куски, DV докачать отдельно недостающий кусок и собрать вместе. DV Может кто знает более другой более правильный путь - большие файлы DV попадаются всё чаще и плясать с бубном вокруг каждого - это не есть DV правильно. rsync точно нормально работает с файлами больше 2G. У самого 2.8. -- Artem Chuprina RFC2822: ran{}ran.pp.ru Jabber: [EMAIL PROTECTED] Работай хоть за четверых. Только не говори им об этом. Кнышев. -- To UNSUBSCRIBE, email to [EMAIL PROTECTED] with a subject of unsubscribe. Trouble? Contact [EMAIL PROTECTED]
Re: Достать файл больше 2 гиг -FIXED
Dmitrii Varvashenia - debian-russian@lists.debian.org @ Wed, 23 Aug 2006 12:24:43 +0300: DV Всем ответившим спасибо. DV с lftp всё прошло ок.. DV rsync всё никак руки не дойдут наладить - задача уж больно редко DV повторяется - в будущем постараюсь просто не плодить такие здоровые DV файлы. Если у тебя туда есть ssh, то rsync настраивать не надо. -- Artem Chuprina RFC2822: ran{}ran.pp.ru Jabber: [EMAIL PROTECTED] Intel - тоже Сильмарилл. Только сделанный не так... -- To UNSUBSCRIBE, email to [EMAIL PROTECTED] with a subject of unsubscribe. Trouble? Contact [EMAIL PROTECTED]
Re: Достать файл больше 2 гиг -FIXED
23.08.06, Artem Chuprina[EMAIL PROTECTED] написал(а): Dmitrii Varvashenia - debian-russian@lists.debian.org @ Wed, 23 Aug 2006 12:24:43 +0300: DV rsync всё никак руки не дойдут наладить - задача уж больно редко DV повторяется - в будущем постараюсь просто не плодить такие здоровые DV файлы. Если у тебя туда есть ssh, то rsync настраивать не надо. Из беглого прочтения man rsync мне не удалось сделать такой вывод. :) Спасибо за тыкание носом всем ответившим. -- WBR, Dmitrii +375 29 40-LINUX