17.08.2013 23:55, Anton Gorlov пишет:
Есть 1 сервер с довольно большим количеством мелких файлов,к тому же ещё и сильно фрагментированных. Общий объём данных порядка 600гб. Задача перенести данные на другой сервер.
Пробовал tar+netcat - скорость от 18мбит до 120-200...
rsync даёт примерно теже данные только ещё порой и отваливается.
dd+netcat - порядка 300-600 мбит, но с dd в данном случае плохо то,что он и фрагментированность сохранит.

А что  насчёт этого с dump+restore+netcat
сдерёт ли оно так же фрагментированнсть fs или нет?
rsync и большие объёмы перекидывал приходилось задавать --timeout= и --contimeout=

_______________________________________________
Sysadmins mailing list
[email protected]
https://lists.altlinux.org/mailman/listinfo/sysadmins

Ответить