17.08.2013 23:55, Anton Gorlov пишет:
Есть 1 сервер с довольно большим количеством мелких файлов,к тому же
ещё и сильно фрагментированных.
Общий объём данных порядка 600гб. Задача перенести данные на другой
сервер.
Пробовал tar+netcat - скорость от 18мбит до 120-200...
rsync даёт примерно теже данные только ещё порой и отваливается.
dd+netcat - порядка 300-600 мбит, но с dd в данном случае плохо то,что
он и фрагментированность сохранит.
А что насчёт этого с dump+restore+netcat
сдерёт ли оно так же фрагментированнсть fs или нет?
rsync и большие объёмы перекидывал приходилось задавать --timeout= и
--contimeout=
_______________________________________________
Sysadmins mailing list
[email protected]
https://lists.altlinux.org/mailman/listinfo/sysadmins