On Sat, 27 Aug 2016, dimas wrote:
есть небольшой личный сайт, который переезжает на другой хостинг. в основном там фотки, которые все есть у меня локально, так что качать 2.5 гига с одного сервера, чтоб потом залить на другой - как-то нафиг надо, если проще те же фотки прогнать тем же скриптом, который их обзовет как надо, создаст превьюшки и html-страницы, да оно и быстрее. но местами есть и кой-какое другое полезное файло. причем на некоторые файлы ничего не ссылается (например, лежит себе пдф, на который ссылка дана где-нибудь на форуме), так что какой-нибудь wget -R их не увидит. так вот, есть ли какой-то способ с помощью wget/curl/ftp/etc получить полное дерево всех файлов на сервере, по типа локального "find /path/"? т.е. обойти рекурсивно все каталоги и сделать dir/ls.
Некоторые ftp сервера поддерживают ls -R. Альтернативно можно попробовать lftp клиент и команду find в нем. Ю.