Здравствуйте! Nick Potemkin <[EMAIL PROTECTED]> writes: > > Конечно, придумать способов не пущать роботов можно кучу - > > сделать минимальный промежуток времени между двумя запросами с > > одного IP, отслеживать обход дерева, анализировать запрос на > > количество мусора в нем (мало - значит робот) итд. > > Угу... Вот именно что-то подобное и хочется.
Поменьше HTML на Web-страницах, побольше JavaScript; <A HREF> вообще нужен только для электронных книг в формате PDF - и Wget Вам не страшен. А от его злостного пользователя можно защититься красивыми URL-ами: пропустите оригинальное название через uuencode. С уважением, Алексей Дейнека P.S. К счастью, любителей шифровать URL-ы пока почти нет, а скриптов сейчас раз в десять больше, чем текстов...

