Аз лично имам решението с apache модулите и със tool който следи логовете и лимитира. Наблюденията които имаме с колегите от моята фирма е, че този tool не товари много и върши добра работа(но това е само за нашата фирма и нашата ситуация :)).
Дори ако искаш мога да ти пратя копие на tool-а за анализ на логовете. Пробвали сме със robots.txt но има толкова много роботи които не го разбират : ( така, че в крайна сметка преминахме към лимити в самият apache. Поздрави Мариян On Tuesday 29 July 2008 14:01:46 Веселин Михайлов wrote: > Виж, това наистина е един доста ключов момент. Може да се направи нещо > комбинирано - за по-известните паяци за които се знае че разбират от > разширен синтаксис и го спазват - robots.txt. А за всички останали на които > не можем да се доверим - iptables. Ще трябва да помисля и направя малко > тестове по въпроса. :) > > 2008/7/29 Georgi Chorbadzhiyski <[EMAIL PROTECTED]> > > > On 07/29/08 11:54, Веселин Михайлов wrote: > > > Проблема е със предимно Google, Yahoo! и Twiceler, тъй като те > > > > най-често > > > > > обхождат сайтовете. Май идеята на Лазаров може би ще свърши по-добра > > > > работа. > > > > Само ако паяците разбират разширения синтаксис на robots.txt > > > > -- > > Georgi Chorbadzhiyski > > http://georgi.unixsol.org/ > > _______________________________________________ > > Lug-bg mailing list > > [email protected] > > http://linux-bulgaria.org/mailman/listinfo/lug-bg _______________________________________________ Lug-bg mailing list [email protected] http://linux-bulgaria.org/mailman/listinfo/lug-bg
