El Wed, 08 Dec 2010 01:02:52 -0300, Pablo Zuñiga escribió: > quiero compartir la siguiente acotación en cuanto a un poco el tema de > seguridad, me he dado cuenta que hay unos web robots (spider robots) que > buscan siempre los mismos directorios. > > la mayoria tiene la siguiente estructura
(...) > los archivos robots.txt están desactivados para que puedan buscar e > indexar, alguien ha revisado mas de este tipo de comportamiento? yo > busque si dentro de los directorios que se crean en servidores debian > pillabamos la misma estructura de subdirectorios, así que concluyo que > esta mas orientado a instalaciones personalizadas en algún ambiente > windows aunque desconozco si otras distros trabajaran así Bueno, cada "bot" estará programado para buscar vulnerabilidades en distintos servidores web, es decir, incluyen patrones "genéricos" de búsqueda por lo que no te extrañe que ejecute peticiones a rutas o archivos inexistentes (el "bot" desconoce el tipo de servidor al que intenta atacar, no sabe si corre bajo windows, linux o cualquier otro sistema, así como tampoco sabe qué tipo de servicios tiene instalados, por lo que intenta acceder a todos los recursos que se saben vulnerables). En cualquier caso, lo importante es mantener actualizado cualquier framework (tipo drupal, wordpress, joomla, etc...) que se tenga habilitado en el servidor web ya que son los servicios más vulnerables. Saludos, -- Camaleón -- To UNSUBSCRIBE, email to [email protected] with a subject of "unsubscribe". Trouble? Contact [email protected] Archive: http://lists.debian.org/[email protected]

