El Thu, 03 Oct 2013 10:18:13 +0200, Usuario Lista escribió: > El día 2 de octubre de 2013 16:45, Camaleón <[email protected]> > escribió:
(...) >>> Sabéis alguna manera de poder filtrar todo ese tipo de links "extras" >>> que tiene una petición a una web? >> >> Hum... no tengo la menor idea de qué formato usa squid para registrar >> las peticiones de los clientes (accesos) pero para Apache tienes >> algunos ejemplos de filtrado para visitantes únicos en esta página: >> >> http://geekpad.ca/blog/post/get-unique-visitors-from-apache-log-file >> >> Echa un vistazo ya que es posible que puedas adaptar esos comandos al >> formato del registro que usa squid y de esta forma poder filtrar >> "aguachinadamente" por los usuarios y los sitios distintos a los que >> han accedido. (...) > A ver, he encontrado esto. > > http://sourceforge.net/p/sarg/wiki/hostalias/ Hum... > Pero no se me ocurre ninguna forma de poder automatizar eso, sin tener > que ver primero los informes para poder crear los hostalias. (leyendo...) Pues sí, no tiene mucho sentido. Si tienes que generar ese archivo manualmente no te va a servir salvo, vamos... muy enrevesado lo veo ya que tendrías que generar ese archivo extrayendo sólo la columna de los dominios del registro de squid y después recuperar el dominio para usarlo como la cadena de reemplazo. ¿Has probado con algunos de los ejemplos del enlace que te pasé? Saludos, -- Camaleón -- To UNSUBSCRIBE, email to [email protected] with a subject of "unsubscribe". Trouble? Contact [email protected] Archive: http://lists.debian.org/[email protected]

