Adicional los usuarios deben crear los bookmarks en su browser, para
ubicar rapidamente las paginas de su interes.

Pueden descargar un site, usando wget (consultar manpages), y despues el
contenido descargado puede ser colocado en un servidor web local para su
uso, por ejemplo usando apache.

Saludos.

FMAQ.


El sáb, 17-06-2006 a las 13:49 -0500, Gonzalo L. Campos Medina escribió:
> El 17/06/06, Alejandro Rivas<[EMAIL PROTECTED]> escribió:
> > Saludos
> >
> > Tengo una curiosidad.
> >
> > Habrá manera de que squid pueda hacer una copia de
> > cada página que ve  un usuario, especificandole un
> > parte del url, por ejemplo:
> >
> > quienes visiten el sitio www.eduteka.org , para cada
> > visita, que en el servidor se guarde una copia de la
> > página visitada.
> >
> > Esto porque en mi escuela, hay varios/as profesores
> > que me cuestionan sobre si se pudiera tener dicha
> > informacion mas a la mano.
> >
> > Gracias anticipadas
> >
> > Alejandro
> >
> --
> 
> Si en realidad tienes bien configurado tu Squid Caché, y tus usuarios
> frecuentan un determinado sitio, pues este debe estar disponible
> rápidamente en los browsers de las PCs clientes.  Ahora me parece que
> lo que tu quieres es un mirror de un sitio web para navegar offline
> sin necesidad de salir a Internet, si ese fuera el caso tienes que
> descargarte la web si es que este sitio te lo permite claro.
> 

_______________________________________________
Linux-plug mailing list
[email protected]
http://www.linux.org.pe/cgi-bin/mailman/listinfo/linux-plug

Responder a