Adicional los usuarios deben crear los bookmarks en su browser, para ubicar rapidamente las paginas de su interes.
Pueden descargar un site, usando wget (consultar manpages), y despues el contenido descargado puede ser colocado en un servidor web local para su uso, por ejemplo usando apache. Saludos. FMAQ. El sáb, 17-06-2006 a las 13:49 -0500, Gonzalo L. Campos Medina escribió: > El 17/06/06, Alejandro Rivas<[EMAIL PROTECTED]> escribió: > > Saludos > > > > Tengo una curiosidad. > > > > Habrá manera de que squid pueda hacer una copia de > > cada página que ve un usuario, especificandole un > > parte del url, por ejemplo: > > > > quienes visiten el sitio www.eduteka.org , para cada > > visita, que en el servidor se guarde una copia de la > > página visitada. > > > > Esto porque en mi escuela, hay varios/as profesores > > que me cuestionan sobre si se pudiera tener dicha > > informacion mas a la mano. > > > > Gracias anticipadas > > > > Alejandro > > > -- > > Si en realidad tienes bien configurado tu Squid Caché, y tus usuarios > frecuentan un determinado sitio, pues este debe estar disponible > rápidamente en los browsers de las PCs clientes. Ahora me parece que > lo que tu quieres es un mirror de un sitio web para navegar offline > sin necesidad de salir a Internet, si ese fuera el caso tienes que > descargarte la web si es que este sitio te lo permite claro. >
_______________________________________________ Linux-plug mailing list [email protected] http://www.linux.org.pe/cgi-bin/mailman/listinfo/linux-plug
