On 5/4/05, Victor Sanchez2 <[EMAIL PROTECTED]> wrote: > Quer�a saber si existe alg�n programa en Debian que sea capaz de obtener > directorios de una web. Me explico: > > www.aaaaa.com/ejemplo1/ > > Si en el directorio ejemplo1 hay 200 enlaces, pues que los recorra y los > descargue al disco duro. Yo hace mucho tiempo en windows usaba Webslink. > �sabeis si hay algo similar para linux? > > -- > To UNSUBSCRIBE, email to [EMAIL PROTECTED] > with a subject of "unsubscribe". Trouble? Contact [EMAIL PROTECTED] > > Pues as� a bote pronto, hay extensiones de mozilla y firefox que permiten eso y mucho m�s. Si usas habitualmente estos navegadores, date una vuelta por: https://addons.update.mozilla.org/extensions/
Por otro lado, tirando de apt vemos r�pidamente algunas aplicaciones. apt-cache search web download httrack - Copy websites to your computer (Offline browser) omt - A tool for mirroring web pages webhttrack - Copy websites to your computer, httrack with a Web interface wget - retrieves files from the web --- Este es el �nico que conozco y es en linea de comandos) wwwoffle - World Wide Web OFFline Explorer Un saludo,

