Hehe, acredite, o 'wget' consegue puxar tudo sim :) Ele só precisa das opções certas. caso não consiga e for recorrer a um script, posso dar a dica de como eu havia feito:
1. Baixar o código fonte da pagina; 2. Usando muito o 'sed', 'cut' e outros, remover as partes que não interessa do fonte; 3. Criar uma lista com os links dos arquivos que você quer, e; 4. Lendo a lista dentro de um loop, executar o wget pra baixar um a um os arquivos. Funciona, mas ainda assim prefiro o 'wget' sozinho. abraços!"" -- Raul Libório UniJorge Redes - www.redesfja.com rauhmarutsªhotmailºcom Linux user#4444581 [(55) 71] 9246 9828 Dúvidas: enviar para /dev/null Respondei assim que possível. 2008/8/15 Leonardo Bernardes <[EMAIL PROTECTED]>: > Eu acho que você precisa de um loop, Marlon, se você quer baixar um > arquivo por vez (talvez o wget permita multiplos arquivos, não? Não > conheço bem o comando) > > wget "$1" > NOMES=$(egrep '*mp3' index.html | cut -d '>' -f 3 |cut -d '<' -f 1 ) > IFS=$'\n' > for line in "$NOMES"; do > wget "$1""$line" > done > > # Assim ele vai baixar cada parâmetro do $NOMES separado por \n. Você > pode implementar o script, esse é só um modelo. Veja se funciona! Mas > em todo caso, a idéia é essa, um loop que busque uma linha por vez. > > Ou talvez você possa usar o xargs -- não sei usá-lo -- mas lembro que > o Tiago falou uma vez, em seu blog, que ele podia capturar uma saída e > lançá-la num comando, de acordo com as possibilidades(o limite de > argumentos). Quem sabe ele apareça aqui pra explicar. Pensei em algo > assim: > > echo $NOMES |xargs wget > > Mas não sei, não conheço o xargs, assim que tiver tempo vou procurar > saber sobre ele e sobre o nl. > > Abraços, > > Leonardo Bernardes > Usuário Linux # 444329 > brausen.blogspot.com > > 2008/8/15 marlon_mca <[EMAIL PROTECTED]>: >> Bom dia a todos >> >> Venho pedir ajuda de todos para me ajudarem a lidar com listas de >> itens em uma váriavel, vas tempo q tenho essa dificuldade e hj vim >> pedir ajuda a todos. >> >> Aqui vai um exemplo: >> Quero baixar todos os arquivos de um site, então usando o wget, egre, >> cut e regex consigo a lista de arquivos q preciso salvar e coloco tudo >> numa váriavel (NOME) , agora como pegar cada item e joga-lo no wget >> sem que ele pegue tudo de uma vez? >> >> ############################ >> #!/bin/bash >> >> # Exemplo de uso : >> # sricpt endereço do site >> # o endereço será salvo na variável $1 e depois inida a variável NOMES >> para ser baixado com o wget >> >> wget "$1" >> NOMES=$(egrep '*mp3' index.html | cut -d '>' -f 3 |cut -d '<' -f 1 ) >> #echo "$NOMES" >> wget "$1""$NOMES" >> >> ############################## >> >> Desde já agradeço a todos >> Marlon >> >> >
