Do site:

> RESUMO: Como automatizar a navegação web com scripts Perl. Capturar, tratar e 
> apresentar
> informações capturadas na web com Perl. O conteúdo será ministrado por uma
> explicação teórica seguida de exercícios/prática.

Poderia incluir alguma informação prática sobre o que são web
crawlers. Algo como:

Web crawlers, também conhecidos como "spiders" ou "bots", são
programas criados para navegar na web automaticamente, coletando
informações. Este tipo de programa é frequentemente usado em
ferramentas de busca (como o Google), sites de comparação de preços
(como o Buscapé, KuantoKusta, e JáCotei), ou qualquer outro sistema
que precise coletar informações da web.
=begin disclaimer
   Sao Paulo Perl Mongers: http://sao-paulo.pm.org/
 SaoPaulo-pm mailing list: [email protected]
 L<http://mail.pm.org/mailman/listinfo/saopaulo-pm>
=end disclaimer

Responder a