Do site: > RESUMO: Como automatizar a navegação web com scripts Perl. Capturar, tratar e > apresentar > informações capturadas na web com Perl. O conteúdo será ministrado por uma > explicação teórica seguida de exercícios/prática.
Poderia incluir alguma informação prática sobre o que são web crawlers. Algo como: Web crawlers, também conhecidos como "spiders" ou "bots", são programas criados para navegar na web automaticamente, coletando informações. Este tipo de programa é frequentemente usado em ferramentas de busca (como o Google), sites de comparação de preços (como o Buscapé, KuantoKusta, e JáCotei), ou qualquer outro sistema que precise coletar informações da web. =begin disclaimer Sao Paulo Perl Mongers: http://sao-paulo.pm.org/ SaoPaulo-pm mailing list: [email protected] L<http://mail.pm.org/mailman/listinfo/saopaulo-pm> =end disclaimer
