Гнатына Александр <[email protected]> писал(а) в своём письме Fri, 01 Jun 2012
23:03:05 +0300:
wget
Огласите требования.
Требования, вроде бы, не хитрые --- нужно сохранить всю инфу web-страницы
в html -файл.
Обычно, поступал так, например:
my $url = 'http://www.адрес';
my $agent = LWP::UserAgent->new;
$agent->agent("Opera");
my $request = HTTP::Request->new( GET => $url );
$request->header('Accept' => 'text/html');
open(FILE, ">info.html");
print FILE_S $response->content;
close FILE;
Но сейчас столкнулся с тем, что для Web-страниц, содержащих JavaScript
все содержимое не могу получить,
т.е. то что вижу в броузере (Opera or others) нет в сохранённом файле.
Понимаю, что здесь проблема для меня с отработкой JavaScript, которые
выполняются в броузере.
Вопрос в том, есть ли какой Perl-модуль или что-то консольное, выполняющее
все что делает броузер
с возможностью сохранения этого результата?
В Птн, 01/06/2012 в 21:58 +0300, Alessandro Gorohovski пишет:
Уважаемое сообщество,
Доброго времени суток!
Посоветуйте модуль (кому реально приходилось пользоваться)
хорошего Web-spider.
P.s.
На CPAN смотрел, их бескрайнее множество.
Спасибо
--
Alessandro
--
Moscow.pm mailing list
[email protected] | http://moscow.pm.org