я использую программу,качает линки из Web страницы в интернете. Работает нормально. Не могу понять, что в ней изменить
чтобы использовать ее для сохраненной страницы..
use LWP::UserAgent;
use HTML::LinkExtor;
use URI::URL;
$url = "
http://images.search.yahoo.com/search/images?p=redirection&ei=UTF-8&fr=fp-tab-img-t&cop=mss&tab=3"; # for instance
$ua = LWP::UserAgent->new;
# Set up a callback that collect image links
my @imgs = ();
sub callback {
my($tag, %attr) = @_;
return if $tag ne \'img\'; # we only look closer at
push(@imgs, values %attr);
}
# Make the parser. Unfortunately, we don\'t know the base yet
# (it might be diffent from $url)
$p = HTML::LinkExtor->new(\\&callback);
# Request document and parse it as it arrives
$res = $ua->request(HTTP::Request->new(GET => $url),
sub {$p->parse($_[0])});
# Expand all image URLs to absolute ones
my $base = $res->base;
@imgs = map { $_ = url($_, $base)->abs; } @imgs;
# Print them out
print join("\\n", @imgs), "\\n";
Да еще когда я зациклировал эту программу (для поиска в соответствии со списком слов полученных из файла) линки вытаскиваются только из первой web страницы.
Вообще то я делаю иллюстрированный словарь для изучения языка (программа должна искать картинки в соотвествии со списком слов).
Соображаю неважно , немного запутался