я использую программу,качает линки из  Web  страницы в интернете. Работает нормально. Не могу понять, что в ней изменить 
чтобы использовать  ее для сохраненной страницы..
use LWP::UserAgent;
  use HTML::LinkExtor;
  use URI::URL;
  $url = "
http://images.search.yahoo.com/search/images?p=redirection&ei=UTF-8&fr=fp-tab-img-t&cop=mss&tab=3";  # for instance
  $ua = LWP::UserAgent->new;
  # Set up a callback that collect image links
  my @imgs = ();
  sub callback {
     my($tag, %attr) = @_;
     return if $tag ne \'img\';  # we only look closer at 
![]()
     push(@imgs, values %attr);
  }
  # Make the parser.  Unfortunately, we don\'t know the base yet
  # (it might be diffent from $url)
  $p = HTML::LinkExtor->new(\\&callback);
  # Request document and parse it as it arrives
  $res = $ua->request(HTTP::Request->new(GET => $url),
                      sub {$p->parse($_[0])});
  # Expand all image URLs to absolute ones
  my $base = $res->base;
  @imgs = map { $_ = url($_, $base)->abs; } @imgs;
  # Print them out
  print join("\\n", @imgs), "\\n";
Да еще когда я зациклировал эту программу (для поиска в соответствии со списком слов полученных из файла) линки вытаскиваются только из первой web страницы.
Вообще то я делаю иллюстрированный словарь для изучения языка (программа должна искать картинки в соотвествии со списком слов).
Соображаю неважно , немного запутался