Автор Тема: сохранить страницу  (Прочитано 2979 раз)

0 Пользователей и 1 Гость просматривают эту тему.

Оффлайн Godo2004

  • Заглянувший
  • Новичок
  • *
  • Сообщений: 3
  • +0/-0
  • 0
    • Просмотр профиля
    • http://
сохранить страницу
« : 21 Февраля 2004, 20:57:49 »
1. Для сохранения использую функцию getstore
( LWP::),  но просмотреть файл можно только при подключенном Интернете, а так все картинки пропадают...

2. Не получается достать ссылки из файла модулем
HTML::LinkExtor если файл расположен а жестком диске...
Klim

Оффлайн metton

  • access granted
  • Старожил
  • ****
  • Сообщений: 320
  • +0/-0
  • 2
    • Просмотр профиля
    • http://bluejack.ru/
сохранить страницу
« Ответ #1 : 22 Февраля 2004, 22:03:04 »
Godo2004
Цитировать
файл расположен а жестком диске

А где он ещё может быть расположен?! В воздухе?
Или ты с дискеты обычно файл читаешь?
 BlueJacking среди нас

Оффлайн Godo2004

  • Заглянувший
  • Новичок
  • *
  • Сообщений: 3
  • +0/-0
  • 0
    • Просмотр профиля
    • http://
Нет,в сети
« Ответ #2 : 23 Февраля 2004, 02:45:06 »
я использую программу,качает линки из  Web  страницы в интернете. Работает нормально. Не могу понять, что в ней изменить
чтобы использовать  ее для сохраненной страницы..


use LWP::UserAgent;
  use HTML::LinkExtor;
  use URI::URL;

  $url = "http://images.search.yahoo.com/search/images?p=redirection&ei=UTF-8&fr=fp-tab-img-t&cop=mss&tab=3";  # for instance
  $ua = LWP::UserAgent->new;

  # Set up a callback that collect image links
  my @imgs = ();
  sub callback {
     my($tag, %attr) = @_;
     return if $tag ne \'img\';  # we only look closer at
     push(@imgs, values %attr);
  }

  # Make the parser.  Unfortunately, we don\'t know the base yet
  # (it might be diffent from $url)
  $p = HTML::LinkExtor->new(\\&callback);

  # Request document and parse it as it arrives
  $res = $ua->request(HTTP::Request->new(GET => $url),
                      sub {$p->parse($_[0])});

  # Expand all image URLs to absolute ones
  my $base = $res->base;
  @imgs = map { $_ = url($_, $base)->abs; } @imgs;

  # Print them out
  print join("\\n", @imgs), "\\n";



Да еще когда я зациклировал эту программу (для поиска в соответствии со списком слов полученных из файла) линки вытаскиваются только из первой web страницы.

Вообще то я делаю иллюстрированный словарь для изучения языка (программа должна искать картинки в соотвествии со списком слов).
Соображаю неважно , немного запутался
Klim

Оффлайн Godo2004

  • Заглянувший
  • Новичок
  • *
  • Сообщений: 3
  • +0/-0
  • 0
    • Просмотр профиля
    • http://
сохранить
« Ответ #3 : 23 Февраля 2004, 03:04:25 »
1 Относительно первого вопроса: почему getstore
LWP не сохраняет страницу как делает это IE ("сохранить как"то есть все иконки в отдельной папке) . Неужели для этого нужно писать специальную программу (ну там User Agent и все такое). Попробывал mirror ( ), то же не помогает..
Klim

 

Sitemap 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28