Разное > Поиск, изготовление скриптов и прочее...

вопрос на засыпку

(1/1)

dimmer:
возможно кому-то вопрос покажется наивно-детским, но прошу строго не судить – в web-программировании я не силен.

Есть сайт известной газеты. Главная страница со ссылками на остальные статьи номера. Страницы весят за 100 kb. Сама статья занимает десятую часть от размера страницы. Сейчас я использую GUL от http://as-works.narod.ru/. Программа скачивает газету и вырезает ненужную информацию. Главный недостаток в том, что естественно приходится закачивать полный объем файлов, а уж потом из 600 кил получается 100.

Вопрос - можно ли с помощью  PHP, Perl, еще не знаю чего сделать так, чтобы:

- Страницы закачивались на сервер (под сервером я подразумеваю бесплатный хостинг) и там вырезалось ненужное.
или
- Страницы закачивались на сервер и упаковывались в архив.
или
- На сервере можно было запустить windows-приложение, то бишь GUL.

Unspecified:
Можно сделать
unspecified@list.ru - пиши, обсудим

glebushka:
о, братья по разуму нашли друг друга

Навигация

[0] Главная страница сообщений

Sitemap 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 
Перейти к полной версии