Просмотр сообщений

В этом разделе можно просмотреть все сообщения, сделанные этим пользователем.


Сообщения - Uzver

Страницы: 1 [2] 3 4
16
PHP / определение размера страницы по её url
« : 15 Февраля 2006, 00:16:24 »
Цитировать
RomikChef:
что с твоих умозаключений, что - особенно - с ответов =)

о, я сумел комуто поднять настроение, это радует, вот ктоб еще мне его поднял, чуть чуть

17
PHP / определение размера страницы по её url
« : 15 Февраля 2006, 00:12:02 »
Цитировать
RomikChef:
феерический топик

ну не знаю, мне совсем не радостно :-(

18
PHP / определение размера страницы по её url
« : 14 Февраля 2006, 23:13:17 »
но вот срабатывает он лиш в единичьных случаях, сервер просто не возвращает в загаловках нужную информацию, но вот почему понять не могу, вродебы от настроек сервера это не должно зависить

19
PHP / определение размера страницы по её url
« : 14 Февраля 2006, 23:09:58 »
Цитировать
for_i_0:
Интересно, а как иначе ты это себе предстовляешь ?

если верить мануалам и прмерам выложенным в нет то следюющий пример должен напечатать размер страницы:
$urlArray = parse_url("http://forums.webscript.ru/");
if (!isset($urlArray["port"])) $urlArray["port"] =  "80";
if (!isset($urlArray["path"])) $urlArray["path"] =  "/";
if ($urlArray["host"] != gethostbyname($urlArray["host"])) {
   $fp = fsockopen ($urlArray[host], $urlArray[port], $errno, $errstr, 10);
   if (isset($fp)) {
      socket_set_blocking($fp);
      fputs ($fp, "HEAD $urlArray[path] HTTP/1.1\\r\\nHost: $urlArray[host]\\r\\nConnection: Close\\r\\n\\r\\n");
      while ($str = fgets($fp, 1024)) {
         if (ereg("^Content-Length: ([0-9]+)",$str,$size)) {echo $size[1];}
      }
      fclose($fp);
       flush();
   }
}

20
PHP / определение размера страницы по её url
« : 14 Февраля 2006, 22:45:15 »
Цитировать
for_i_0:
мануал -> file_size()

Повторюсь еще раз "Пересчет полученного ответа по байтам или сохранение страницы в файл с последующим определением размера както то не очень хочется юзать". Определяется размер веб-страницы, удаленной.

21
PHP / определение размера страницы по её url
« : 14 Февраля 2006, 20:26:36 »
Второй день пытаюсь решить вопрос определения размера страницы по известному url. Все что удалось найти по этой теме это чтение страницы через fsockopen с последующим поиском в ответе строки вида Content-Length:… но как ни странно ни разу не получил эту строку в заголовках возвращаемых сервером.
Собственно вопрос, какие еще методы определения размера страницы? Пересчет полученного ответа по байтам или сохранение страницы в файл с последующим определением размера както то не очень хочется юзать.

22
Базы данных / MySQL выборка по длине строки
« : 12 Февраля 2006, 13:49:14 »
как все легко и просто оказалось :-)

SELECT *
FROM `...`
ORDER BY LENGTH( `...` )
LIMIT 0 , 30

тема закрыта, всем спасибо

23
Цитировать
Yukko:
мысли ушли в ПС

Единственный способ повысить интеллект - считать допустимыми любые мысли.
не помню точно кто сказал, кажется некто Кидс году этак в 19... но считаю эту фразу актуальной до сих пор и стараюсь ее придерживаться, поэтому мысли в студию плиз :-)

24
может для начала стоит определиться с тоем что ты продаешь? и только потом выделять схемы оплаты?

25
Базы данных / MySQL выборка по длине строки
« : 11 Февраля 2006, 22:52:57 »
собственно вопрос
в базе содержится n записей разной длины, нужно извлечь самую короткую из них... ваши предложения, рекомендации...

26
Базы данных / MySql + Php компрессия данных
« : 11 Февраля 2006, 22:49:51 »
немного не то но  спасибо

27
P.S. и еще вопрос вдогонку, в настоящий момент Crawler работает с двух IP адресов (без использования Crawler Agent) используя одну базу (хранятся уже найденные ссылки) со случайной выборкой исследуемой страницы, быть может имеет смысл "заставить" Crawler работать вширь а не вглубь? То есть в первую очередь исследовать первый, второй и быть может третий уровень известных сайтов и только потом идти в глубь? У кого какие идеи на это счет?

28
паук есть и работает, спайдер... ну скачать страницу и очистить ее от мусора это помоему не тема для обсуждения, базы индексов в принципе тоже расписаны уже чуть ли не побуквенно, поиск по индексам тоже, вопрос стоит в ранжировании страниц найденных по запросу, в определении их релевантности запросу, тобиш расчет веса страницы, расчет веса ресурса коему принадлежит страница, расчет веса слов найденных на странице... не хочется выпустить в мир еще одну "частную страницу" которой никто не будет пользоваться

29
За ссылки спасибо, но они уже давно изучены. Касательно ридной неньки Украины, поиск по Украине действительно актуальный вопрос. Мета с ее тяжеловесностью кучей рекламы в результатах поиска и индексом обновляемым минимум раз в пол года… и бигмир с чуть меньшим количеством рекламы … Касательно яндекса, не сносно он ищет по Украине, также как и гугля, не знаю уж почему но при поиске по Украине они крайне редко выдают нужный результат, обычно результат получают долгим копнением над метой или в последнее время бигмиром.
Идея состоит именно в том чтобы сделать максимально легкий и быстро обновляемый сервис. Обновление базы должно проходить как максимум раз в 2 месяца. В настоящий момент уже существует тестовая версия crawler-ра который за 20 дней обошел базу примерно из 32 тыс. сайтов. (база была предварительно актуализирована).
А сюда я пришел за мнением людей, за возможными советами и за любыми высказанными мыслями. Поэтому заранее спасибо всем ответившим, даже за негативные ответы.

30
Базы данных / MySql + Php компрессия данных
« : 10 Февраля 2006, 21:11:37 »
дык, "added in MySQL 4.1.3", у мну стоит 4.1.16, хотя в принципе обновить не проблема, а как на скорость работы влияет? на мане не нашел такой инфы

Страницы: 1 [2] 3 4