Forum Webscript.Ru
Дизайн и Верстка => Всё о Html => Тема начата: Abram от 14 Июня 2004, 10:36:47
-
Как правильно подготоаить сайт для индексации поисковиками. Подскажите пожалуйста я никогда такого не делал(сайт полностью на пхп) Как там все описывать надо?
-
Например почитать, что пишет о добавлении сайтов (http://yandex.ru/info/webmaster.html) всем известный (http://img.yandex.ru/i/logo-s.gif)
-
Читал про robots.txt и теги Вобщем имеется несколько вопросов на которые я не нашел ответа:
1. Если я подготовлю сайт под яндекс, то нормально ли проиндексирует сайт рабмлер гугл и т.д.?(Тоесть не могут ли занести в черный список).
2. Сайт полностью на пхп(чистого html нет вообще)+сайт на 3 языках. Как правильно подготовить для индексации? (Как хранить ключевые слова - генерировать их под каждую страницу? Например скрипт новостей можно сделать слова статичными(новости, спорт, политика и т.д.) а можно под каждую новость писать свои ключевые слова(создать отдельное поле в таблице новостей)
И еще ключевые слова можно писать на разных языках? Тоесть допустим "спорт новости sport news...
3. Если у меня есть robots.txt нужно ли в тегах мета прописывать теги роботс или можна обойтись?
4. Если я не хочу индексировать сайт пока(еще нужно кое-что доделать) а я его уже выложил в сети под тем доменом под которым он будет "жить" то не найдет ли его робот автоматически и не проиндексирует в таком случае? Что делать тогда?
-
Abram:
чистого html нет вообще
это твое великое заблуждение.
3. По идее можно обойтись.
вообще
http://www.searchengines.ru тебе поможет.
-
это твое великое заблуждение.
Не понял фразы. Что ты имеешь в виду?
-
Abram:
Не понял фразы
То, что для поисковиков твое
чистого html нет вообще
как раз и является чистым HTML
-
Ну объясни как индексируется файл news.php Где все данные берутся из базы данных. В такой случае можно и динамически создавать ключевые слова под каждую новость?
-
Abram
можно.
все можно.
как индексируется - зависит от логики робота, который этим занимается. вот под него и подстраивайся.
-
[off]Где давно вычитал. Для того чтобы посмотреть как видят поисковые роботы твой сайт скачай текстовый браузер Lynx (если ты сидишь в виндах) и посмотри.[/off]
-
Abram:
Ну объясни как индексируется файл news.php Где все данные берутся из базы данных.
поисковику без разницы откуда берутся данные, из файла, из БД или еще откуда
он индексирует результаты выполнения скрипта, то есть чистый HTML
-
зависит от логики робота, который этим занимается. вот под него и подстраивайся.
Ну не могут же роботы по разному сканировать сайт!! Принципы у них ведь одинаковые.
Подстроиться под каждого робота - думаю это нереально
-
MadDog
можно использовать
http://www.samspade.org/ssw/
тот же эффект
-
Abram
принципы одинаковыt, но результат сканирования разный :)
Раньше не все роботы переваривали урлы типа http://lalala.ru/news.php?my_chto-to
почитай разные статейки по этой теме - ссылку тебе дали, searchengines.ru
-
ThE0ReTiC
:) мне всё таки больше Lynx нравится.... ближе как-то и привычнее.
-
MadDog
[off]
а мне links :)
[/off]
-
1. Если не пользоваться черными методами подгона страничек (например невидимые ссылки и т.д.), то и в черный список не за что попадать ;) Пользуйтесь общими методами оптимизации.
2. Поисковики видят сайт так же как обычный пользователь, и не важно откуда беруться данные. Постарайтесь писать ключевые слова для каждой странички - это может быть весьма трудоемко, но принесет свои плоды!
3. Можно обойтись.
4. Пропиши в robots.txt :
User-agent: *
Disallow: /
-
4kict:
Постарайтесь писать ключевые слова для каждой странички
Большинству поисковиков это безразлично