Общие > Веб Сервера
mod_rewrite
Tronyx:
--- Цитировать ---Как 1-му HTTP_USER_AGENT\'у запретить много страниц, типа
--- Конец цитаты ---
Может быть имеет смысл кинуть все "закрытые" файлы в одну папку и запретить доступ к ней?
Alexandr:
--- Цитировать ---Может быть имеет смысл кинуть все "закрытые" файлы в одну папку и запретить доступ к ней?
--- Конец цитаты ---
Да мне надо Yandex-Site\'у. А то он индексирует всего 5Мб. Начинает всякую динамическую дрянь индексировать, а хотелось бы укротить его прожорливость и проиндексировать тока нужные страницы.
Tronyx:
--- Цитировать ---Да мне надо Yandex-Site\'у. А то он индексирует всего 5Мб. Начинает всякую динамическую дрянь индексировать, а хотелось бы укротить его прожорливость и проиндексировать тока нужные страницы.
--- Конец цитаты ---
А Yandex-Site robots.txt не смотрит?
rembo:
--- Цитировать ---а хотелось бы укротить его
--- Конец цитаты ---
А в хтмл-ы теги ненужная инфа не пробовал ставить? или я ничего не понял?
Alexandr:
--- Цитировать ---А Yandex-Site robots.txt не смотрит?
--- Конец цитаты ---
Вот....
Хостера залечил. Поставил свежую версию Yandex-Сайта!!!
Сейчас роботс.тикст смотрит.
А вот ответ на мой вопрос:
RewriteCond %{HTTP_USER_AGENT} ^YandexSomething
RewriteRule ^/acat-online/(detail/select).php?.*$ - [F]
rembo
--- Цитировать ---А в хтмл-ы теги ненужная инфа не пробовал ставить?
--- Конец цитаты ---
Эт само собой.
--- Цитировать ---или я ничего не понял?
--- Конец цитаты ---
Ес-но. :-)
Навигация
Перейти к полной версии