Общие > Веб-технологии

Защита сайта от скачивания

<< < (2/5) > >>

MHz:
Приветствую..
Можно попробовать защититься от скачивания качалками, анализируя скорость выкачивания страниц отдельным юзером.
Ясно что человек смотрит страницы не как программа выкачивания.
Но я бы назвал эту проблему не технической, а скорее проблемой подхода к подаче сайта. Либо сдлелайте сайт закрытым, но это спасет не надолго, либо сделайте так что сама информация будет лишь частью того, что вы прделагаете вашим клиентам. Постарайтесь заинтересовать их дополнительными услугами: создайте список рассылки, конференцию, создайте то что называется "community". Тогда и люди никуда не будут уходить.
Я так думаю!

VaV:
http://www.anti-leech.com

Hoary:
Попробую предложить такое решение.

Ссылки на страницы давать как команды JavaScript. Эти команды методом POST передают запрос страницы скрипту, который будет генерять страницу.

Програмы скачивания вроде как скрипты ещё не анализируют :-)

NAS:
Самый простой метод - это хранить свой сайт на компьютере не подключенном к сети.

Green Kakadu:
в теории можно запретить этов robots.txt, но смневаюсь ;) что качалки на это смотрят, хотя... где то я видел пример такого robots.txt

Навигация

[0] Главная страница сообщений

[#] Следующая страница

[*] Предыдущая страница

Sitemap 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 
Перейти к полной версии