Forum Webscript.Ru
Общие => Веб-технологии => Тема начата: Vitos от 29 Ноября 2001, 09:30:07
-
Чем можно защитить сайт от скачивания его такими прогами, как Teleport?
-
Практически ничем. При желании всё равно скачают.
А зачем вообще защищать ?
-
Есть большой портал с инфой и картинками, первый в своём роде. Вот и надо бы защитить его от массового скачивания.
-
поставить авторизацию через apache на весь портал и пускать туды всех кто свой ;)
сайт в интернете, если его можно смотреть то тем более его можно скачать...
-
Есть большой портал с инфой и картинками, первый в своём роде
Если сайт публичный, то его всё равно скачают. Если он хоть немного интересен.
Единственную защиту указал VaV. Только среди своих тоже может качальщик оказаться :)
-
Приветствую..
Можно попробовать защититься от скачивания качалками, анализируя скорость выкачивания страниц отдельным юзером.
Ясно что человек смотрит страницы не как программа выкачивания.
Но я бы назвал эту проблему не технической, а скорее проблемой подхода к подаче сайта. Либо сдлелайте сайт закрытым, но это спасет не надолго, либо сделайте так что сама информация будет лишь частью того, что вы прделагаете вашим клиентам. Постарайтесь заинтересовать их дополнительными услугами: создайте список рассылки, конференцию, создайте то что называется "community". Тогда и люди никуда не будут уходить.
Я так думаю!
-
http://www.anti-leech.com
-
Попробую предложить такое решение.
Ссылки на страницы давать как команды JavaScript. Эти команды методом POST передают запрос страницы скрипту, который будет генерять страницу.
Програмы скачивания вроде как скрипты ещё не анализируют :-)
-
Самый простой метод - это хранить свой сайт на компьютере не подключенном к сети.
-
в теории можно запретить этов robots.txt, но смневаюсь ;) что качалки на это смотрят, хотя... где то я видел пример такого robots.txt
-
где то я видел пример такого robots.txt
User-agent: *
Disallow: /
-
Ссылки на страницы давать как команды JavaScript. Эти команды методом POST передают запрос страницы скрипту, который будет генерять страницу.
В таком случае поисковики не смогут проиндексировать страницы сайта :(
-
Тогда защитить вообще невозможно, так-как любая прога может прикинутся поисковиком.
-
Тогда защитить вообще невозможно
Истина !
-
Ребята, защитить можно - не раз видел адалтовые проекты, которые не выкачавилсь наиболее распостраненными программами, когда-то видел попытку объяснить как это можно сделать на мастер х, если очень нужно, юзайте поисковик.
-
наиболее распостраненными программами
От наиболее распространненых может и можно защитить, но любой нормальный программер может просто изучить защиту сайта и сам написать под нее прогу для скачивания (хотя бы на том же PHP).
Здесь предлагали анализ трафика - но во-первых это лишняя нагрузка на сервер, а во-вторых - может быть причиой неудобств для пользователей при определенных ситуациях.
Так что, если захотят - выкачают
-
http://www.webclub.ru/content/website/article-143.html
-
а кто-н. знает как защитить сам контент сайта от копирования?
писала на javaScript, да только вот в браузеах opera, nn и mozilla не срабатывает
________________________________________________
-
kiti
Ну зачем это нужно?...
Все равно полностью не защитишь, а пользоваться людям помешаешь.
-
Vitos:
Чем можно защитить сайт от скачивания его такими прогами, как Teleport?
Как-то мне попадался php-скриптик, имя файла кажется dima_noflood.php.
Принцип приблизительно такой: Подключаешь его в начале каждой php-страницы, в нем задается максимальное кол-во запросов от юзера за определенное время - исли их больше (досустим юзер запустил качальщик), то выдается "Ошибка 403" и IP-адрес юзера блокируется на заданный промежуток времени.
-
:
не раз видел адалтовые проекты
А разьве надо индексировать такие проекты дальше первой страницы? тем более что на многих стоит авторизация...
Wyclef:
dima_noflood.php
http://php.spb.ru/other/_dima_noflood.php