Программирование > Теория, алгоритмы и стандарты

Как реализовать поиск в сети файлов по названию и расширению

<< < (3/4) > >>

obytatel:
КшЫуфксрук
есть наработки?

obytatel:
Н-так. Ну ftp пока забудем. Как быть с http? Если подавать get-запрос на сервер к папке, то иссесно оно мне вернёт не листинг содержимого папки, а index.* или default.* (или ещё какую дрянь). Даже если он мне вернёт листинг содержимого папки, то в большинстве случаев - надо отбить руки вебмастеру (за кривость) или админу (за лень). Если я не прав - то как ты себе это представляешь?

Макс:
obytatel
индексируй все внутренние ссылки сайта и записывай себе куда-нибудь

КшЫуфксрук:
В случае HTTP побегание по дозволенным папкам следует понимать как скачивание всего сайта начиная с главной страницы и следуя далее по ссылкам (если показ списка файлов запрещен).

Я не понимаю, какой ответ ты хочешь получить? Ты и сам все прекрасно знаешь, что можно, а что нельзя. Или ты надеешься, что тут тебе подскажут способ как получить список всех файлов на сервере? А еще лучше не только список, но и сами файлы:)

P.S. Слухи о том, что Гугль выдавал в результатах поиска конфиденциальные документы говорят не о том, что у Гугль знает какой-то секрет, а о том, что вебмастера тех сайтов облажались. Причем есть разные способы облажаться. Например, достаточно положить документ куда-нибудь в пределах видимости вебсервера (но нигде не делать ссылку на него) и запросить этот документ через прокси. А где-нибудь может оказаться ссылка на логи этого прокси (я достаточно регулярно натыкаюсь в результатах поиска на различные логи). Или запросить документ с включенным гугльбаром и Гугль узнает об этом документе. Не говоря уже про разрешение показа индекса директории.

obytatel:
КшЫуфксрук
Логи проксей - подробней об этой дряни можно, а то я вовсе без понятия.

Навигация

[0] Главная страница сообщений

[#] Следующая страница

[*] Предыдущая страница

Sitemap 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 
Перейти к полной версии