Программирование > Теория, алгоритмы и стандарты
Как реализовать поиск в сети файлов по названию и расширению
obytatel:
КшЫуфксрук
есть наработки?
obytatel:
Н-так. Ну ftp пока забудем. Как быть с http? Если подавать get-запрос на сервер к папке, то иссесно оно мне вернёт не листинг содержимого папки, а index.* или default.* (или ещё какую дрянь). Даже если он мне вернёт листинг содержимого папки, то в большинстве случаев - надо отбить руки вебмастеру (за кривость) или админу (за лень). Если я не прав - то как ты себе это представляешь?
Макс:
obytatel
индексируй все внутренние ссылки сайта и записывай себе куда-нибудь
КшЫуфксрук:
В случае HTTP побегание по дозволенным папкам следует понимать как скачивание всего сайта начиная с главной страницы и следуя далее по ссылкам (если показ списка файлов запрещен).
Я не понимаю, какой ответ ты хочешь получить? Ты и сам все прекрасно знаешь, что можно, а что нельзя. Или ты надеешься, что тут тебе подскажут способ как получить список всех файлов на сервере? А еще лучше не только список, но и сами файлы:)
P.S. Слухи о том, что Гугль выдавал в результатах поиска конфиденциальные документы говорят не о том, что у Гугль знает какой-то секрет, а о том, что вебмастера тех сайтов облажались. Причем есть разные способы облажаться. Например, достаточно положить документ куда-нибудь в пределах видимости вебсервера (но нигде не делать ссылку на него) и запросить этот документ через прокси. А где-нибудь может оказаться ссылка на логи этого прокси (я достаточно регулярно натыкаюсь в результатах поиска на различные логи). Или запросить документ с включенным гугльбаром и Гугль узнает об этом документе. Не говоря уже про разрешение показа индекса директории.
obytatel:
КшЫуфксрук
Логи проксей - подробней об этой дряни можно, а то я вовсе без понятия.
Навигация
Перейти к полной версии