Автор Тема: Как реализовать поиск в сети файлов по названию и расширению  (Прочитано 8969 раз)

0 Пользователей и 1 Гость просматривают эту тему.

Оффлайн obytatel

  • Фанат форума
  • Постоялец
  • ***
  • Сообщений: 129
  • +0/-0
  • 0
    • Просмотр профиля
    • http://www.microsoft.com/
Как реализовать поиск в сети файлов по названию и расширению (эдакий поисковый робот для личного использования хочу).
БЕЛАРУСЬ - страна восходящего картофеля

Оффлайн ThE0ReTiC

  • Главный по тарелочкам
  • Глобальный модератор
  • Ветеран
  • *****
  • Сообщений: 4041
  • +2/-0
  • 2
    • Просмотр профиля
    • http://
obytatel
э....
а в какой сети искать (в том смысле, что может тебе надо использовать не [только] фтп доступ, а например, виншары...)?
AS IS...

Оффлайн Yukko

  • Координатор
  • Глобальный модератор
  • Ветеран
  • *****
  • Сообщений: 1586
  • +0/-0
  • 0
    • Просмотр профиля
    • http://estrabota.com.ua
Мы писали лабу такую когда-то... На машинах устанавливается программное обеспечение (поисковые клиенты, смотри чтобы его только антивирус за троян не принял :)), которое слушает порт, все запросы на поиск идут к серверу, который отслеживает состояние своих поисковых клиентов на машинах и отправляет на них пришедшие запросы. Клиенты ищут и отвечают серверу, он в свою очередь выкидывает результат на запросную форму. Суть в том, что не используется поиск по виндовым шарам (поиск происходит локально на компе), минус в том, чтобы установить поисковые клиенты на машинах надо быть на них админом.

Цитировать
в какой сети искать
если сеть Интернет, то Google тебе покатит :)
работа в Украине

Оффлайн obytatel

  • Фанат форума
  • Постоялец
  • ***
  • Сообщений: 129
  • +0/-0
  • 0
    • Просмотр профиля
    • http://www.microsoft.com/
ThE0ReTiC в сети конешно ж глобальной. На сколько я просёк под виншары ты предлагаешь юзать анализ кода страниц удалённого сервера на предмет урлов на типа *.rar и прочее? А другие варианты есть?

Yukko Гугла не покатит - Я своё хочу, родное: так шоб запустил свою виртуальную тварьку на сутки погулять по инету, а оно потом домой возвращается и тянет с собой два ж/д-состава порн.... извините оговорился... mp3
БЕЛАРУСЬ - страна восходящего картофеля

Оффлайн ThE0ReTiC

  • Главный по тарелочкам
  • Глобальный модератор
  • Ветеран
  • *****
  • Сообщений: 4041
  • +2/-0
  • 2
    • Просмотр профиля
    • http://
obytatel
Ну можно и по урлам (если лезть через http)
если по анонимным Ftp, то получаешь список файлов корневой директории и обходишь все по списку рекурсивно (на предмет прочесывания поддиректорий), ища файлы определенного типа...
AS IS...

Оффлайн obytatel

  • Фанат форума
  • Постоялец
  • ***
  • Сообщений: 129
  • +0/-0
  • 0
    • Просмотр профиля
    • http://www.microsoft.com/
ThE0ReTiC Ну это всё понятно. Но неужели нет других способов - ведь иногда поисковые роботы такие файлы цепляют, которые в принципе не пологен давать отсмотреть не под анонимным ftp, а по урлам и подавно.
Примером может служить старая байка, о том что поисковые роботы цепляли файлы на вроде kredit-card.dat с реальными номерами кредиток.
БЕЛАРУСЬ - страна восходящего картофеля

Оффлайн Oak

  • Дерево
  • Глобальный модератор
  • Ветеран
  • *****
  • Сообщений: 1481
  • +0/-0
  • 2
    • Просмотр профиля
    • http://
Легенды все.

Ты программист или где ? Или даже логически подумай - откуда информации то браться.

 :)
[основной броузер - SeaMonkey] Netscape Communicator 4 - is the best :) // see sources

Оффлайн Kwazar

  • Философ
  • Постоялец
  • ***
  • Сообщений: 201
  • +0/-0
  • 2
    • Просмотр профиля
    • http://www.uhuhu.ru/
Принцип работы таков:
1)Поиск и добавление в базу нового сервера на индаксирование. (обычно бераться с http или добавляются вледельцами серверов)
2)Пробегание по всем его папкам и вытаскивание оттуда названия файлов, их расширение и полный url.
С уважением Сергей

Оффлайн obytatel

  • Фанат форума
  • Постоялец
  • ***
  • Сообщений: 129
  • +0/-0
  • 0
    • Просмотр профиля
    • http://www.microsoft.com/
2)Пробегание по всем его папкам и вытаскивание оттуда названия
файлов, их расширение и полный url.
Вот в этом моменте пожалуйста по подробней, а то я как-то слабо улавливаю - как это возможно, чтобы нам вот так вот и дали возможность "пробежать по всем папкам". Это ж что ж получается, что админам плотють деньги задарам - если защита нулевая. Это я с своего хоста пускаю шо нить навроде readdir (в реализации php (нет не подумайте - я в курсе что эта функция не работает с удалёнными хостами)) на удалённый хост и...  и всё... пилец... можно на время позаимствовать кое-какие базы данных (с кредитками теми же - почему бы и нет), пару десятков скриптов каких-нить инет-магазинов... и всё просто так за даром? Видимо что-то я в своей жизни пропустил 8(
Oak спасибо ты первый отнёс меня к класу програмёров
БЕЛАРУСЬ - страна восходящего картофеля

Оффлайн КшЫуфксрук

  • Завсегдатай
  • Пользователь
  • **
  • Сообщений: 99
  • +0/-0
  • 0
    • Просмотр профиля
    • http://risearch.org/
> Видимо что-то я в своей жизни пропустил

Угу... Здравый смысл:)

"Пробегание по всем его папкам" в данной ситуации следует понимать как пробегание по всем _дозволенным_ папкам.

Оффлайн obytatel

  • Фанат форума
  • Постоялец
  • ***
  • Сообщений: 129
  • +0/-0
  • 0
    • Просмотр профиля
    • http://www.microsoft.com/
КшЫуфксрук
есть наработки?
БЕЛАРУСЬ - страна восходящего картофеля

Оффлайн obytatel

  • Фанат форума
  • Постоялец
  • ***
  • Сообщений: 129
  • +0/-0
  • 0
    • Просмотр профиля
    • http://www.microsoft.com/
Н-так. Ну ftp пока забудем. Как быть с http? Если подавать get-запрос на сервер к папке, то иссесно оно мне вернёт не листинг содержимого папки, а index.* или default.* (или ещё какую дрянь). Даже если он мне вернёт листинг содержимого папки, то в большинстве случаев - надо отбить руки вебмастеру (за кривость) или админу (за лень). Если я не прав - то как ты себе это представляешь?
БЕЛАРУСЬ - страна восходящего картофеля

Оффлайн Макс

  • vir magni ingenii
  • Глобальный модератор
  • Ветеран
  • *****
  • Сообщений: 3534
  • +0/-0
  • 2
    • Просмотр профиля
obytatel
индексируй все внутренние ссылки сайта и записывай себе куда-нибудь
First learn computer science and all the theory. Next develop a programming style. Then forget all that and just hack. ( George Carrette )

Оффлайн КшЫуфксрук

  • Завсегдатай
  • Пользователь
  • **
  • Сообщений: 99
  • +0/-0
  • 0
    • Просмотр профиля
    • http://risearch.org/
В случае HTTP побегание по дозволенным папкам следует понимать как скачивание всего сайта начиная с главной страницы и следуя далее по ссылкам (если показ списка файлов запрещен).

Я не понимаю, какой ответ ты хочешь получить? Ты и сам все прекрасно знаешь, что можно, а что нельзя. Или ты надеешься, что тут тебе подскажут способ как получить список всех файлов на сервере? А еще лучше не только список, но и сами файлы:)

P.S. Слухи о том, что Гугль выдавал в результатах поиска конфиденциальные документы говорят не о том, что у Гугль знает какой-то секрет, а о том, что вебмастера тех сайтов облажались. Причем есть разные способы облажаться. Например, достаточно положить документ куда-нибудь в пределах видимости вебсервера (но нигде не делать ссылку на него) и запросить этот документ через прокси. А где-нибудь может оказаться ссылка на логи этого прокси (я достаточно регулярно натыкаюсь в результатах поиска на различные логи). Или запросить документ с включенным гугльбаром и Гугль узнает об этом документе. Не говоря уже про разрешение показа индекса директории.

Оффлайн obytatel

  • Фанат форума
  • Постоялец
  • ***
  • Сообщений: 129
  • +0/-0
  • 0
    • Просмотр профиля
    • http://www.microsoft.com/
КшЫуфксрук
Логи проксей - подробней об этой дряни можно, а то я вовсе без понятия.
БЕЛАРУСЬ - страна восходящего картофеля

 

Sitemap 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28