Страница 1 из 1
Какими средствами можно анализировать страницы сайта.
Добавлено: 20 фев 2005, 22:43
iscan
Такой вопрос.
Понадобилось анализировать страницы сайта. Т.е. скачивать к себе страницу, анализировать, "нажимать" кнопочки или ссылки, получать новые страницы, опять анализировать.
В этом вопросе я пока 0, но раньше немного программировал на С++.
Расскажите, пож., какими методами(средствами) можно выполнить такую задачу.
Спасибо.
Добавлено: 21 фев 2005, 16:14
AiK
Анализировать - ручками. Парсить - соответственно парсером. Например, MSHTML. Ну или другой готовый взять. Свой написать в принципе не сложно, но вот на его вылизывание не один год уйдёт - HTML он вообще-то не регулярный и 99% документов в сети содержат кривой код.
Добавлено: 21 фев 2005, 17:54
iscan
А если свой писать, то на С++ это сделать можно?
Добавлено: 21 фев 2005, 17:57
AiK
iscan, свой парсер? Можно конечно, только это изобретение велосипеда.
Добавлено: 21 фев 2005, 19:21
WinMain
Лучше это делать не на С++ (тем более если знаешь его слабо), а на специально предназначенных для этого языках типа JavaScript или VBScript. В них уже встроен анализ HTML-документов и ты без больших усилий сможешь обращаться ко всем объектам на web-странице, вызывать их методы, а так же управлять самим браузером.
Компоненты типа MSHTML и MSXML можно использовать, если знаком с СОМ-технологией, иначе всё-равно ничего из этого не получится.
Добавлено: 26 фев 2005, 19:10
Styopa
iscan, есть средства без всяких методов

. Это программка WebCopier 4. Ищи в Яндексе и воздастся тебе. Я где-то находил с кряком, пару недель назад. Никаких Сей, *скриптов и парсеров знать не понадобится

...