Я с помощь кейлогера заполнил базу в течении 2 суток при очень приличной коммерческой стоимости этой работы и при минимальном сроке 60 рабочих дней.
А это круче кейлогера будет!
Не подумайте плохого — кейлогер это не шпион а программа записывающая действия и потом воспроизводящая их!
Здесь же (FlowCrawler), подкупает графический (русский!) интерфейс, "программирование" мышкой, уже установившийся контакт с разработчиком (чьи способности нам известны), и, я так думаю, InstantCMS в приоритете. Ну, уж, как организовать прямую трансляцию с сайта-донора в базу ICMS, r2 нам точно подскажет.
Короче, я подписываюсь.
По развитию, интересно было бы инвестировать, но как я понял вы пока такие варианты не рассматривали.
Желаю удачи R2. Главное сделать от души. На видео посмотрел, для начала неплохо. Главное добавить свои плюшки и подключить по возможности C#. Это увеличит функционал в разы. От конкурентов боятся не стоит )) Как сказал создатель Evernote, когда инвесторы смотрели на наш бизнес план и там в списке конкурентов первым был Google, никто дальше не читал Но не смотря на это мы сумели. Удачи
Главный вопрос который появился после просмотра видео:
В чем преимущество перед ZP? В ролике не увидел ни одного.
Есть еще много мелких вопросов:
— Что будет после истечения года лицензии? программа перестанет работать или работать будет, но не будет обновляться?
— Возможен ли запуск одновременно в несколько потоков (10-20-50)?
— Есть ли возможность информировать (кроме логов) об ошибке / завершении работы в попап или звуком?
— Возможно ли обработать спарсенный элемент регуляркой?
— Есть ли условные операторы?
— Можно ли сохранить скрин окна браузера?
… ой, вопросов оказывается больше чем я думал, пока один пишу еще парочка приходят в голову, так что пока остановлюсь
Вопрос от человека мало что понимающего в парсерах, но имеющего положительный опыт работы с ними 😊
— Так вот, если нужная инфа прикреплена на сайте внутри файла docx или exel, можно её как то вытаскивать парсером или максимум это скачать эти файлы или получить ссылку на них?
Подозреваю, что для этого бот может авторизоваться на нужном сайте. Ну а дальше он уже будет открыт.можно ли парсить из закрытых от неавторизованных пользователей части сайта?
100% можно. Ведь R2 писал вышеа можно ли парсить из закрытых от неавторизованных пользователей части сайта?
т.е. в любом случае можно будет авторизовываться парсеру на сайте.Программа умеет вести себя как пользователь — заполнять формы, нажимать кнопки и т.д.
Но я бы хотел расширить вопрос:
а можно ли будет сохранить сессию чтобы каждый раз не авторизовываться, а подгружать сессию/куки юзера в браузер из сохраненного файла?
Насколько я понимаю, можно все то что умеет обычный браузер плюс ваши консольные программы. В вашей задаче надо будет сначала скачать файл. Потом либо отправлять его консольной командой какому-нибудь конвертеру и считывать результат; либо — второй вариант, залить парсером в гуглдокс и собирать данные там— Так вот, если нужная инфа прикреплена на сайте внутри файла docx или exel, можно её как то вытаскивать парсером или максимум это скачать эти файлы или получить ссылку на них?
r2 КРАСАВЧИК !!!
Однозначно приобрету до 27 числа!
Только подумывал о парсере, а тут нати...
"Вите надо выйти"
Спасибо большое! Очень крутая штука! А в управлении вообще "школота" !!!
Все просто и понятно!
Отличная работа, r2 !!!
интеграция с CMS каким образом реализуется?будут блоки для прямой интеграции с некоторыми CMS
и с определенной категории и города с авито) с каждодневной проверкой новых объявлений с автопостингомесли r2 покажет в видео пример как парсить из яндекс карт
Вообще было бы удобно, если бы были в программе вшиты базовые сайты, которые часто используются для взятия информации.