Скидки до 1 мая!
за 12 минут. Это перебор :(
Насчет продажи проектов — будет биржа, интегрированная в программу. То есть можно будет сделать проект, нажать "Опубликовать" и залить на биржу (платно или бесплатно).
Решение отличное.
Перебор в смысле долго? В сравнении с чем?за 12 минут. Это перебор :(
В FlowCrawler преимуществом является удобство, т.е. возможность обрабатывать картинки сразу при парсинге.
Скорость обработки при этом конечно же будет проигрывать специализированным программам для работы с фото.
Угу, долго. В сравнении хотя бы с макросом в фотошопе.Перебор в смысле долго? В сравнении с чем?
это я понимаю. Надеялся получить все и сразуВ FlowCrawler преимуществом является удобство
Это издержки молодости… со временем пройдет…Надеялся получить все и сразу smile
Наоборот слишком быстро, не похоже на действия пользователя, вот забанят вас на том сайте скажете слишком быстро!Угу, долго.
Здесь есть нюансы. Например, если это работа с соцсетями или пользователями и нужна авторизация, то без изменения проекта ничего не будет работать. Тогда нужно, чтобы некоторые блоки (или поля в них) были доступны для изменения и сохранения. Ну или какой-то другой способ.при продаже проекта не нужно будет передавать файлы покупателю, только код покупки. Он в своей программе заходит на биржу, находит проект, вводит код и запускает. Файл проекта при этом клиенту не сохраняется
Переменные никак не хотят читаться, пока на их блок не подашь данные, поиск, после найдено и экспорта зачем то запускается заново, а склейка, используемая после чтения из файла выполняется столько раз, сколько строк...
В общем, нужно больше
Задачка для примера:
Допустим, перебираю ссылки в каком нибудь каталоге, примерно в таком. Попался aliexpress — загружаю подпроект для aliexpress, попался ebay — соответственно обработчик будет другим и т.д.
А может быть есть другие идеи, для реализации подобных задач?
Респект разработчику!
Добрых всем праздников, друзья!
Получил значение запостил и пошёл к следующему?
А вторая тема это с нескольких сайтов новости забирать к себе, не все а только последние… по-моему это основные вещи, которые нужны
На форуме Краулера нет доступа для ответов и создания дискуссий, поэтому пишу тут
На данный момент есть только два варианта.Нужно спарсивать всё во что-то например файл, и из него на инстант размещать или как-то сразу
Получил значение запостил и пошёл к следующему?
Первый это работать напрямую, то есть открыли браузер, получили значения нужных полей, открыли в программе новый браузер, авторизовались, заполнили форму создания записи и нажали кнопку "Сохранить".
Второй сохранить в файл, например .csv и потом думать, что с ним делать. Пока известен только один скрипт, который может из файла закинуть данные на сайт, имитируя действия пользователя. Кстати, когда FlowCrawler научится закидывать полученный файл по ftp на сайт, процесс получения данных и их размещения на сайте станет полностью автоматизированным. Вроде, Kreator ещё что-то делал в этом направлении. На крайний случай можно .csv импортировать напрямую в БД, но это совсем крайний случай тут и структура файла нужна строгая.
Сейчас это уже можно делать. Получаете данные которые планируете разместить у себя на сайте и размещаете через форму создания записи. Единственное, можно сделать для каждого сайта отдельную задачу в FlowCrawler или в одной задаче перебирать все нужные сайты.А вторая тема это с нескольких сайтов новости забирать к себе, не все а только последние
Зарегистрируйтесь и получите доступ.На форуме Краулера нет доступа