Парсим в тысячи потоков без БАНа и капч.

Тема в разделе "Бизнес и свое дело", создана пользователем WebParser, 24 сен 2013.

Статус обсуждения:
Комментирование ограничено.
  1. 24 сен 2013
    #1
    WebParser
    WebParser СкладчикСкладчик
    Всем привет!

    Продаю уникальную, разработанную лично мною, схему многопоточного парсинга любого ресурса, которой не страшны абсолютно любые системы антипарсинга (ip-фильтр, js-фильтры и т.д.). Эту темы Вы не найдет нигде, гарантированно. Странно, что ежедневно с этой проблемой сталкивается огромное количество людей, но никто не придумал подобную связку. :)

    Вы можете парсить в тысячи/десятки тысяч потоков:

    - Агрегаторы цен (Прайс.ру, Яндекс.Маркет и т.д.)
    - Поисковые системы (Яндекс, Гугл, Рамблер и т.д.)
    - Различные каталоги (Андроид маркет, Циан.ру и т.д.)
    - Различные сайты (Кинопоиск.ру, Руторрент и т.д.)
    и т.д.

    Вы можете мониторить в тысячи/десятки тысяч потоков:

    - Тизерные системы
    - Системы контекстной рекламы
    - Баннерные сети
    - Медийные сети
    и т.д.

    В общем, получать информацию с абсолютно любого сайта, JS блока, любого web-элемента моментально, не боясь каких-либо блокировок. Все ограничивается лишь Вашей фантазией и/или коммерческой жилкой. :)

    Сама по себе схема сэкономит массу средств (на тех же прокси), времени (даже используя в связке покупку прокси, собрать базу в тысячи проксей достаточно сложно и требует времени, мониторинга, замены. Здесь же Вы будете иметь эту возможность в любое время дня и ночи) и даст неограниченные возможности для реализации Ваших идей.

    Принцип работы:

    Шаг 1. Забили список URL
    Шаг 2. Получили необходимые страницы в папке, которые в дальнейшем Вы можете обабатывать как угодно.

    Для работы потребуется:

    - Хостинг/сервер с поддержкой php (в зависимости от нагрузок и количества потоков)
    - Минимальную сумму на расходник

    После оплаты Вы получаете:

    - Описание схемы
    - Необходимые скрипты

    Цена 500 рублей с человека.

    P.S. В теме или лично, Вы можете задать вопрос по поводу возможности реализации каких-то конкретных задач, на что дам Вам конкретный ответ. В 99.99% случаев, схема позволит получить необходимый результат.

    P.P.S. Тему может использовать любое количество людей одновременно, в любых объемах, это никак не отразится на результатах.
     
  2. 24 сен 2013
    #2
    qiwifuck
    qiwifuck ЧКЧлен клуба
    телепорт уже лет 15 как сграбливает все страницы в одну папку (на дэсктопном компе), откуда потом можно разгребать и распарсивать сколько угодно. и потоков там дофига.
     
    1 человеку нравится это.
  3. 24 сен 2013
    #3
    WebParser
    WebParser СкладчикСкладчик
    Вы, наверное, неправильно поняли самое главное. :)
    Схема позволяет обходить блокировку парсинга. Спарсите телепортом, например, 100к результатов выдачи Яндекса по разным запросам, за 10 минут?
     
  4. 24 сен 2013
    #4
    WebParser
    WebParser СкладчикСкладчик
    Или, например, Вам необходимо собрать аналог базы Пастухова, с пробивкой по частотности для продажи.
    Это миллионы запросов к вордстату. Сколько Вам потребуется времени на это? Какое количество прокси необходимо использовать?
    К тому же, Вам хотелось бы возложить работу на сервер, а выдача вордстата с недавних пор подгружается на JS, каким образом это реализовать?

    Или, например, Вы планируете собрать информацию по всем фильмам с кинопоиска. База состоит из не одной сотни тысяч фильмов, и при парсинге на потоке система мигом блокирует Вас.

    Вот именно для таких и огромного рода иных задач схема идеально подходит. Какой уж там телепорт :)
     
  5. 24 сен 2013
    #5
    Lapilli
    Lapilli ОргОрганизатор
    Готов быть одним из проверяющих.
     
  6. 24 сен 2013
    #6
    Angry
    Angry ДолжникДолжник
    Отдавайте на проверку А вот один из желающих нашелся:) пока писал
     
  7. 24 сен 2013
    #7
    WebParser
    WebParser СкладчикСкладчик
    Без проблем :)
    Предлагаю совместно определить задачу и получить отзыв о результатах.
    Т.е. выбрать в этой теме абсолютно любой ресурс, который защещен от автоматического парсинга.
     
  8. 24 сен 2013
    #8
    FaSTeRian
    FaSTeRian ЧКЧлен клуба
    интересен парсинг вордстата в 1000 потоков...
     
    2 пользователям это понравилось.
  9. 24 сен 2013
    #9
    WebParser
    WebParser СкладчикСкладчик
    Вордстат как раз один из сайтов, на которых будем испытывать схему с Lapilli.
    Мощь схемы будет раскрыта. :)
     
  10. 24 сен 2013
    #10
    Rizaco
    Rizaco ЧКЧлен клуба
    А связать кей-коллектором как-то можно?
     
  11. 24 сен 2013
    #11
    WebParser
    WebParser СкладчикСкладчик
    Если мне память не изменяет, можно загрузить результаты парсинга, списком слов.
    Пустить работу всего функционала коллектора по этой схеме не получится, у нас же нет исходников программы для внесения изменений.
     
  12. 24 сен 2013
    #12
    The X-Files
    The X-Files ОргОрганизатор
    WebParser
    Цена 500 рублей?
    Вордстат без бана?

    Я хочу посмотреть. )))
     
  13. 25 сен 2013
    #13
    Luffy
    Luffy СкладчикСкладчик
    В теме речь про расходник.
    Какова будет стоимость, например, миллиона запросов к вордстату?

    В курсе используется JetSwap или подобный сервис?
    Или расходы будут незначительно меняться при больших объемах?
     
  14. 25 сен 2013
    #14
    Брат
    Брат ОргОрганизатор
    Т.е. любым софтом на прямую парсить не получится?

    Я так понимаю это будет скрипт (будет устанавливаться на хостинг), который парсит страницы в папку, а далее уже сохраненные страницы - можно будет парсить любым парсером ?
     
  15. 25 сен 2013
    #15
    Ultra
    Ultra ДолжникДолжник
    ТС, расскажи подробнее,как можно "как угодно" обрабатывать те самые страницы после парсинга? Софт какой то нужен будет для этого отдельный, какой?
     
  16. 25 сен 2013
    #16
    WebParser
    WebParser СкладчикСкладчик
    Давайте гадать не будем на тему связок, схем, софта и т.д., я все подробно изложу в описании, к тому же не за горами отзывы :)
    Стоимость 1кк запросов варьируется от 0 до 2к рублей. В первом случае Вам придется потратить достаточно много времени на расходники, во втором Вы сможете моментально запустить парсинг.

    Не ограничивайте себя в представлении парсинга. Это могут быть не только статичные страницы, но и динамический контент, подгружаемый JS, например.
    Появилась необходимость парсинга объявлений Директа, Адсенса, Бегуна, тизеров Тизернета, Бодиклика, Пэй-клика — берем и парсим без проблем.

    К примеру, есть сервис мониторинга объявлений в тизерных сетях, арендная плата 20$/месяц. По этой схеме можно реализовать подобный сервис.
    Или все же потратить средства в сбор аналога базы Пастухова, которая продается по 500$+. По этой схеме Вы сэкономите массу времени.

    Главное включить фантазию, вариантов можно придумать массу. :)

    Если у Вас есть исходники программы, прикрутить можно. Автор это сделает без проблем.

    Да, совершенно верно. На входе список ссылок, на выходе дамп страниц. Не обязательно весь html-код, можно выборочными частями сохранять, экономить место на хосте. :)

    Например, скрипт спарсил 100к страниц в папку. Вам остается написать/заказать скрипт который распарсит регулярными выражениями результат в нужный Вам формат. Стоимость таких скриптов минимальная, они очень простые, напишет любой программист. Здесь самое сложное именно массовый парсинг сайтов, обход блокировок и капч.
     
  17. 25 сен 2013
    #17
    Ultra
    Ultra ДолжникДолжник
    Скрипт имеет интерфейс? можно тогда скрин его показать?
    Для работы со скриптом какие нужны минимальные навыки (знание языков программирования, регулярные выражения или ещё что то)?
    Локальный сервер подойдёт для работы?
     
  18. 25 сен 2013
    #18
    Хатаб
    Хатаб БанЗабанен
    Десктопный вариант приложения в будущем планируется?
     
  19. 25 сен 2013
    #19
    azanir
    azanir БанЗабанен
    пока запишусь , обязательно ждем отзыва.
     
  20. 26 сен 2013
    #20
    Barbudo
    Barbudo ЧКЧлен клуба
    Здравствуйте!

    Мне надо собирать запросы с вордстата.
    В итоге у меня должен получаться их список со статистикой сложенный в экселе:
    первый столбец - запросы, второй столбец - статистика.

    Из магадана я такой получаю легко - выделить все, скопировать в буфер, вставить в эксель - но долго собирать приходится даже с ускорителем, который лично мне не ускоряет нихера почти (мож кому сильнее повезло с ним).

    Как заказать скрипт "который распарсит регулярными выражениями результат в нужный Вам формат" не знаю, но, очень бы хотел бы знать и уметь, раз он тем более недорого обойдется.
    WebParser, поможете заказать такой скрипт?

    Может кому-то тоже надо так же как и мне получать такой список? Хорошо б тогда попросить WebParserа добавить этот скрипт к инструкции, или пусть как отдельный продукт.

    Я пользователь не особо продвинутый, могу конечно хостинг завести, сайт залить.
    Там надо сильно спецом быть, чтобы инструкцию понять?

    В общем, мне такая классная вещь прям нужна, лишь бы я тока потянул ею пользоваться.
    Мне наверное весьма подробная инструкция нада, я так подозреваю :)


    Правильно я понимаю, что цена 500 р. с человека? Тут щас просто взнос 40 р. обозначен
     
Статус обсуждения:
Комментирование ограничено.

Поделиться этой страницей