1. Вы находитесь на форуме клуба BlackSEO.

    Здесь собрались настоящие профессионалы, накопившие большой опыт в сфере создания и продвижения сайтов. Своими знаниями и умениями они выделяются на фоне общей массы оптимизаторов. Участники форума постоянно выносят на обсуждение задачи, которые всегда на несколько шагов впереди публичных дискуссий, что делает BlackSEO лучшим местом для общения на любые темы, начиная с бизнеса и заканчивая отдыхом.
    Скрыть объявление

A-Parser - многофункциональный парсер SE, PR, TrustRank, DMOZ, WHOIS etc.

Тема в разделе "Реклама и анонсы партнерок и сервисов", создана пользователем Forbidden, 19.4.2012.

  1. Forbidden

    Forbidden V.I.P

    Регистрация:
    24.04.08
    Сообщения:
    1.496
    Симпатии:
    174
    В этом видеоуроке будет показано, как настроить периодическую проверку окончания срока регистрации доменов, и получать уведомления в телеграм, если он меньше заданного количества дней.



    В уроке рассмотрено:
    • использование tools.js для написания собственных функций
    • работа с шаблонизатором Template Toolkit
    • проверка доменов через WHOIS
    • цепочки заданий
    • отправка сообщений в Telegram с помощью бота

    Полезные ссылки:
    Оставляйте комментарии и подписывайтесь на наш канал на YouTube!

    [​IMG]
     
  2. Forbidden

    Forbidden V.I.P

    Регистрация:
    24.04.08
    Сообщения:
    1.496
    Симпатии:
    174
    [​IMG]

    Улучшения
    • Движок v8 обновлен до версии 7.5, помимо увеличения скорости есть множество улучшений в поддержке новых возможностей языка JavaScript
    • В [​IMG] SE::Yandex в массив $ads добавлена переменная $visiblelink, в которой содержится видимая ссылка
    • В [​IMG] Rank::Bukvarix::Domain добавлена переменная $totalcount которая содержит количество результатов
    • В [​IMG] SE::Yahoo добавлена опция Not found is error, указывающая, считать ли отсутствие результатов ошибкой
    Исправления в связи с изменениями в выдаче
    Исправления
    • Исправлена редкая проблема с ошибками в JS парсерах на Windows
    • В [​IMG] SE::Baidu исправлена работа функции Get full links для результатов без ссылок
    • Исправлена проблема с Decode JSON error в парсерах WordStat
    • Исправлен баг с перезагрузкой кода JS парсера при редактировании в сторонних приложениях, проблема возникла в одной из предыдущих версий

    [​IMG]
     
  3. Forbidden

    Forbidden V.I.P

    Регистрация:
    24.04.08
    Сообщения:
    1.496
    Симпатии:
    174
    В этом видеоуроке мы изучим один из инструментов для работы с запросами - макросы подстановок. С их помощью можно значительно увеличивать количество запросов, листать страницы и многое другое.


    В уроке рассмотрено:
    • макрос {num} на примерах прохода по страницам и перебора координат в парсере Google maps
    • макрос {az} на примере парсинга с inurl: для увеличения кол-ва запросов и соответственно результатов
    • макрос {each} на примере парсинга подсказок для генерации словосочетаний

    Полезные ссылки:
    Оставляйте комментарии и подписывайтесь на наш канал на YouTube!

    [​IMG]
     
  4. Forbidden

    Forbidden V.I.P

    Регистрация:
    24.04.08
    Сообщения:
    1.496
    Симпатии:
    174
    [​IMG]

    Улучшения
    • Добавлено 4 новых парсера Instagram
    • Добавлено 2 новых парсера SerpStat
    • Добавлена поддержка дробных чисел в макросе подстановок {num}
    • Добавлена поддержка Node.js в tools.js, теперь можно использовать возможности Node.js (включая модули) в обычных пресетах во всех полях кроме Parse custom results, фильтров и Конструкторов результатов
    • Шаблоны Template Toolkit в настройках парсеров теперь работают для всех запросов
    • Стабилизирована работа [​IMG] SE::Google::Modern после изменений со стороны Google, благодаря чему несколько уменьшилось количество рекаптч
    • Улучшена проверка ответа в [​IMG] Maps::Yandex, улучшен сбор картинок, а также добавлена возможность собирать ссылки на страницу организации
    • API: для oneRequest/bulkRequest добавлен параметр needData, указывающий, передавать ли в ответе data/pages, используется для экономии памяти, по умолчанию отключен
    • Обновлены apps.json и user-agents.txt, при установке обновления также рекомендуется обновить эти файлы
    Исправления в связи с изменениями в выдаче
    • Исправлена ситуация, при которой в [​IMG] SE::Google::Modern выдавался 597 код ответа
    • В [​IMG] SE::Yandex исправлена ситуация, при которой в результатах появлялись "пустые" ссылки, а также исправлен парсинг сниппетов в мобильной выдаче
    • Исправлена редко встречающаяся проблема с [​IMG] SE::Google::Translate, когда парсер получал в ответ 403 статус
    • Исправлено определение языка запроса в [​IMG] SE::Google::Translate
    • Исправлена работа [​IMG] SE::YouTube, а также исправлен сбор $title
    • В [​IMG] Rank::Social::Signal удалена переменная $linkedin_share в связи с прекращением поддержки со стороны LinkedIn
    • В [​IMG] Shop::Yandex::Market исправлен парсинг $features для некоторых видов запросов
    • Исправлен урл запроса в [​IMG] SE::DuckDuckGo
    Исправления
    • Исправлен баг в [​IMG] Rank::Bukvarix::Domain, из-за которого в некоторых случая парсинг завершался с ошибкой
    • В парсерах Maps::* исправлена работа с отрицательными координатами
    • В [​IMG] Rank::SEMrush исправлена ошибка определения "удачности" запроса
    • Исправлен баг в tools.js, возникший после обновления V8
    • API: исправлена работа метода getAccountsCount
    • JS парсеры: исправлен баг со слэшем в check_content

    [​IMG]
     
  5. Forbidden

    Forbidden V.I.P

    Регистрация:
    24.04.08
    Сообщения:
    1.496
    Симпатии:
    174
    8-й сборник статей. В нем мы научимся парсить ссылки с GET параметрами, искать в поиске Google и скачивать документы, а также узнаем как очищать очередь заданий через API. Поехали!

    Сбор ссылок с GET параметрами
    В техническую поддержку часто задают вопрос, как собирать ссылки с GET параметрами для поиска SQL уязвимостей. Поэтому, по ссылке выше мы расскажем как это сделать, используя стандартный парсер Google.
    [​IMG]

    Поиск и скачивание Google документов
    За последнее время уже несколько раз появлялись новости о том, что Google индексирует пользовательские документы, размещенные в их одноименном сервисе и открытые для доступа по ссылке. Соответственно все эти файлы становятся доступны в поиске. И пока Google разбирается с этим, по ссылке выше мы рассказываем как можно искать и скачивать такие документы.
    [​IMG]

    Работаем с API, часть 3
    Третья и заключительная часть из цикла статей по работе с A-Parser через API. В ней на примере очистки очереди задач будет рассмотрена работа со вспомогательными запросами, которые позволяют работать с очередью заданий. Все детали - по ссылке выше.


    Если вы хотите, чтобы мы более подробно раскрыли какой-то функционал парсера, у вас есть идеи для новых статей или вы желаете поделиться собственным опытом использования A-Parser (за небольшие плюшки :) ) - отписывайтесь здесь.

    Подписывайтесь на наш канал на Youtube - там регулярно выкладываются видео с примерами использования A-Parser, а также следите за новостями в Twitter.

    Предыдущие сборники статей

    [​IMG]
     
  6. Forbidden

    Forbidden V.I.P

    Регистрация:
    24.04.08
    Сообщения:
    1.496
    Симпатии:
    174
    34-й сборник рецептов, в котором опубликован пресет для оценки количества трафика на сайтах, парсер Ahrefs через API и пресет для парсинга информации об IP адресах. Поехали!

    Чек трафика сайта
    Пресет для проверка трафика сайта через сервис siteworthtraffic.com. Собираются данные о количестве уникальных постетителей и просмотров, а также о доходе с рекламы. Оценка трафика на сайтах может быть полезна для фильтрации списка сайтов по критерию прибыльности и популярности. Пресет доступен по ссылке выше.
    [​IMG]

    Парсер Ahrefs на основе Ahrefs API
    Парсер для сбора данных из популярного сервиса Ahrefs через их официальное API. Собирается множество данных, которые позволяют оценивать домены по различным характеристикам. Для использования нужен API ключ, который приобретается отдельно.
    [​IMG]

    Парсинг подсети и организации по IP
    Небольшой пресет для сбора информации об IP адресе, а именно: подсеть, организация, страна и город. Данные собираются из сервиса whoer.net.
    [​IMG]

    Еще больше различных рецептов в нашем Каталоге!
    Предлагайте ваши идеи для новых парсеров здесь, лучшие будут реализованы и опубликованы.

    Подписывайтесь на наш канал на Youtube - там регулярно выкладываются видео с примерами использования A-Parser, а также следите за новостями в Twitter.

    Все сборники рецептов

    [​IMG]
     
  7. ColinDrury

    ColinDrury V.I.P

    Регистрация:
    21.11.13
    Сообщения:
    1.143
    Симпатии:
    273
    Сорри, глупый вопрос: а чем А-парсер функционально отличается от Киберсео? ну, кроме того, что работает без вордпресса.
     
  8. Silverstorm

    Silverstorm V.I.P

    Регистрация:
    05.10.05
    Сообщения:
    2.886
    Симпатии:
    205
    ColinDrury, функционально это как яблоки vs кирпичи. вообще абсолютно разные продукты.
     
    Forbidden нравится это.
  9. ColinDrury

    ColinDrury V.I.P

    Регистрация:
    21.11.13
    Сообщения:
    1.143
    Симпатии:
    273
    Там тоже парсер, что не так? я на самом деле не понимаю.
     
  10. Dark

    Dark Рулевой Администрация

    Регистрация:
    04.10.05
    Сообщения:
    9.342
    Симпатии:
    391
    ColinDrury, это разные вещи и разные задачи у них
     
  11. Webaz

    Webaz V.I.P

    Регистрация:
    20.10.06
    Сообщения:
    2.009
    Симпатии:
    46
    почитай функционал первого и второго
     
  12. Forbidden

    Forbidden V.I.P

    Регистрация:
    24.04.08
    Сообщения:
    1.496
    Симпатии:
    174
    [​IMG]

    Улучшения
    • Добавлен новый парсер [​IMG] API::Server::Redis (только для лицензий Enterprise)
    • В [​IMG] SE::Google::Modern добавлена возможность определять наличие расширенных сниппетов (rich snippets) в выдаче
    • В связи с изменениями на сервисе-источнике парсер SE::IxQuick был удален, а вместо него добавлен [​IMG] SE::Startpage с почти аналогичным функционалом
    • В [​IMG] SE::Google::Modern реализована возможность указывать дополнительные заголовки для запросов
    • Улучшен парсинг меток сайтов в [​IMG] SE::Yandex, а также добавлена поддержка новых типов меток
    • Улучшена логика работы функции Get full links в [​IMG] SE::Baidu
    • Оптимизирован алгоритм обработки подзапросов
    Исправления в связи с изменениями в выдаче
    Исправления
    • Исправлена проблема, из-за которой в некоторых случаях при запросе через API возвращался пустой массив страниц
    • Исправлено падение скорости в [​IMG] Net::Whois
    • Исправлен баг в оптимизации парсеров
    • Исправлено сохранение параметра Report period в [​IMG] SE::Yandex::Direct::Frequency
    • В HTML::LinkExtractor исправлен сбор ссылок, если в них есть перенос строки

    [​IMG]
     
  13. Forbidden

    Forbidden V.I.P

    Регистрация:
    24.04.08
    Сообщения:
    1.496
    Симпатии:
    174
    В этом видео уроке рассмотрен пример решения задачи по поиску страниц контактов у заданного списка сайтов. Также парсится тайтл и все это сохраняется в CSV файл.



    В уроке рассмотрено:
    • парсинг поиска Google для получения ссылки на страницу контактов
    • парсинг главной страницы сайта для получения title
    • использование инструмента $tools.CSVline для форматирования файла результата
    • пример правильного импорта в Excel
    Оставляйте комментарии и подписывайтесь на наш канал на YouTube!

    [​IMG]
     
  14. Forbidden

    Forbidden V.I.P

    Регистрация:
    24.04.08
    Сообщения:
    1.496
    Симпатии:
    174
    35-й сборник результатов, где мы будем собирать комментарии из Youtube, искать контакты (телефоны и почты) на сайтах, а также парсить японскую выдачу Yahoo. Поехали!

    Парсинг комментариев из Youtube
    Представляем вашему вниманию JS парсер комментариев для видео на Youtube. С его помощью можно собирать тексты комментариев, а также информацию об авторах комментариев индивидуально для каждого видео. Также реализована возможность указывать количество страниц с комментарими, что позволяет при необходимости ограничить их сбор и тем самым увеличить скорость работы.
    [​IMG]

    Извлекаем телефоны, начинающиеся на 3 с помощью HTML::EmailExtractor
    Пресет, в котором показано, как с помощью [​IMG] HTML::EmailExtractor собирать контакты со страниц сайтов. Данный пресет предназначен для сбора e-mail и телефонов, начинающихся с 3 (Украина), но при необходимости можно немного изменить регулярные выражения и собирать телефоны других стран.
    [​IMG]

    SE::Yahoo::JP
    JS парсер для парсинга японской выдачи Yahoo. Используется домен search.yahoo.co.jp. Собираются ссылки, анкоры и сниппеты, а также есть возможность задать количество страниц для парсинга.
    [​IMG]

    Еще больше различных рецептов в нашем Каталоге!
    Предлагайте ваши идеи для новых парсеров здесь, лучшие будут реализованы и опубликованы.

    Подписывайтесь на наш канал на Youtube - там регулярно выкладываются видео с примерами использования A-Parser, а также следите за новостями в Twitter.

    Все сборники рецептов

    [​IMG]
     
  15. Forbidden

    Forbidden V.I.P

    Регистрация:
    24.04.08
    Сообщения:
    1.496
    Симпатии:
    174
    [​IMG]

    Улучшения
    • Добавлен новый парсер [​IMG] Rank::Ahrefs
    • Добавлен инструмент $tools.CSVline для простого создания CSV файлов
    • В связи с тестированием Гуглом новой верстки в поисковике, добавлена ее поддержка в [​IMG] SE::Google::Modern
    • В [​IMG] SE::Google::Modern в массив $serp добавлена переменная $amp, которая показывает, поддерживает ли страница AMP
    • В [​IMG] SE::Yandex в $serp.$i.label добавлена поддержка Турбо страниц, а также добавлен сбор типов меток сайтов
    • В [​IMG] Net::HTTP улучшена работа с редиректами, добавлена опция Follow common redirects
    • Теперь в [​IMG] Util::ReCaptcha2 можно указать хост для используемого сервиса разгадывания, а также в Provider url можно указывать адреса через запятую (актуально для XEvil и CapMonster), парсер будет использовать каждый из них в случайном порядке
    • Увеличено количество результатов в парсерах [​IMG] Rank::Bukvarix::*
    • Добавлена опция ограничения числа логов, с целью оптимизации использования дискового пространства
    • JS парсеры: улучшена пакетная обработка запросов
    Исправления в связи с изменениями в выдаче
    • В [​IMG] Maps::Yandex исправлена ситуация, при которой для части результатов не собирались данные
    • Исправлен [​IMG] SE::Rambler
    Исправления
    • Исправлена проблема с рядом парсеров, из-за которой они не работали, появилась в одной из предыдущих версий
    • Исправлена ошибка в [​IMG] Rank::Alexa, из-за которой при отсутствующих значениях запрос завершался с ошибкой
    • Исправлен баг в [​IMG] Rank::MajesticSEO, из-за которого в некоторых случаях запросы завершались с ошибкой
    • Для парсеров [​IMG] Social::Instagram::Profile и [​IMG] Social::Instagram::Tag изменен перечень доступных переменных в связи с не совсем корректной работой в некоторых случаях

    [​IMG]
     
  16. Forbidden

    Forbidden V.I.P

    Регистрация:
    24.04.08
    Сообщения:
    1.496
    Симпатии:
    174
    В этом видео уроке рассмотрен способ сбора данных об организациях в указанной местности из Google Maps, используя встроенный парсер Гугл карт. Также показано как определить необходимые координаты на карте и задать их в парсере.



    В уроке рассмотрено:
    • Парсинг карт Google с использованием Maps::Google
    • Пример получения координат для использования в макросах подстановок
    • Работа с макросами подстановок при наличии отрицательных чисел
    • Импорт результата в Excel

    Полезные ссылки:
    Оставляйте комментарии и подписывайтесь на наш канал на YouTube!

    [​IMG]
     
  17. Forbidden

    Forbidden V.I.P

    Регистрация:
    24.04.08
    Сообщения:
    1.496
    Симпатии:
    174
    9-й сборник статей. В нем мы разберемся, как делать пресеты для анализа всех страниц сайта, научимся парсить все ссылки сайта из индекса ПС и будем проверять существование запросов. Поехали!

    Создание пресета для анализа страниц сайта
    Анализ страниц на сайте - это один из самых популярных кейсов использования А-Парсера. При этом можно собирать очень много различных параметров, начиная от проверки доступности и заканчивая поиском определенных слов на странице.
    О том, как сделать простой анализатор сайта и пойдет речь в этой статье.
    [​IMG]

    Парсинг разными способами максимум результатов из индекса поисковых систем
    Парсинг из индекса поисковых систем всех страниц сайта - это еще один популярный кейс для A-Parser. ПС ограничивают кол-во результатов по одному запросу, поэтому нужно как-то обходить это ограничение. Как это сделать - описано в нашей статье.
    [​IMG]

    Проверка существования запросов
    Пресет из этого примера позволяет проверить базу ключевых слов и определить, был ли запрос одноразовым без постоянного спроса или нет. Тем самым появляется возможность отфильтровать семантику и оставить только "хорошие" запросы. Больше деталей, а также готовый пресет - по ссылке выше.
    [​IMG]


    Если вы хотите, чтобы мы более подробно раскрыли какой-то функционал парсера, у вас есть идеи для новых статей или вы желаете поделиться собственным опытом использования A-Parser (за небольшие плюшки :) ) - отписывайтесь здесь.

    Подписывайтесь на наш канал на Youtube - там регулярно выкладываются видео с примерами использования A-Parser, а также следите за новостями в Twitter.

    Предыдущие сборники статей

    [​IMG]
     
  18. Forbidden

    Forbidden V.I.P

    Регистрация:
    24.04.08
    Сообщения:
    1.496
    Симпатии:
    174
    [​IMG]

    Улучшения
    • В [​IMG] SE::Google::ByImage добавлена поддержка рекаптч, а также улучшена работа в целом
    • В [​IMG] SE::Yandex добавлена возможность одновременной работы авторазгадывания каптч и антигейта
    • В [​IMG] Rank::Ahrefs добавлена возможность выбора типа домена
    • Полностью переписан [​IMG] SE::Yandex::SQI, изменен набор собираемых данных
    • Реализован бан прокси в [​IMG] SE::DuckDuckGo::Images
    • В [​IMG] Net::Whois добавлен парсинг даты освобождения домена
    • Оптимизирована работа с прокси при использовании большого числа попыток
    • Улучшена работа функции Bypass Cloudflare
    • Добавлен tools.aparser.version(), позволяющий получить информацию о версии A-Parser
    Исправления в связи с изменениями в выдаче
    • В мобильной верстке [​IMG] SE::Google::Modern исправлен парсинг новостей, а также исправлен парсинг ссылок и анкоров в desktop выдаче
    • В [​IMG] SE::Yandex исправлено определение каптчи, а также исправлен сбор ссылок на кеш
    • Исправлен парсинг цен и количества комментариев в [​IMG] Shop::Amazon
    • Исправлена работа [​IMG] SE::DuckDuckGo::Images с запросами, содержащими более 1 слова
    • [​IMG] GooglePlay::Apps, [​IMG] SE::YouTube, [​IMG] Rank::Ahrefs
    Исправления
    • Исправлена проблема с рандомизацией прокси на Windows 10
    • Исправлено зависание при использовании [​IMG] Check::BackLink
    • Исправлена проблема, при которой не применялся Content-Type в [​IMG] Net::HTTP
    • Исправлена редкая проблема с выбором файла запросов
    • Исправлена обработка редиректов при нестандартном порте
    • Исправлен вывод многострочных данных в tools.CSVline
    • JS парсеры: исправлена проблема с интерфейсом при отсутствии необходимых Node.js модулей
    • JS парсеры: исправлена проблема с подключением модуля jimp

    [​IMG]
     
  19. Tex

    Tex V.I.P

    Регистрация:
    21.11.08
    Сообщения:
    1.433
    Симпатии:
    209
    Forbidden насколько хорошо сейчас А-парсер дружит с SimilarWeb / SemRush ?
    Интересует вытаскивать в промышленных масштабах такие данные по доменам:
    Monthly Visits / Uniques
    Desktop/Mobile share
    Top 5 geos(+share)
     
  20. Forbidden

    Forbidden V.I.P

    Регистрация:
    24.04.08
    Сообщения:
    1.496
    Симпатии:
    174
    это лучше в саппорт задать вопрос
     
  21. Forbidden

    Forbidden V.I.P

    Регистрация:
    24.04.08
    Сообщения:
    1.496
    Симпатии:
    174
    [​IMG]

    Улучшения
    • Добавлен новый парсер [​IMG] Telegram::GroupScraper, который собирает из публичных групп в Telegram данные о сообщениях: текст, дата, автор, ссылки на фото и видео
    • Добавлен новый парсер [​IMG] Shop::eBay, который позволяет парсить поисковую выдачу на ebay.com
    • Изменения в парсерах Google:
      • Добавлена переменная $detected_geo, в которой содержится информация о геолокации
      • В связи с неактуальностью удалены опции:
        • Old desktop computer (IE6) в Device
        • Util::AntiGate preset
        • Use digit captcha
    • В [​IMG] SE::Yandex увеличено максимальное значение Pages count до 25
    • В [​IMG] SE::Google::Images добавлена поддержка новой верстки
    • В [​IMG] Util::ReCaptcha2 добавлена поддержка capmonster.cloud
    • Парсер [​IMG] SE::MailRu полностью переписан, добавлена поддержка каптч и сессий и добавлен сбор ссылок на кешированные страницы
    • Парсер [​IMG] SE::Yandex::Direct полностью переписан, добавлен сбор тегов и дополнительных ссылок с анкорами
    • Добавлен новый инструмент шаблонизатора tools.task, на данный момент он умеет возвращать id задания и число потоков
    • JS парсеры: this.query.add теперь поддерживает передачу дополнительных параметров
    Исправления в связи с изменениями в выдаче
    Исправления
    • В парсерах Google исправлена ошибка, при которой собираемые ссылки были с переводчиком
    • Исправлены проблемы с рандомизацией в некоторых случаях
    • Исправлена ошибка в [​IMG] Social::Instagram::Post при парсинге только массивов данных
    • Исправлена проблема с проходом по пагинации, которая возникла в одной из предыдущих версий
    • JS парсеры: исправлена работа с Node.js модулем socks

    [​IMG]
     
  22. Forbidden

    Forbidden V.I.P

    Регистрация:
    24.04.08
    Сообщения:
    1.496
    Симпатии:
    174
    Сборник рецептов #37: парсинг Twitter, поиск и скачивание картинок, парсинг групп в Telegram

    37-й сборник рецептов. В него вошли: парсер Twitter, который умеет собирать сообщения, их авторов и т.п.; JS парсер, в котором объединены поиск и скачивание картинок; а также 2 пресета для парсинга Telegram, которые демонстрируют возможности по сбору данных из публичных групп.

    Парсер постов из Twitter
    Публикуем парсер, который по ключевому слову парсит данные из сообщений в Twitter. Собираются имя и логин автора, текст сообщения, дата публикация, количество лайков, ответов и ретвитов. Есть возможность указать количество страниц для парсинга.
    [​IMG]

    JS::ImagesFromSE
    Ранее мы уже публиковали JavaScript парсер, в котором объединены парсинг выдачи ПС и парсинг текста со страниц. Теперь представляем вашему вниманию JS парсер, в котором объединены поиск и скачивание картинок.
    [​IMG]

    Пресеты для парсинга публичных групп в Telegram
    Начиная с версии 1.2.709 в А-Парсер был добавлен [​IMG] Telegram::GroupScraper. Для демонстрации его возможностей мы опубликовали в Каталоге 2 пресета:

    Еще больше различных рецептов в нашем Каталоге!
    Предлагайте ваши идеи для новых парсеров здесь, лучшие будут реализованы и опубликованы.

    Подписывайтесь на наш канал на Youtube - там регулярно выкладываются видео с примерами использования A-Parser, а также следите за новостями в Twitter.

    Все сборники рецептов

    [​IMG]
     
  23. Forbidden

    Forbidden V.I.P

    Регистрация:
    24.04.08
    Сообщения:
    1.496
    Симпатии:
    174
    10-й сборник статей, в котором будет показано, как с помощью А-Парсера получать уведомления в Телеграм об изменении цен на товары, как парсить характеристики товаров и выводить их в виде удобной таблицы, а также подробно описана работа с редиректами.

    Периодический мониторинг цен с уведомлением в Telegram
    В этой статье пошагово описан процесс создания парсера, с помощью которого можно отслеживать изменение цен товаров. При этом парсер будет присылать уведомление в Телеграм, а также можно легко добавить поддержку других сайтов.
    [​IMG]

    Сбор характеристик товара
    Одной из частых задач для А-Парсера является сбор характеристик товаров в интернет-магазинах. И если сам парсинг совсем не проблема, то формирование итоговой таблицы, при условии, что характеристики должны быть распределены по отдельным столбцам, вызывает вопросы. Поэтому, в данной статье будет описан способ такого парсинга.
    [​IMG]

    Всё о редиректах
    Большая справочная статья, посвященная тематике редиректов.
    [​IMG]

    Если вы хотите, чтобы мы более подробно раскрыли какой-то функционал парсера, у вас есть идеи для новых статей или вы желаете поделиться собственным опытом использования A-Parser (за небольшие плюшки :) ) - отписывайтесь здесь.

    Подписывайтесь на наш канал на Youtube - там регулярно выкладываются видео с примерами использования A-Parser, а также следите за новостями в Twitter.

    Предыдущие сборники статей

    [​IMG]
     
  24. Forbidden

    Forbidden V.I.P

    Регистрация:
    24.04.08
    Сообщения:
    1.496
    Симпатии:
    174
    Видео урок: Парсинг тематических доменов из Google и получение различных параметров по доменам

    В этом видео уроке рассмотрен способ создания пресета для парсинга тематических доменов по ключевой фразе из поисковой выдачи Google, и получение для доменов различных параметров.



    В уроке рассмотрено:
    • Парсинг поисковой выдачи Google
    • Вывод уникальных результатов в качестве главных доменов
    • Получение таких параметров как:
      • зарегистрирован домен или нет
      • дата регистрации и дата окончания регистрации домена
      • язык сайта
      • title и description
      • индекс качества сайта
      • позицию в глобальном рейтинге Alexa
      • cтрану с наибольшим числом трафика по Alexa
      • позицию в рейтинге этой страны по Alexa
    Полезные ссылки:
    Оставляйте комментарии и подписывайтесь на наш канал на YouTube!

    [​IMG]
     
  25. Forbidden

    Forbidden V.I.P

    Регистрация:
    24.04.08
    Сообщения:
    1.496
    Симпатии:
    174
    Сборник рецептов #38: парсер Яндекс.Кью, парсер сайтов из Яндекс.Радар и определение типов сайтов

    38-й сборник рецептов. В нем опубликованы: парсер сервиса вопросов-ответов Яндекс.Кью, парсер для сбора сайтов из Яндекс.Радара, а также парсер для определения типа сайта.

    Парсер Яндекс Кью
    Яндекс.Кью - это сервис вопросов-ответов, запущенный в конце 2019 года. Он объединил в себе несколько других сервисов, поэтому уже на момент запуска обладал большой базой информации. Мы не могли оставить это просто так и публикуем парсер для сбора данных из этого сервиса.
    [​IMG]

    Парсинг сайтов из Яндекс.Радар
    Яндекс.Радар - это сравнительно новый сервис Яндекса, который в отчасти заменил ранее популярный Яндекс.Каталог. Это большой каталог популярных в рунете сайтов с данными о их посещаемости и некоторой информацией о посетителях. Мы подготовили парсер, с помощью которого можно собрать список сайтов с необходимыми фильтрами.
    [​IMG]

    Определение типа сайта по Яндекс Радару
    И еще один парсер для Яндекс.Радар от нашего пользователя. С его помощью можно определять типы сайтов, если они есть в базе Яндекс.Радара.
    [​IMG]

    Еще больше различных рецептов в нашем Каталоге!
    Предлагайте ваши идеи для новых парсеров здесь, лучшие будут реализованы и опубликованы.

    Подписывайтесь на наш канал на Youtube - там регулярно выкладываются видео с примерами использования A-Parser, а также следите за новостями в Twitter.

    Все сборники рецептов

    [​IMG]
     
  26. Forbidden

    Forbidden V.I.P

    Регистрация:
    24.04.08
    Сообщения:
    1.496
    Симпатии:
    174
    Сборник статей #11: анализ содержимого картинок, добавление ссылок в индекс Google и поиск RSS лент

    11-й сборник статей, в котором рассказано, как в А-Парсере анализировать содержимое картинок, добавлять страницы своих сайтов в индекс Google и искать RSS ленты необходимой тематики.

    Фильтрация картинок по их содержимому
    В этой статье на примере поиска картинок с определенным содержимым, показана работа с Google Vision. С помощью "компьютерного зрения" для каждого изображения присваивается набор меток, который описывает содержимое.
    [​IMG]

    Инструкция по использованию Google Indexing API
    В данной статье рассмотрена работа с Google Indexing API, который позволяет владельцам сайтов напрямую уведомлять Google о добавлении или удалении страниц. Таким образом ваш сайт будет быстрее просканирован Google, что способствует повышению качества трафика.
    [​IMG]

    Поиск и сбор rss лент
    В этой статье рассмотрен простой пример поиска ссылок на rss ленты по заданной тематике. Решение состоит из 3-х пресетов, каждый из которых отвечает за определенный этап работы.
    [​IMG]

    Если вы хотите, чтобы мы более подробно раскрыли какой-то функционал парсера, у вас есть идеи для новых статей или вы желаете поделиться собственным опытом использования A-Parser (за небольшие плюшки :) ) - отписывайтесь здесь.

    Подписывайтесь на наш канал на Youtube - там регулярно выкладываются видео с примерами использования A-Parser, а также следите за новостями в Twitter.

    Все сборники статей

    [​IMG]
     
  27. Forbidden

    Forbidden V.I.P

    Регистрация:
    24.04.08
    Сообщения:
    1.496
    Симпатии:
    174
    1.2.799 - новый парсер для поиска картинок, улучшения в существующих парсерах

    [​IMG]

    Улучшения
    • Добавлен новый парсер [​IMG] SE::Yandex::ByImage - поиск картинок в Яндексе по ссылке
    • В [​IMG] Social::Instagram::Post добавлена возможность собирать ссылки на локации
    • В [​IMG] Util::YandexRecognize добавлена поддержка сессий
    • В [​IMG] SE::Yandex::SQI добавлена возможность определять считается ли домен "официальным"
    • Улучшения в [​IMG] HTML::EmailExtractor для более качественного сбора почт
    • В [​IMG] SE::Google::Trends обновлен и значительно расширен список регионов
    • Из [​IMG] SE::Seznam удален парсинг $related в связи с тем, что связанные ключевые слова больше не выводятся на странице выдачи
    Исправления в связи с изменениями в выдаче
    Исправления
    • Исправлен выбор страны в [​IMG] SE::Yahoo
    • Исправлен баг с декодированием ссылок в [​IMG] SE::Google::Images
    • В режиме -newnode исправлены проблемы с кодировкой и оптимизировано потребление памяти

    [​IMG]
     
  28. Forbidden

    Forbidden V.I.P

    Регистрация:
    24.04.08
    Сообщения:
    1.496
    Симпатии:
    174
    Сборник рецептов #39: бот-опросник, парсер hotline.ua и copart.com

    Представляем вашему вниманию 39-й сборник рецептов, в который вошли:
    • телеграмм бот опросник
    • парсер агрегатора цен hotline.ua
    • парсер аукционов транспортных средств copart.com

    Телеграмм бот опросник
    Данный бот позволяет организовать ежедневный опрос сотрудников, при этом список вопросов можно гибко менять. Все настройки берутся из Google таблицы, а также туда пишутся ответы по каждому сотруднику.
    Также, этот пример демонстрирует возможность создания телеграмм бота на базе A-Parser и работу с Google таблицами.


    Парсер hotline.ua
    hotline.ua - это самый большой агрегатор цен в Украине. С его помощью можно мониторить и анализировать цены на товары у конкурентов или искать наиболее выгодные предложения среди большого количества интернет-магазинов.
    [​IMG]

    Парсер copart.com
    Copart является одним из крупнейших интернет аукционов, специализирующихся на продаже новых и б/у автомобилей. По официальной информации каждый день на аукционе выставляется на продажу более 150 000 транспортных средств.
    [​IMG]

    Еще больше различных рецептов в нашем Каталоге!
    Предлагайте ваши идеи для новых парсеров здесь, лучшие будут реализованы и опубликованы.

    Подписывайтесь на наш канал на Youtube - там регулярно выкладываются видео с примерами использования A-Parser, а также следите за новостями в Twitter.

    Все сборники рецептов

    [​IMG]
     
  29. Forbidden

    Forbidden V.I.P

    Регистрация:
    24.04.08
    Сообщения:
    1.496
    Симпатии:
    174
    Видео урок: Именование файлов результатов

    Мы начинаем публикацию серии коротких видеоуроков, каждый из которых будет посвящен какому-то одному функционалу.
    И в этом уроке будут рассмотрены варианты формирования имени файла результата.



    В видео рассмотрено:
    • Нумерация файла результата в соответствии с запросами
    • Нумерация файла результата + часть имени запроса
    • Именование файла результата по запросу, если запрос линк

    Полезные ссылки:

    Оставляйте комментарии и подписывайтесь на наш канал на YouTube!
    [​IMG]
     
  30. Forbidden

    Forbidden V.I.P

    Регистрация:
    24.04.08
    Сообщения:
    1.496
    Симпатии:
    174
    Сборник рецептов #40: посещаемость организаций, SSL сертификаты, ikea и анализ доменов

    Представляем вашему вниманию 40-й сборник рецептов, в который вошли:
    • парсер данных о посещаемости организаций
    • парсер данных о SSL сертификатах
    • парсер товаров на ikea.com
    • комплексный пресет для анализа доменов по ряду характеристик
    • способ извлечения доменов из ссылок без фактического захода на страницу

    Посещаемость в Google Maps
    В поисковой выдаче Google для определенных запросов отображается расширенный сниппет с информацией об организации из Google карт. В частности, обычно отображается информация о посещаемости в разрезе дней недели.
    Представляем парсер, который собирает данные о посещаемости.
    [​IMG]

    Данные по SSL сертификату
    Данный парсер собирает информацию о SSL сертификате сайта. В качестве источника данных используется сторонний ресурс.
    [​IMG]

    Парсер ikea.com
    Парсер данных из ikea.com, который позволяет собирать различную информацию о товарах. Согласно данным из Википедии, ikea - это одна из крупнейших в мире торговых сетей по продаже мебели и товаров для дома.
    [​IMG]

    Кроме этого:

    Еще больше различных рецептов в нашем Каталоге!
    Предлагайте ваши идеи для новых парсеров здесь, лучшие будут реализованы и опубликованы.

    Подписывайтесь на наш канал на Youtube - там регулярно выкладываются видео с примерами использования A-Parser, а также следите за новостями в Twitter.

    Все сборники рецептов

    [​IMG]
     
  31. Forbidden

    Forbidden V.I.P

    Регистрация:
    24.04.08
    Сообщения:
    1.496
    Симпатии:
    174
    Сборник рецептов #41: Google таблицы, отправка писем и авторизация с помощью puppeteer

    Представляем 41-й сборник рецептов, который полностью посвящен использованию различных Node.js модулей в A-Parser.
    • Работа с Google таблицами
    • Отправка писем из А-Парсера
    • Авторизация с помощью puppeteer

    Сохранение результатов в Google SpreadSheets
    Один из часто задаваемых вопросов в поддержке, это вопрос о возможности писать результаты прямо в Google Таблицы. Поэтому мы подготовили небольшой пример парсера, который демонстрирует такую возможность.
    [​IMG]

    Отправка почтовых писем
    Еще одна возможность, о которой часто спрашивают наши пользователи - отправка писем. Такой функционал может быть использован для уведомлений о различных событиях в заданиях, в том числе о завершении их работы. Поэтому мы также подготовили пример, демонстрирующий отправку писем прямиком из А-Парсера.
    [​IMG]

    Авторизация на GitHub с использованием puppeteer
    Еще один пример по заявкам наших пользователей, демонстрирующий загрузку страницы, авторизацию на ресурсе и простую навигацию.
    [​IMG]

    Еще больше различных рецептов в нашем Каталоге!
    Предлагайте ваши идеи для новых парсеров здесь, лучшие будут реализованы и опубликованы.

    Подписывайтесь на наш канал на Youtube - там регулярно выкладываются видео с примерами использования A-Parser, а также следите за новостями в Twitter.

    Все сборники рецептов

    [​IMG]
     
  32. Forbidden

    Forbidden V.I.P

    Регистрация:
    24.04.08
    Сообщения:
    1.496
    Симпатии:
    174
    1.2.912 - обновление NodeJS, повышение производительности, адаптация к изменениям в рекаптчах

    [​IMG]

    Мы завершили переход на NodeJS в качестве основного движка для парсеров и представляем новую стабильную версию 1.2.912 с поддержкой NodeJS 14.2.0. Данное обновление сочетает в себе множество улучшений, включая повышение производительности, уменьшение потребления памяти, полностью новый сетевой стек, а также поддержку нативных NodeJS модулей, позволяющую использовать всю мощь каталога npmjs в A-Parser'е

    Также в данное обновление включены изменения по работе с ReCaptcha2 в парсере Google, наша команда одна из первых нашла решение по обходу новой версии рекаптчи и протестировала его совместно с сервисом RuCaptcha, за что им отдельный респект. На данный момент корректный обход каптчи протестирован с RuCaptcha, Anti-Captcha, XEvil и CapMonster.

    Помимо этого было произведено множество оптимизаций в ядре A-Parser'а, значительно увеличилась производительность при использовании большого числа заданий или больших списков прокси. Парсер [​IMG] Rank::CMS был полностью переписан и стабилизирован, добавлена поддержка нового формата apps.json и поддержка пользовательских правил.

    Улучшения
    • NodeJS обновлен до v14.2.0, v8 до 8.1
    • Добавлена поддержка параметра data-s в рекаптчах для [​IMG] SE::Google, также добавлена опция ReCaptcha2 pass proxy
    • Увеличен лимит потоков до 10000 для OS Windows
    • Значительно улучшена производительность при большом числе активных прокси и/или заданий, полностью переписан стек по работе с прокси, оптимизирована работа с большими списками
    • Добавлен новый парсер [​IMG] Rank::KeysSo
    • Полностью переписаны на JS [​IMG] SE::Yahoo::Suggest, [​IMG] Rank::Alexa::API и [​IMG] Rank::Archive
    • Улучшена производительность при использовании регулярных выражений, а также улучшена совместимость
    • В [​IMG] SE::Google::KeywordPlanner добавлено автоматическое получение токена
    • В [​IMG] SE::Bing добавлена возможность парсить ссылки на кэшированные страницы, а также добавлена возможность парсить мобильную выдачу
    • В парсере [​IMG] Util::ReCaptcha2 при выборе провайдера Capmonster или Xevil теперь необязательно указывать Provider url
    • В [​IMG] SE::Google::Trends добавлена возможность указывать произвольный диапазон дат
    • В [​IMG] Rank::CMS добавлен выбор движка регулярок и поддержка собственного файла с признаками
    • В [​IMG] SE::Yandex::ByImage добавлена опция Don't scrape if no other sizes, которая позволяет отключить сбор результатов, если искомой картинки нет в других размерах
    • [NodeJS] Добавлена защита от бесконечных циклов и долгих регулярок
    • [NodeJS] Исправлена работа this.cookies.getAll()
    • [JS парсеры] Добавлена опция follow_meta_refresh для this.request
    • [JS парсеры] Добавлена опция bypass_cloudflare для this.request
    • [JS парсеры] Underscore заменен на Lodash
    • [JS парсеры] В логе добавлена пометка при вызове других парсеров
    • [JS парсеры] Использование предыдущего прокси после запроса к другому парсеру
    • [JS парсеры] Добавлен метод destroy()
    Исправления в связи с изменениями в выдаче
    Исправления
    • Исправлен баг, из-за которого игнорировался выбранный проксичекер
    • Исправлена работа функций Decode HTML entities и Extract domain в Конструкторе результатов
    • Исправлена проблема с определением кодировки
    • Исправлена ошибка использования $tools.query
    • Исправлен баг в Rank::MajesticSEO при котором использовались все попытки при отсутствии результатов
    • Исправлена работа http2
    • Исправлена ошибка, когда парсер падает из-за невозможности писать в alive.txt
    • Исправлено разгадывание каптч в SE::Yandex::Register и Check::RosKomNadzor
    • Исправлена разница в запросах, отправляемых через Net::HTTP и JS
    • Исправлен баг в SE::Yahoo
    • Исправлены ошибки в Rank::CMS при выборе приложения без категории
    • [NodeJS] Исправлен подсчет времени исполнения кода парсера
    • [JS парсеры] При пустом body не передавался заголовок content-length при post запросе
    • [JS парсеры] Исправлена работа CloudFlare bypass
    • [JS парсеры] Исправлена работа с сессиями
    • [JS парсеры] Исправлена работа с overrides для this.parser.request
    • [JS парсеры] Исправлена ошибка определения кодировки в JS парсерах

    [​IMG]
     
  33. Forbidden

    Forbidden V.I.P

    Регистрация:
    24.04.08
    Сообщения:
    1.496
    Симпатии:
    174
    Видео урок: где смотреть переменные, скрытые переменные и какой результат они выводят (примеры)

    В этом видео рассмотрели где смотреть переменные, какие бывают скрытые переменные и какой результат они выводят на примерах.



    Содержание видео:
    00:20 - 1. Где смотреть какие у парсера есть переменные?
    1:16 - 2. Какие бывают скрытые переменные ($query.*, $root и т.п.)?
    1:22 - переменная root
    2:08 - переменная root объект
    3:14 - переменная query.orig
    4:04 - переменная query.first
    5:24 - переменная query.lvl
    5:50 - переменная query.prev
    6:20 - переменная query.num

    Все возможные методы TT для работы с обьектами
    Форматирование запросов (шаблоны)

    Оставляйте комментарии и подписывайтесь на наш канал на YouTube!

    [​IMG]
     
  34. Forbidden

    Forbidden V.I.P

    Регистрация:
    24.04.08
    Сообщения:
    1.496
    Симпатии:
    174
    Видео урок: просмотр результатов парсинга, настройка прокси с авторизацией, опция Extra query string

    В этом видео уроке рассмотрены ответы на 3 часто задаваемых вопроса от новых пользователей А-Парсера


    1. Где и как можно посмотреть результаты парсинга?
    2. Как подключить прокси с авторизацией?
    3. Extra query string, что это такое и как применять эту опцию?
    В уроке рассмотрено:
    • Просмотр результатов парсинга 3-мя способами:
      • Способ первый. "Из очереди заданий, если задание на паузе".
      • Способ второй. "Из очереди заданий, если задание завершено".
      • Способ третий. "Забираем результат из папки results".
    • Подключение прокси с авторизацией.
    • Примеры использования опции Extra query string.
    Полезные ссылки:

    Оставляйте комментарии и подписывайтесь на наш канал на YouTube!

    [​IMG]