1. Вы находитесь на форуме клуба BlackSEO.

    Здесь собрались настоящие профессионалы, накопившие большой опыт в сфере создания и продвижения сайтов. Своими знаниями и умениями они выделяются на фоне общей массы оптимизаторов. Участники форума постоянно выносят на обсуждение задачи, которые всегда на несколько шагов впереди публичных дискуссий, что делает BlackSEO лучшим местом для общения на любые темы, начиная с бизнеса и заканчивая отдыхом.
    Скрыть объявление

A-Parser - многофункциональный парсер SE, PR, TrustRank, DMOZ, WHOIS etc.

Тема в разделе "Реклама и анонсы партнерок и сервисов", создана пользователем Forbidden, 19.4.2012.

  1. Forbidden

    Forbidden V.I.P

    Регистрация:
    24.04.08
    Сообщения:
    1.496
    Симпатии:
    174
    A-Parser - версия 1.0.37

    Улучшения:
    • При добавлении быстрого задания теперь количество попыток выполнить запрос(Request retries) установлено в 200
    Исправления:
    • Исправлен парсер [​IMG] SE::YouTube в связи с изменением в выдачи
    • Исправлено импортирование заданий(ошибка появилась в предыдущей версии)
    • Исправлена обработка каптчи у парсера [​IMG] SE::Google
    • Исправлен подсчет количества результатов(ошибка появилась в предыдущей версии)

    Связанные задачи:
     
  2. Forbidden

    Forbidden V.I.P

    Регистрация:
    24.04.08
    Сообщения:
    1.496
    Симпатии:
    174
    A-Parser - версия 1.0.49

    Улучшения в парсере гугла:
    • CaptchaKiller - убийца каптчи для парсера [​IMG] SE::Google - теперь можно парсить inurl: даже на паблик проксях!

      В последнее время Google довольно сильно ужесточил парсинг с операторами(inurl:, site: и т.д.), постоянно показывая каптчу(проверочную картинку), что не позволяло спарсить результаты выдачи без использования хороших проксей или сервиса АнтиКаптча. Это улучшение позволяет A-Parser'у автоматически обходить каптчу без использования сервисов

      [​IMG]

      Сравнение парсинга с CaptchaKiller и без на форуме
    • Теперь дополнительно парсятся рекламные блоки - ссылка, анкор и сниппет, что позволяет собрать список конкурентов в Google AdWords
    • Также парсер [​IMG] SE::Google теперь сохраняет сессии что позволяет парсить еще быстрее, получая меньшее число ошибок
    Улучшения в сохранении результатов:
    • Теперь в имени файла результата можно использовать все макросы доступные в Result format, что позволяет в имени файла использовать любую часть результата или запроса(пример: при парсинге Google PR сохранять ссылки в файлы 0.txt - 10.txt, где цифра означает PageRank)
    • Теперь возможно указать папку(с неограниченной вложенностью) для сохранения результата
    • Комплексный пример: {date}_{time}/parser1({pr}).txt - будет создавать новую папку с текущей датой и временем и автоматически сортировать результаты по файлам
    Остальные улучшения:
    • В качестве запросов можно использовать файлы из папки с результатами
    • В парсере [​IMG] SE::Yandex появился новый результат {misspell} определяющий посчитал ли Яндекс запрос опечаткой или нет
    • В ProxyChecker изменена проверочная ссылка по умолчанию
    • В API теперь возможно отключить ведение логов
    • В парсерe [​IMG] SE::Yahoo убраны результаты {totalcount} и trending[] в связи с изменением в выдаче
    • В ProxyChecker теперь возможно отключить проверку загруженных проксей - все прокси будут считаться живыми
    Исправления парсеров в связи с изменением в выдаче:
    • [​IMG] SE::Bing - не парсились релейтед кейворды
    • [​IMG] SE::Yahoo - не парсилась основная выдача и релейтед кейворды
    • [​IMG] SE::AOL - не парсилась выдача
    • [​IMG] SE::Yandex::Suggest - в некоторых случаях не парсились кейворды
    • [​IMG] SE::Yandex - исправлена логика при показе каптчи
    • [​IMG] SE::Yandex::WordStat - исправлена логика при показе каптчи
    • [​IMG] SE::YouTube - не учитывались параметры фильтров
    • [​IMG] Rank::Alexa - не парсился основной рейтинг
    • [​IMG] Rank::Ahrefs - не парсилось количество беклинков

    Полный список изменений тут: 1.0.49
     
  3. Forbidden

    Forbidden V.I.P

    Регистрация:
    24.04.08
    Сообщения:
    1.496
    Симпатии:
    174
    A-Parser - версия 1.0.60

    Улучшения в CaptchaKiller для парсера [​IMG] SE::Google

    Исправлена загрузка каптчи в [​IMG] SE::Yandex::WordStat и работа фильтров в [​IMG] SE::YouTube

    Полный список изменений тут: 1.0.60
     
  4. gerbill

    gerbill V.I.P

    Регистрация:
    20.11.05
    Сообщения:
    1.209
    Симпатии:
    66
    может ли парсер скачать картинки с гугл картинок? не ссылки на картинки а сами полноразмерные картинки по списку запросов и с применением гугл-картинкового фильтра (типа только жпеги, не меньше 500 килобайт размером)
     
  5. Forbidden

    Forbidden V.I.P

    Регистрация:
    24.04.08
    Сообщения:
    1.496
    Симпатии:
    174
    может - сначала парсим\фильтруем ссылки, потом качаем с помощью Net::HTTP в файлики
     
  6. Forbidden

    Forbidden V.I.P

    Регистрация:
    24.04.08
    Сообщения:
    1.496
    Симпатии:
    174
    парсим линки на картинки по параметрам:
    [​IMG]
    за час набрали 135к уник домена >500kb

    сохраняем картинки в файлики:
    [​IMG]
    4 часа, забили 100мбит\с

    [​IMG]

    напарсили 112 гиг картинок

    кстати, пока делал тест нашел баг - поправил, неверно бинарные файлы сохранялись(картинки)

    P.S. скоро будет цикл статей с различными вариантами применения парсера
     
  7. Forbidden

    Forbidden V.I.P

    Регистрация:
    24.04.08
    Сообщения:
    1.496
    Симпатии:
    174
    A-Parser - версия 1.0.69

    Новый парсер [​IMG] HTML::TextExtractor - парсит текстовые блоки с указанной страницы, можно использовать для парсинга огромного количества текста для наполнения своих сайтов и доров, можно настроить минимальную длину текстового блока для парсинга

    [​IMG]

    В парсере [​IMG] Net::HTTP появилась возможность использовать POST и HEAD запросы, пример парсинга с POST запросом:

    [​IMG]

    Другие улучшения:

    • Теперь в формате результата есть возможность указать исходный запрос - {firstquery}, позволяет при парсинге в глубину сохранять результаты по файлам с именами изначальных запросов
    • В парсер [​IMG] Net::Whois добавлен парсинг NS серверов и статусов доменов
    • В парсере [​IMG] Net::Whois теперь используется единый формат даты регистрации и окончания регистрации - dd.mm.yyyy для всех зон
    • Новые результаты для всех парсеров:
      • {retries} - использованное количество попыток на данный запрос
      • {querynum} - порядковый номер запроса
      • {lvl} - уровень вложенности запроса(при использовании опций Parse all results, Parse to level)
    • Для парсера [​IMG] Net::HTTP добавлен параметр Max redirects count - определяет максимальное количество редиректов
    • Для всех парсеров [​IMG] SE::Google::* добавлен домен www.google.by
    • Теперь есть возможно указать задержку между запросами(актуально только при парсинге в 1 поток)
    Исправления:
    • Исправлен парсинг подсказок [​IMG] SE::Bing::Suggest
    • Исправлено сохранение результатов с двоичными данными(изображения, видео и т.п.)
    Подробнее тут: 1.0.69
     
  8. JpS

    JpS Кассир V.I.P

    Регистрация:
    11.10.05
    Сообщения:
    16.765
    Симпатии:
    1.102
    парсер текста берет любой-любой юрль? т.е. выдергивает из абстрактного HTML-я "все что сможет" или под каждый "вид" юрла надо отдельно писать регулярку/правила/етц?
    в смысле - это что-то похожее на readability или нет?
     
  9. Forbidden

    Forbidden V.I.P

    Регистрация:
    24.04.08
    Сообщения:
    1.496
    Симпатии:
    174
    любой текст, регулярки не нужны, на выходе массив блоков текста, без форматирования(пример на скрине)
     
  10. JpS

    JpS Кассир V.I.P

    Регистрация:
    11.10.05
    Сообщения:
    16.765
    Симпатии:
    1.102
    а всякие аяксы, джаваскртипы и пр. хренотенть навигационная - вырезается? по какому принципу? или туда попадает все что по дом-модели попадает под опреджелние #text?
    другими словами, если взять какой-то новостной сайт, обвешанный плюшками, менюшками, навигацией и рекламой, он выдернет _только_ содержательную часть?
    если да, то какие библиотеки использовались для детекта "полезного" текста? какие-то пабликовые или "свои наработки"?
     
  11. Forbidden

    Forbidden V.I.P

    Регистрация:
    24.04.08
    Сообщения:
    1.496
    Симпатии:
    174
    JS он не обрабатывает
    по сути да то что #text

    добавлено через 40 секунд
    Навигация туда кстати попадает, это видно на скрине
    в настройках можно указать минимальную длину текста и хапать только большие блоки
     
    Последнее редактирование: 3.7.2013
  12. anza

    anza V.I.P

    Регистрация:
    20.06.06
    Сообщения:
    1.369
    Симпатии:
    29
    Оффтоп если ты в поиске детектора полезного текста, то я остановился на плагине для фф Evernote Clearly, переписывать не стал выдрал из него ядро и прикрутил к phantomjs + на отсев поставил еще скрипты c индексами читабильности текстов ARI, FleschReadingEase, GunningFogIndex, SMOGIndex. Readability на фоне Evernote Clearly смотрится поделкой выпускника ФАСТ КГТУ.
     
  13. JpS

    JpS Кассир V.I.P

    Регистрация:
    11.10.05
    Сообщения:
    16.765
    Симпатии:
    1.102
    Оффтоп anza, понял только половину :)
    вообще я так понимаю у тебя что-то клиентское. мне бы серверное.
     
  14. anza

    anza V.I.P

    Регистрация:
    20.06.06
    Сообщения:
    1.369
    Симпатии:
    29
    Оффтоп
    все серверное, исполнение яс
     
  15. Dark

    Dark Рулевой Администрация

    Регистрация:
    04.10.05
    Сообщения:
    9.342
    Симпатии:
    391
    Хм, полазил, посмотрел, забавная штукенция аднака )
    Вот вроде все умеет, и если реализовано на уровне а-постера - вообще респект и уважуха, но есть пару но.

    Вот мне нужно чекать постоянно выдачу на предмет моих доменов по тем или иным фразам - мне нужно какую-то обертку к API дописывать ?

    Нужно мониторить домены на просрочку и одновременно чекать их по алексе, а еще и предварительно собрав по признакам с пары-тройки сотен сайтов - реализовать можно ?
     
  16. Forbidden

    Forbidden V.I.P

    Регистрация:
    24.04.08
    Сообщения:
    1.496
    Симпатии:
    174
    Там уровень намного выше чем у A-Poster(старый динозавр :))

    Ты можешь создать один раз задание, запустить его когда надо, потом для следующего чека сделать его копию и он опять отпарсить

    можешь это автоматизировать через API
    http://a-parser.com/wiki/user-api/ тут описание что поддерживается


    для этого есть парсеры SE::Google::Blum1:osition, SE::Yandex::Blum1:osition, SE::QIP::Blum1:osition
    описание тут: http://a-parser.com/wiki/google-position/
    на вход идет список
    domain key
    domain2 key2
    ...
    и т.п.


    без проблем - Net::Whois + Rank::Alexa в одном задании, на вход список доменов

    добавлено через 1 минуту
    P.S. в будущем будет запуск по расписанию, тут описывал http://a-parser.com/threads/477/
     
    Последнее редактирование: 4.7.2013
  17. Forbidden

    Forbidden V.I.P

    Регистрация:
    24.04.08
    Сообщения:
    1.496
    Симпатии:
    174
    A-Parser - версия 1.0.71

    Мини-апдейт, исправляет ошибки:
    • В предыдущей версии перестал работать [​IMG] Util::AntiGate, следствием чего перестала работать возможность распознавания каптчи(в парсерах Google, Yandex и т.п.)
    • В конструкторе результатов(Results builder) не работала функция замены по регулярному выражению(Regex Replace)
    • Парсер падал если не мог создать папку с результатами
    Подробнее тут: 1.0.71

    В данный момент ведется активный перенос парсера на обновленную платформу и сокращение времени выпуска новых версий(на данный момент компиляция всем пользователям занимает около 2ух дней)
     
  18. sklip

    sklip Well-Known Member

    Регистрация:
    25.01.11
    Сообщения:
    1.569
    Симпатии:
    104
    Стал обладателем, ставится в 2 клика, тестим
     
  19. Forbidden

    Forbidden V.I.P

    Регистрация:
    24.04.08
    Сообщения:
    1.496
    Симпатии:
    174
    A-Parser - версия 1.0.81

    В этой версии только экстренные исправления в связи с изменением в выдаче:
    • [​IMG] SE::YouTube
    • [​IMG] Rank::Alexa
    • [​IMG] Rank::MajesticSEO
    Также исправлена некорректная работа парсера при использовании UTF-8 в регулярных выражениях

    Подробнее тут: 1.0.81

    Перенос парсера на новую платформу, начатый около 2ух недель назад, подходит к концу и в ближайшее время будет доступна бета-версия.
     
  20. Forbidden

    Forbidden V.I.P

    Регистрация:
    24.04.08
    Сообщения:
    1.496
    Симпатии:
    174
    A-Parser - версия 1.0.91

    Новый парсер [​IMG] SE::Yandex::WordStat::ByDate - парсит статистику показов ключевых слов Yandex WordStat по месяцам или неделям:
    [​IMG]

    Новый парсер [​IMG] SE::Baidu - парсит поисковую систему baidu.com, популярную в китае и японии:
    [​IMG]

    Теперь парсер гугла [​IMG] SE::Google может парсить по новостям и блогам:
    [​IMG]

    Парсер Яндека [​IMG] SE::Yandex дополнительно парсит рекламные объявления в выдаче:
    [​IMG]

    Другие улучшения:
    • Можно выбрать несколько файлов для обработки - на каждый файл будет создано свое задание:
    [​IMG]

    • Теперь в апарсере есть новости и подсказки на английском и русском:
    [​IMG]
    • В парсере [​IMG] Net::HTTP появилась возможность указать Cookies
    • В парсер [​IMG] HTML::TextExtractor добавлена возможность отключить парсинг анкоров у ссылок
    Исправления:
    • Исправлен парсер [​IMG] Rank::Ahrefs в связи с изменением в выдаче
    • Исправлена ошибка при которой парсер мог упасть при большом числе файлов запросов
    • Исправлена работа конструктора результатов Results builder при использовании макроса {query}
    • Отсутствовала прокрутка в тестовом парсинге
    • Иногда число активных заданий могло уменьшаться
    Подробнее тут: 1.0.91
     
  21. Webaz

    Webaz V.I.P

    Регистрация:
    20.10.06
    Сообщения:
    2.009
    Симпатии:
    46
    за это отдельное спасибо
     
  22. Forbidden

    Forbidden V.I.P

    Регистрация:
    24.04.08
    Сообщения:
    1.496
    Симпатии:
    174
    да незачто, на очереди еще много чего интересного
     
  23. sklip

    sklip Well-Known Member

    Регистрация:
    25.01.11
    Сообщения:
    1.569
    Симпатии:
    104
    Ребят кто знает подскажите как настроить, взять из файла домены
    отпарсить по site:site.com
    покласть в site.com.txt

    добавлено через 1 минуту
    [​IMG]
     
    Последнее редактирование: 9.8.2013
  24. Forbidden

    Forbidden V.I.P

    Регистрация:
    24.04.08
    Сообщения:
    1.496
    Симпатии:
    174
    Ты немного форумом ошибся, форум поддержки тут: http://a-parser.com/forum/

    P.S. если по теме - на вид все ок, попробуй число попыток увеличить
     
  25. Forbidden

    Forbidden V.I.P

    Регистрация:
    24.04.08
    Сообщения:
    1.496
    Симпатии:
    174
    A-Parser - версия 1.0.95

    Исправление парсера [​IMG] SE::Yandex::WordStat - Яндекс целиком изменил сервис и мы одни из первых исправили парсер :)
    Версия с поддержкой каптчи выйдет немного позже.
    Также исправлен парсинг ссылок объявлений в парсере [​IMG] SE::Yandex

    Подробнее тут: 1.0.95
     
  26. Forbidden

    Forbidden V.I.P

    Регистрация:
    24.04.08
    Сообщения:
    1.496
    Симпатии:
    174
    A-Parser - версия 1.0.99

    Вновь исправлен [​IMG] SE::Yandex::WordStat в связи с изменением в выдаче, также возвращена поддержка работы с антигейтом и теперь автоматически сохраняются хорошие сессии для экономии прокси и каптч

    Улучшения в Extract Top Domain(в Query Builders, Results Builders и в уникализации результатов) - теперь парсер корректно определяет все региональные поддомены вида *.org.ru, *.co.uk и др.

    Обновлен список языков для всех парсеров гугла [​IMG] SE::Google::*

    Исправления:
    • В парсере [​IMG] HTML::LinkExtractor некорректно обрабатывались ссылки mailto: и javascript:, также теперь по умолчанию этот парсер не переходит по редиректам
    • В парсере [​IMG] SE::Bing исправлена ошибка при которой A-Parser мог падать в некоторых случаях
    • Исправлено зависание при парсинге [​IMG] SE::Baidu
    • В интерфейсе иногда могли пропадать настройки парсеров
    • Исправлен [​IMG] SE::YouTube в связи с изменением в выдаче
    Подробнее тут: 1.0.99
     
  27. Webaz

    Webaz V.I.P

    Регистрация:
    20.10.06
    Сообщения:
    2.009
    Симпатии:
    46
    SE::Yandex::WordStat by date тоже заработал?
     
  28. Forbidden

    Forbidden V.I.P

    Регистрация:
    24.04.08
    Сообщения:
    1.496
    Симпатии:
    174
    нет, http://a-parser.com/threads/694/
     
  29. Forbidden

    Forbidden V.I.P

    Регистрация:
    24.04.08
    Сообщения:
    1.496
    Симпатии:
    174
    A-Parser - версия 1.0.111

    Расширение API:
    • Новый метод info - получение информации о PID, версии парсера и количества заданий в очереди
    • Новый метод getTaskConf - получение полных настроек задания по его ID
    • AParser.pm - Perl модуль, реализует текущее API
    Парсеры [​IMG] SE::Yandex::WordStat и [​IMG]SE::Yandex::WordStat::ByDate полностью исправлены после последних обновлений Яндекса. Средняя скорость проверки теперь составляет 5000 кейвордов в минуту без использования антигейта.

    В парсеры [​IMG] SE::Bing::Suggest и [​IMG] SE::Yahoo::Suggest добавлена опция [​IMG] Parse to level позволяющая автоматически подставлять найденые подсказки опять в запросы, тем самым происходит парсинг вглубь до 10 уровней вложенности

    В парсере [​IMG] Rank::MajesticSEO теперь можно проверить количество беклинков у конкретной страницы сайта

    Исправлены:
    • [​IMG] [NOPARSE]SE::Biggrin:MOZ[/NOPARSE] - в связи с изменение в выдаче
    • Опция Match subdomains(проверка сабдоменов) во всех парсерах позиций сайта(Positions) - ошибка появилась в предыдущей версии
    Подробнее тут: 1.0.111
     
  30. Forbidden

    Forbidden V.I.P

    Регистрация:
    24.04.08
    Сообщения:
    1.496
    Симпатии:
    174
    A-Parser - версия 1.0.119

    Новый метод уникализации DataBase - не использует оперативную память, 100% точность. Убраны старые методы Dynamic, DynamicHash, 16-64mb как неактуальные, подробности тут

    Реализовано лимитирование потоков, в случае превышения потоков в задании парсер выдаст ошибку и не запустит задание. На Windows лимит установлен в 2000 потоков, на Linux в 10000(или меньше если ulimit -n меньше)

    Исправлена обработка каптчи в парсере [​IMG] SE::Yandex. Также теперь можно указать регион поиска в цифровом формате через Extra query string, возможность выбора региона из списка сохраняется

    В API добавлена возможность переопределить настройки пресета в методах oneRequest и bulkRequest. Добавлен новый метод getParserPreset - позволяет изучить доступные настройки для каждого парсера. Обновлен модуль AParser.pm

    Добавлен парсер новой поисковой системы [​IMG] SE:: DuckDuckGo

    Обновлен список доменов гугла в парсере [​IMG] SE::Google. Также теперь парсер гугла может определять ошибочно был введен запрос или нет(результат {misspell})

    Исправления:
    • Иногда ссылка на первый ролик в [​IMG] SE::YouTube парсилась некорректно
    • Исправлено падение в некоторых случаях после постановки задания на паузу
    • Исправлен двойной запуск задачи после паузы, баг появился в одной из предыдущих версий
    • При дублировании задания частично пропадали настройки Results Builder
    Подробнее тут: 1.0.119
     
  31. push2me

    push2me Active Member

    Регистрация:
    25.06.12
    Сообщения:
    30
    Симпатии:
    1
    пользуюсь, доволен как слон! спасибо за софт !
     
  32. Forbidden

    Forbidden V.I.P

    Регистрация:
    24.04.08
    Сообщения:
    1.496
    Симпатии:
    174
    A-Parser - версия 1.0.130

    Важное улучшение - теперь все парсеры(а их 43) проходят ежедневное автоматическое тестирование, что позволяет оперативно реагировать на изменения в выдаче или работе всех сервисов, с которыми работает A-Parser.

    Улучшения:
    • Новый макрос результата {dump} - выводит в удобном виде все результаты получаемые парсером
    • Улучшен парсинг [​IMG] SE::AOL - теперь необходимо гораздо меньше попыток для успешного парсинга
    • Теперь парсер [​IMG] SE::Bing парсит до 1000 результатов с каждого запроса
    • В парсере [​IMG] [NOPARSE]SE::Google::Blum1:R[/NOPARSE] если у домена или страницы нету PageRank то в результате выведет -1
    • Парсер [NOPARSE]SE::Biggrin:MOZ [/NOPARSE]переименован в [​IMG] [NOPARSE]Rank::Biggrin:MOZ[/NOPARSE]
    Исправления:
    • Исправлена работа уникализации результатов в тесте A-Parser'а
    • Исправлено автоматическое удаление временных файлов при работе уникализации
    • [​IMG] Rank::Alexa в связи с изменением в выдаче
    • [​IMG] SE::Google::Compromised в связи с изменением в выдаче
    • [​IMG] SE::QIP в связи с изменением в выдаче
    • [​IMG] [NOPARSE]SE::Biggrin:uckDuckGo[/NOPARSE] в связи с изменением в выдаче
    • [​IMG] SE::Yandex::WordStat в связи с изменением в выдаче
    • [​IMG] [NOPARSE]Rank::Biggrin:MOZ [/NOPARSE]ошибка при проверке домена с www.
    • [​IMG] Rank::Ahrefs в связи с изменением в выдаче
    Подробнее тут: 1.0.130
     
  33. Forbidden

    Forbidden V.I.P

    Регистрация:
    24.04.08
    Сообщения:
    1.496
    Симпатии:
    174
    A-Parser - версия 1.0.148

    Новый парсер [​IMG] SE::Yandex[noparse]::Biggrin:[/noparse]irect::Frequency - проверка частотности ключевых слов через Яндекс.Директ.
    Без распознавания каптчи средняя скорость проверки 3000 ключевых слов в минуту при 500 потоках:
    [​IMG]

    На хороших проксях и при большем числе потоков можно добиться скорости более 20000 кеев в минуту

    В парсере [​IMG] HTML::TextExtractor теперь корректно обрабатываются списки(<select>)

    Исправления в связи с изменением в выдаче:
    • [​IMG] Rank::Alexa
    • [​IMG] SE::Google - определение запросов по которым нет результатов
    Другие исправления:
    • Исправлена логика работы Parse all results(Parse to level) совместно с макросами перебора букв(или фраз из файла)
    • При парсинге [​IMG] SE::YouTube в некоторых случаях некорректная обработка UTF-8 могла приводить к падению парсера
    • При парсинге [​IMG] SE::Yandex::WordStat::ByDate с пустым запросом парсер падал с ошибкой
    • В Perl-модуле AParser.pm исправлено добавление задания с запросами из файла(для пользователей с Enterprise лицензией)
    • Парсер [​IMG] SE::Yandex мог прекратить парсинг запроса если прокси вернула некорректный редирект(актуально для паблик-прокси)
    • Исправлено некорректное сохранение данных в UTF-8 во многих парсерах
    • Редактирование задания в очереди приводило к невозможности запустить это задание(с ошибкой о несуществующем файле запросов)
     
  34. Forbidden

    Forbidden V.I.P

    Регистрация:
    24.04.08
    Сообщения:
    1.496
    Симпатии:
    174
    A-Parser - версия 1.0.154

    В связи с тем что WordStat теперь можно парсить только используя аккаунты появился новый парсер [​IMG] SE::Yandex::Register - автоматически регистрирует тысячи аккаунтов используя антигейт.

    [​IMG]
    На скриншоте пример регистрации 1000 аккаунтов за 15 минут. Скорость ограничена возможностями антигейта.

    Парсеры [​IMG] SE::Yandex::WordStat и [​IMG] SE::Yandex::WordStat::ByDate теперь поддерживают авторизацию и позволяют парсить миллионы кейвордов и проверять частотность без использования антигейта. Теперь затраты на каптчу только при регистрации аккаунтов!

    [​IMG]

    Другие улучшения:
    • Теперь A-Parser поддерживает неограниченное число вложенных запросов(при использовании опции Parse to level)
    • Теперь все парсеры позиций сайтов по ключевым словам могут сравнивать искомую позицию по домену, по главному домену и по полной ссылке(опция Match type)
    • В парсер [​IMG] SE::Yandex добавлен результат geo, который определяет является ли запрос гео-зависимым(предупреждение о показе результатов для конкретного региона)
    Исправления:
    • Исправлен парсер подсказок [​IMG] SE::Google::Suggest в связи с изменением в выдаче
    • Исправлен парсер [​IMG] SE:: DuckDuckGo - в связи с изменением в выдаче некорректно определял последнюю страницу
    • При использовании очень больших файлов запросов парсер мог вылетать при возобновлении работы задания после паузы
    Подробнее тут: Версия 1.0.154
     
  35. Forbidden

    Forbidden V.I.P

    Регистрация:
    24.04.08
    Сообщения:
    1.496
    Симпатии:
    174
    A-Parser - версия 1.0.180

    Парсер Яндекса [​IMG] SE::Yandex:
    • Добавлена опция Parse not found, определяющая парсить ли выдачу если по искомому запросу найдено ноль результатов и предложена выдача по другому запросу
    • Теперь яндекс гораздо реже показывает каптчу
    • Исправлена отправка каптчи в связи с изменением в выдачи
    • В некоторых случаях неверно отправлялся запрос на антигейт о неправильной каптчи
    Парсер Яндекс Вордстата [​IMG] SE::Yandex::WordStat:
    • Улучшена работа с аккаунтами - неверно определялся заблокированный аккаунт
    • Нельзя было использовать антигейт совместно с аккаунтами
    Другие улучшения:
    • Реализована статистика работы по каждому заданию, в текущей версии считает количество успешных запросов, использование проксей, попыток и HTTP-запросов
    • Теперь при просмотре логов неудачные запросы выделяются красным цветом для удобства отладки
    • Небольшие улучшения в скорости работы прокси
    Исправления:
    • Исправлен парсер [​IMG] SE::AOL в связи с изменением в выдачи
    • Исправлен парсер [​IMG] Rank::Ahrefs в связи с изменением в выдачи
    • Исправлен парсер [​IMG] SE::Google::TrustCheck в связи с изменением в выдачи
    • Исправлено разделение логов по запросам
    Подробнее тут: Изменения в версии 1.0.180