Продвигаем бизнес в Интернете с 2001 года

Паразитные технологии — дорвейные партнерские программы

Борьба поисковых систем со спамом выходит на новый уровень

Последнее обновление: 17 октября 2018 года
2387

Паразит - организм, живущий за счет особей другого вида и тесно с ними связанный в своем жизненном цикле. Паразиты питаются соками тела, тканями или переваренной пищей своих хозяев, многократно без умерщвления пользуясь своим хозяином. Паразиты постоянно или временно используют организм хозяина как территорию своего обитания.

Я специально дал биологическое определение паразитизма, оно лишено эмоциональной окраски, как, например, в словаре синонимов: "Паразит, дармоед, тунеядец, блюдолиз, лизоблюд, приживальщик, приживалка, прихлебатель; объедало, опивало; трутень...". Даже "живущий за счет" означает всего лишь факт, что, если хозяйский организм прикажет долго жить, паразиту тоже придется отдать концы, без хозяина он просто не сможет выжить.

Этот термин идеально описывает отношения между большими алгоритмическими поисковыми системами (хозяин) и дорвейными системами (паразит), живущими за счет "высасывания" у поисковых систем целевого трафика и его дальнейшей перепродажи рекламодателям. Необходимость в четких определениях сегодня уже есть.

  • Во-первых, в сферу сайтостроительства, продвижения и интернет-рекламы втягивается все большее количество компаний, которые, что называется, "только вчера с пальмы слезли", и у их руководителей в этом новом мире нет ни ориентиров, ни опоры.
  • Во-вторых, интернет с каждым днем требует все больше и больше людей для профессиональной деятельности. И "юноше, обдумывающему житье" в Сети ориентиры тоже не помешали бы.
  • В-третьих, с появлением партнерских программ так называемых "PPC-поисковиков" дорвейный бизнес из оптимизаторских шалостей, как это было года два назад, превратился в сложившуюся технологию. Об этом говорят и финансовые обороты, и техническое оснащение, и способы позиционирования на рынке.

В частности, в работах Николая Филева (greenwood) и выступлениях на форуме Searchtngines.ru четко прослеживается мысль, что паразитные технологии являются даже неким стимулом развития, необходимой составляющей и т.п. для поисковых технологий. Возможно, так и есть - на борьбу с дорвеями поисковые системы вынуждены тратить довольно много сил и средств, и в рамках этой борьбы делаются открытия, серьезно улучшающие качество поиска.

Но, с другой стороны, какому же "организму" не хочется пожить без паразитов?..

Результат дорвеестроительства для пользователя это, минимум, 1-3 лишних клика до нужной информации, либо невозможность найти нужную. Результат для поисковика - огромный объем проиндексированной мусорной информации и невозможность корректного ранжирования результатов поиска. Результат для владельцев гостевых книг, форумов и др. ресурсов, где можно оставить ссылку - заспамленные поддерживающими дорвеи ссылками страницы. Результат для рекламодателя - повышение цен и лишние расходы. Но все это перевешивается очень хорошими доходами участников дорвейного бизнеса.

Я не призываю к выбору, просто хочу поставить именно ориентиры. Чтобы веб-мастер, столкнувшись с чем-то подобным, сразу же мог определить "за что и против кого он дружит".

Материалы для изучения.

  • http://www.samarainternet.ru/programmseo63.html - статья Н. Филева, в которой процесс дорвеестроительства и цели этой работы расписаны буквально по шагам. Со скриншотами и лирическими отступлениями.
  • http://www.klikdoors.com/en - еще одно описание плюс онлайн-сервис по дорвеестроительству
  • http://seochase.com/viewtopic.php?t=1822 - об использовании цепей Маркова в генерации входных страниц. Поисковые системы все лучше умеют отслеживать грамматически неверные тексты и клоны одного и того же текста, поэтому старые дорвейные технологии становятся неэффективными. В приведенной теме рассказывается об этой проблеме и о методе ее автоматического решения.

Sitecontentanalyzer

Есть одна интересная задача. Допустим, вы продвигаете сайт по запросу N. Первый анализ, который необходимо выполнить - определение наиболее релевантной страницы сайта по данному запросу. Методика ранее описана в статье "Контент-анализ".

Допустим, контент-анализ показал, что на сайте найдено несколько страниц, релевантных запросу N. И вы с сожалением обнаруживаете, что наиболее подходящая, по вашему мнению, для данного запроса страница M не является первой в списке. Т.е. продвигая ссылками именно ее, вы будете бороться не с конкурентами, продвигая лучшую страницу сайта, а со своими же страницами, которые поисковая система почему-то считает более релевантными запросу N.

Эта разница между "точкой зрения" поисковой системы на релевантность ваших страниц и вашими собственными представлениями и является предметом для размышлений. Почему поисковик так считает? Может, плотность ключевых слов на странице M низка? Может, распределение слов запроса N чем-то подкачало?.. Задача очень непростая.

Чтобы иметь возможность хотя бы строить версии, необходимо сравнить текстовые параметры нескольких страниц вашего сайта, которые поисковик указал в качестве релевантных запросу N...

Это только одна из проблем, какие можно решать при помощи программы Site Content Analyzer. В планах на будущее - более детальный рассказ о возможностях софта. А пока я попросил разработчика Дмитрия Пивоварова ответить на несколько вопросов, интервью с ним - ниже.

- Когда и для чего была создана программа?

- Первая версия Site Content Analyzer появилась в июле 2003 года. Идея написания подобной программы возникла после анализа существовавших на тот момент решений по подбору ключевых слов. Ни одна из протестированных нами программ не решала данной проблемы на 100%. Программа получилась простой - анализировался только вес слов и на основе наиболее весомых из них составлялись предполагаемые фразы. По мере получения отзывов пользователей стало ясно, что изначально выбранная концепция программы не сможет вместить все требуемые функции. Ядро программы было полностью переписано, добавлены новые режимы анализа. В результате появился Site Content Analyzer 2.

- Кто ее сделал? Имена, компания?

Компания Elibriz Software состоит из двух человек: Олег Пивоваров и Дмитрий Пивоваров. Каждый из нас совмещает сразу несколько "должностей" - программист, менеджер, маркетолог, дизайнер, человек на "саппорте" и т.д.

- Почему русскоязычная версия появилась позже англоязычной?

Строго говоря, русскоязычной версии программы и сейчас нет :) Задержка с выходом на русский рынок объясняется, в первую, очередь низкой покупательной способностью данного рынка. Причем речь идет не столько об отсутствии денег (т.к. программа ориентируется, в основном, на специалистов в области SEO, т.е. людей вполне способных приобрести программный инструмент), сколько об отсутствии желания покупать. Соответственно, при отсутствии отдачи, желания развивать и поддерживать русскую версию не было.

- Насколько успешно развивается проект?

Проект развивается вполне успешно. На сегодняшний день (ИМХО) более "продвинутого" анализа в области ключевых слов не предоставляет никто. Имеются многочисленные отзывы пользователей, а также ряд публикаций и отзывов на специализированных ресурсах. Некоторые приведены на сайте.

- Есть ли у программы конкуренты на Западе и в России?

Из отечественных - SEMonitor имеет модуль анализа ключевых слов. Есть также украинский WebCEO. На западе - IBP, WebPosition Gold. Впрочем, эти продукты представляют собой своего рода швейцарские ножи, по принципу "все в одном", поэтому их возможности в области анализа слов проигрывают узкоспециализированному продукту.

- Каковы Ваши планы по развитию проекта?

В настоящий момент развитие программы несколько замедлилось, поскольку новые "фичи" уже не вписываются в имеющуюся концепцию интерфейса и принципов работы с программой. Поэтому, вполне возможно, в ядро Site Content Analyzer опять будут внесены существенные изменения и будет выпущена третья версия продукта.

Из возможностей планируется следующее.

  • Повторный анализ любого файла, входящего в проект, без анализа всего проекта в целом.
  • Анализ структуры ссылок внутри сайта.
  • Более глубокий анализ распределения слов по тэгам.
  • Работа с фразами как с отдельным словом (для русского языка это не так актуально).
  • Индивидуальные профили с настройками веса тэгов и опций анализа.
  • Возможно будет реализовано некое подобие стемминга.

- Расскажете ли Вы о том, как использовать SCA для частных задач? Каких?

Расскажу, но чуть позже, вот примерный список тем.

  1. Анализ ключевых слов сайта, т.е. поиск наиболее релевантных контексту сайта ключевых слов и оценка их реального веса, плотности, а также распределения их по объему сайта и каждой страницы.
  2. Подбор ключевых фраз для pay-per-click рекламы или дальнейшей оптимизации.
  3. Сравнение степени "оптимизированности" разных сайтов одной тематики.
  4. Анализ ключевых слов конкурентов :) или сайтов, находящихся по целевому запросу в топе.

Вам будет интересно

Хотите обсудить ваш проект?
Напишите нам о своих бизнес-задачах, и мы предложим проверенные решения.

Доставляем экспертный контент

Мы делимся с подписчиками экспертным контентом: отправляем полезные статьи, советы от специалистов, приглашаем на вебинары. Подпишитесь, чтобы узнать больше о продвижении бизнеса в Интернете, наших мероприятиях и репортажах с крупных отраслевых событий. Выберите наиболее удобную платформу для вас и наслаждайтесь контентом!

Нажимая на кнопку «Подписаться», я даю согласие на обработку персональных данных и соглашаюсь c политикой конфиденциальности

Спасибо за подписку!

Мы отправили вам проверочое письмо — пожалуйста, подтвердите адрес электронной почты, перейдя по ссылке внутри письма.

Произошла ошибка

Пожалуйста, попробуйте еще раз