Продвигаем бизнес в Интернете с 2001 года

Суд над алгоритмом

Такое вот интересное и давно ожидаемое событие произошло.

Последнее обновление: 09 октября 2018 года
2681

"В марте этого года владельцы сайта Kinderstart.com обвинили поисковую систему в необоснованном понижении его рейтинга в результатах поиска. Компания Google потребовала отклонить этот иск. Однако судья заявил, что жалоба Kinderstart.com скорее всего будет рассмотрена, после того как истец внесет в заявление необходимые дополнения.

Кроме того, Kinderstart.com обвиняет Google в нарушении антимонопольного законодательства, заявив, что действия компании нанесли ее бизнесу серьезный урон...

Решение судьи может означать изменение подхода к рассмотрению дел такого рода. Ранее ни один из исков против поисковиков не имел успеха. Железным аргументом поисковых систем становилось их право самостоятельно оценивать степень релевантности сайтов и размещать их в результатах поиска.

Дополнения истца к исковому заявлению и требование Google относительно прекращения рассмотрения иска суд рассмотрит 29 сентября. (см. Компьюленту )"

Железный аргумент поисковых систем начинают испытывать на прочность юристы, сообщество, которое способно толковать законы и добиваться судебных решений, максимизирующих сумму их гонорара. Если компания-ответчик (читай - Google) вполне способна рассчитаться по многомиллионным искам, соблазн найти брешь в ее юридической защите и обвинить в какой-нибудь несправедливости очень велик.

В поисках несправедливости и ходить далеко не надо. Большой бизнес всегда обрастает мелкими, которые заинтересованы в стабильности. Не секрет, что для сотен тысяч компаний Интернет и большие поисковики стали необходимым условием получения доходов. Поэтому любые нарушающие статус кво события всегда встретят сопротивление со стороны фирм, успешно работающих в современной ситуации.

Что и происходит. Компании начинают пытаться ограничить право и возможности Google лишать их доходов без предупреждения, без объяснения и без компенсации убытков. Если позиции в поиске, обеспечивающие текущий доход, достигнуты легальным путем, без использования поискового спама, юридическая позиция истца в суде выглядит не столь уж безнадежной. Почему успех и провал бизнеса зависит от действий "управляющих алгоритмом"? Понимают ли они, что означает для большого количества людей каждый поворот "ручки релевантности"? В чьих интересах работает алгоритм ранжирования, и почему результаты поиска не обсуждаются открыто при участии пользователей и поставщиков информации?..

Подождем сентября и узнаем, в чью пользу закончится суд на Алгоритмом. Можно быть уверенным, что, если Google не удастся полностью опровергнуть обвинения, в самое ближайшее время корпоративные юристы подадут сотни новых исков.

Прошу вас высказать свое мнение, прогноз - удастся ли юристам расшатать позицию поисковиков - самостоятельно оценивать соответствие сайтов тем или иным запросам? И, по возможности, аргументировать - почему да, или почему нет. Сделать это можно в теме "Суд над алгоритмом" на форуме SEOChase.com.

Вопросы президенту и ссылки

На Яндексе создан специальный раздел, на котором можно создать и проголосовать за вопрос Президенту РФ. Веб-мастера могут взять специальный код кнопки для своего сайта, чтобы посетители могли отдать свой голос за определенный вопрос. За неполные 5 дней в блогах Рунета появилось около 3000 ссылок на president.yandex.ru.
Читать подробнее >>

Рамблер покупает Damochka.ru и BannerBank

Достигнута договоренность холдинга Рамблер Медиа и компании eHouse о приобретении контрольного пакета акций нового холдинга, в который войдут проекты Дамочка.ру и Баннербанк.
Читать подробнее (pdf-файл) >>

Новая версия системы Битрикс

19 июня вышла новая 5 версия системы управления сайтом Битрикс. В интерфейсе используется технология AJAX, добавлены новые модули "Блоги" и "Обучение, тестирование" и другие изменения.
Читать подробнее >>

SandBox поисковый робот от Google

Аарон Уолл - 5 июня, 2006 года
Оригинальный текст - http://www.seobook.com/archives/001709.shtml.
Перевод выполнен с разрешения правообладателя.

В связи с недавним постом Мэтта Каттса об изменении качественных признаков, на которые опирается Google при индексации сайта, а также тем фактом, что чрезмерное количество низкокачественных ссылок приводит к тому, что сайт не так глубоко обходится (а некоторые из таких сайтов не обходятся поисковым ботом вообще), некоторые сравнивают это улучшение стандартов, по которым определяется частота обхождения сайта поисковым ботом с работой Google Sandbox направленной на предотвращение попадения новых или некачественных сайтов в результаты поиска.

На WebmasterWorld по этому поводу разгорелась многостраничная дискуссия, в которой Graywolf говорит, что:

"Лично я считаю, что мы наблюдаем работу
нового поискового робота типа Sandbox
"

Оптимальный размер сайта. Какой он?

Некоторые в этой дискуссии задаются вопросом, какой же оптимальный размер сайта, для того чтобы поисковый робот хорошо его проиндексировал или же, как им следует изменить внутреннюю навигацию, для того чтобы приспособить сайт к новому Google. Мне же кажется, что сама постановка таких вопросов ошибочна.

Если вы в корне меняете структуру сайта с проверенной и удобной пользователям на ту, что, может быть, понравится Google больше, вы не понимаете сути последних изменений в работе их поискового робота. Если вы слишком надеетесь на Google, в один прекрасный день вы поймете, что их алгоритм все время работает неправильно, во всяком случае, по вашему мнению.

Размер сайта определятся на самом деле следующими факторами:

  • какое количество уникального контента по теме вы можете создать;
  • насколько успешно вы привлекаете других к созданию контента на вашем сайте;
  • как люди совершают покупку;
  • как люди ищут информацию;
  • насколько известен ваш бренд (маленькому сайту легче завоевать популярность и известность в маленькой нише, где в большинстве случаев меньшее количество качественного контента сработает лучше, чем много тупого контента).

Во многих случаях небольших размеров сайты работают лучше, так как лучше могут сфокусироваться на маленькой задаче (рынке). Если посмотреть на некоторые из мега сайтов, как, например, eBay, глубокие ссылки - не их сильная сторона, но они известны, популярны и имеют большое количество качественных ссылок, что объясняет их хорошую представленность в индексе Google.

Определение необходимого количества качественных ссылок
и уникального контента

Еще одним фактором, влияющим на то, насколько глубоко поисковый робот индексирует сайт, кроме качества ссылок, является уникальность контента на странице. Недавно меня спросили, каким должен быть индекс цитируемости необходимый, для того чтобы проиндексировать 100,000,000 страничный сайт, страницы которого разбиты на категории и перелинкованы между собой. Я ответил, что я сомневаюсь что им удалось бы создать такое количество контента И при этом уникального настолько, чтобы он весь был проиндексирован И заполучить достаточно ссылок для того чтобы Google вообще захотел проиндексировать такой сайт.

Иногда меньше - значит больше.

Это касается и ссылок. Если вы слишком активно занимаетесь получением ссылок - sandbox становится реальной проблемой. Если же на ваш сайт ссылаются уважаемые источники и ссылок у вас не так уж и много, но зато они хорошего качества - вы быстрее появитесь в результатах выдачи Google.

В то время как к входящим ссылкам стоит относиться с большой осторожностью (их количеству и источникам), еще одним важным фактором является то, на кого вы сами ссылаетесь. Ссылки на качественные сайты не будут выглядеть как спам, даже если их очень много, о чем недавно писал Рэнд.

Googlebowling - полностью возможен (подтверждено надежными источниками), но вам придется использовать такие схемы, по которым можно будет определить, что сайт "принимает" участие в этой программе. Что это значит? Узнайте на кого они ссылаются - попробуйте поставить на эти ресурсы такие же спам-ссылки. Скомпрометируйте не только сайт конкурента, но и их партнеров.

Так что, если вы абсолютно изолируете свой сайт или среди ваших партнеров только такие ресурсы, которые можно легко скомпрометировать, это значительно снижает уровень стабильности вашего сайта.

Что делает сайт более стабильным

Большие сайты с 100,000 страниц в результатах выдачи - это настоящие бренды или по-настоящему хорошие и полезные ресурсы. Могут ли одиночки создавать подобные сайты, которые так же висели бы в результатах выдачи? Я думаю, что это возможно, но тогда они должны быть достойны упоминания/комментария. Вам придется найти способ быстро добавлять новый хорошо структурированный контент, который должен быть привлекательным для комментариев и цитирования или/и сайт должен быть открыт для других участников (для создания контента).

Отчет по итогам рейтинга интернет-магазинов

Развитие онлайновой торговли вносит существенные изменения в организацию торговли организаций, производящих товары и услуги. Однако среди российских пользователей Сети интернет-магазины пользуются пока небольшой популярностью, что связано прежде всего с отсутствием у потенциальных покупателей полной и достоверной информации об онлайновых торговцах. В связи с этим, НАУЭТ (Национальная ассоциация участников электронной торговли) совместно с CNews Analytic выступила с инициативой проведения постоянных рейтингов Интернет-ресурсов, которые специализируются на розничной торговле. Их целью является выявление компаний и информационных ресурсов, специализирующихся на предоставлении услуг онлайновой торговли и являющимися в этой области лидерами. На пресс-конференции НАУЭТ "Электронная коммерция и торговля в России в 2005 году" был представлен аналитический отчет по итогам рейтинга интернет-магазинов по показателю их эффективности (конверсии). Читать отчет >>

Новый вид оплаты за рекламу от Google

Из-за постоянного давления на Google со стороны рекламодателей, которое связано, в частности, с таким явлением как накрутка кликов ("click fraud"), компания приступила к тестированию нового метода оплаты за рекламу - Cost Per Action (оплата за действие). Разработка заключается в том, что рекламодатель платит не за каждого посетителя сайта, а только за такого, который совершит какое-либо заранее установленное рекламодателем действие - например, закажет товар. Свою оценку новинке дает и исполнительный директор компании "Бегун" Алексей Басов, считая ее "следующим шагом в эволюции продающей рекламы". Читать подробнее >>

Причины провалов SEO-проектов

Сегодня существует достаточно много компаний, которые занимаются предоставлением услуг по поисковой оптимизацией сайтов. Однако, наверное, нет таких компаний, абсолютно все проекты которых завершились удачно: повышение продаж, увеличение видимости сайта в поисковой системе и т.д. В связи с этим автор статьи 11 причин провалов проектов по оптимизации сайтов попытался разобрать причины, из-за которых любой проект по оптимизации может стать провальным и вывести следствия из этих причин. Читать статью >>

Развитие мировой медиаиндустрии

Интернет остается самым быстрорастущим рекламным медиа в мире, а объем мирового рынка интернет-рекламы достигнет $51,6 млрд к 2010 году. Такие прогнозы получены из отчета "Global Entertainment and Media Outlook: 2006 2010", опубликованном компанией Price Waterhouse Coopers (PwC). Компания, оценивая рынок интернет-рекламы и доступа в сеть по регионам мира, приводит различные статистические данные. Например, PwC отмечает, что общий мировой объем затрат на интернет-рекламу и доступ в сеть вырастет с $144,5 млрд в 2005 году до $265,6 млрд в 2010. Читать подробнее >>

Кирилл Сторчак: проблемы счетчика Rambler TOP 100

"Вебпланета" опубликовала полное интервью с Кириллом Сторчаком, директором информационного агентства "Ореанда-Новости" и руководителем проекта Sport.ru, в котором рассматривались основные проблемы счетчика Rambler TOP 100 и его значение для развития российского Интернета, а также возможные пути решения таких проблем. Сторчак отмечает, что в числе основных проблем счетчика являются потеря статистики в результате технических сбоев, "накрутка" счетчика многими участниками рейтинга и отсутствие инноваций в плане анализа статистики. Читать интервью >>

Исследование пользователей, реагирующих на контекстную рекламу

Компания "Артон консалтинг" провела исследование контекстной рекламы в Рунете, основной задачей которого стало сравнение особенностей аудитории, пришедшей на сайт по контекстной рекламе, медийной рекламе и в результате проведения работ по поисковой оптимизации, а также сравнение Бегуна и Яндекс.Директа на основании выявления особенностей аудитории. Проанализировав статистические данные определилось, что контекстная реклама приводит на 10%-20% более заинтересованную в предложениях рекламодателей аудиторию, чем баннерная реклама. Отмечается также, что Яндекс.Директ позже Бегуна начал внедрять технологии контекстно-зависимой рекламы и на сегодняшний день обеспечивает несколько более качественную аудиторию. Читать подробнее >>

Вам будет интересно

Хотите обсудить ваш проект?
Напишите нам о своих бизнес-задачах, и мы предложим проверенные решения.

Доставляем экспертный контент

Мы делимся с подписчиками экспертным контентом: отправляем полезные статьи, советы от специалистов, приглашаем на вебинары. Подпишитесь, чтобы узнать больше о продвижении бизнеса в Интернете, наших мероприятиях и репортажах с крупных отраслевых событий. Выберите наиболее удобную платформу для вас и наслаждайтесь контентом!

Нажимая на кнопку «Подписаться», я даю согласие на обработку персональных данных и соглашаюсь c политикой конфиденциальности

Спасибо за подписку!

Мы отправили вам проверочое письмо — пожалуйста, подтвердите адрес электронной почты, перейдя по ссылке внутри письма.

Произошла ошибка

Пожалуйста, попробуйте еще раз