Рекомендации экспертов

Эксперты отрасли ответят на злободневные вопросы о продвижении сайтов.

Занимаюсь продвижением сайта piter-consult.ru. До весны прошлого года ТИЦ был 375, посещаемость в будний день — около 1500 человек. 31 марта посещаемость упала раза в 1,5 и так и осталась. Сезонность устойчивая, но на уровне в 1,5 раза ниже, чем была до 31.03. ТИЦ на протяжении года упал до 250.

Сайт продвигался только естественным образом, за исключением покупки 20 ссылок прошлым летом. На фоне 850 естественных внешних ссылок такой шаг не должен был так отрицательно сказаться на тИЦ.

Перед самым падением посещаемости оптимизация дополнительно не проводилась, дизайн не менялся. Кроме наращивания контента проводилась внутренняя перелинковка, возможно, избыточная и не очень профессиональная. Цель перелинковки была естественная: предоставить посетителю максимум информации по интересующей его теме. Но эффект передачи весов не учитывался.

Позже, в апреле, был переделан дизайн главной страницы. После этого почти на всех страницах была поставлена ссылка на главную страницу сайта. Возможно, это было ошибкой. Сейчас изменили на динамическую ссылку «по теме».

К сожалению, для определения причин падения трафика информации недостаточно. Необходимо детально проанализировать статистику посещаемости сайта, и выявить источники трафика, с которых произошло снижение числа переходов.

Если трафик сократился с поисковых систем, необходимо проанализировать, по каким конкретно запросам это произошло, в какой поисковой системе. Если ведется статистика позиций сайта по каким-то ключевым фразам, желательно также провести анализ динамики позиций в период, когда произошло падения трафика. Далее можно уже провести анализ внутренней оптимизации сайта по тем запросам, по которым произошло падение.

Что касается показателя тИЦ, снижение его значения вполне могло произойти в ходе естественных причин (корректировка формулы расчета показателя, удаление части естественных ссылок и т.д.).

Есть проект с региональной привязкой «Беларусь». Ресурс расположен в доменной зоне .com. 80% трафика приходит из поисковиков. Порядка 35-40% трафика — из РФ. Есть желание сделать отдельный проект по такой же тематике в РФ. Как наиболее правильно распорядиться этим трафиком?

1) Сделать поддомен/директорию на текущем проекте, куда отправлять РФ-трафик и пытаться дать понять поисковикам, что проект не имеет региональной привязки? Если этот вариант предпочтительней, что лучше делать — поддомен ru.site.com или site.com/ru/? Или же разницы нет?

2) Сделать отдельный проект в зоне .ru. Поставить скрипт, который предложит всем посетителям из РФ перейти на отдельный новый проект, и продвигать этот проект отдельно от белорусского собрата?

Поскольку сайт уже хорошо ранжируется в поисковых системах по России, с точки зрения продвижения целесообразно расположить контент для России на текущем сайте в отдельной категории. Регион «Россия» в таком случае лучше добавить к имеющейся привязке «Беларусь». Для этого необходимо зарегистрировать сайт в «Яндекс.Каталоге».

Этот вариант хорош тем, что сайт уже имеет историю и авторитетность в поисковых системах — т.е. его не нужно будет продвигать «с нуля». К тому же, при таком решении не будет возникать проблема аффилированности.

Кроме того, с недавних пор Яндекс начал поддерживать стандарт для указания мультиязычности сайта, настоятельно рекомендуем ознакомиться с инструкциями по дополнительной разметке.

Прошу вашего совета по сайту www.zim74.ru. Запросы для продвижения сайта относятся к категории низкочастотных: например, «ножи отвала», «грейдерные ножи», «нож на МТЗ» и т.д.

По многим регионам удалось попасть в ТОП-10: приходят заявки с сайта даже с Дальнего Востока, а вот по Москве результата нет. Думала, что региональному сайту в ТОП-10 Москвы вообще не попасть, но, к примеру, сайт из нашего региона http://www.spectehnika74.ru стабильно держится по запросу «ножи отвала» в ТОПе для этого региона, хотя, на мой взгляд, он хуже по контенту и структуре.

Что можно сделать, чтобы улучшить позиции нашего сайта в поиске: статейное продвижение, ссылки?

Идеальным вариантом для вас было бы обзавестись офисом в Москве. В таком случае сайту можно было бы присвоить регион «Москва», что значительно бы улучшило видимость сайта в этом регионе по всем приоритетным запросам.

Если же рассматривать ситуацию с позициями вашего сайта конкретно по запросу «ножи отвала» в регионе Москва, предположительно? расстановка даже небольшого количества ссылок (10-30 ссылок, в зависимости от качества доноров) с текстом этого запроса может положительно сказаться на позициях сайта.

Что дают инвестиции в длинные статьи?

Владельцам контентных проектов, как правило, интересны все стратегии, дающие ощутимый рост качественных показателей — длительности сеанса, количества просмотренных страниц, показателя отказа и т.д. Представьте себе, что простой эксперимент внезапно даёт многократный рост этих показателей. Крис Даннен из FastCo.Labs поделился результатами такого эксперимента, а мы предлагаем вашему вниманию перевод его статьи.

Прежде чем мы перейдём к сути вопроса, стоит отметить, что работа с аналитическими данными всегда непроста. Поскольку наши знания об аудитории несовершенны, объяснить выявленные закономерности может быть нелегко. Мы можем видеть в данных некие тенденции или корреляции, но они совершенно необязательно являются причиной тех или иных следствий. Поэтому если увлекаться слишком подробной аналитикой, есть риск начать гоняться не за теми показателями.

Впрочем, иногда тренд настолько заметен и согласован с другими фактами, что невозможно отказаться от попытки пристально его исследовать.

Наш большой эксперимент с дополняемыми статьями

В середине апреля мы опубликовали полдюжины статей, которые мы называем заглушками. До того новую информацию мы публиковали в отдельных, коротких публикациях. Новая же идея состояла в том, чтобы донести до читателя основную мысль публикации, а затем по мере появления новых данных добавлять в эти статьи новый контент. Один из наших авторов в шутку назвал это «ползучим блогом».

Обновление таких статей выглядит следующим образом. Сначала вы пишете статью как обычно. Как только появляются дополнения и уточнения, вы возвращаетесь к статье, вставляете новую информациию в верхнюю часть публикации, а затем меняете заголовок и подзаголовок, чтобы отразить изменения.

Наша CMS меняет часть URL, например, "/this-is-what-happens-when-publishers-invest-in-long-stories". При этом предстоящий идентификатор статьи, скажем, 3009577, никогда не меняется. Поэтому каждый раз, когда мы обновляем статью, у нас получается новый URL с новым заголовком, приводящий на ту же, но обновлённую публикацию.

Перед тем, как окунуться в результаты эксперимента, стоит пояснить происхождение гипотезы.

Наши ведущие редакторы давно высказывали точку зрения, что дискретный формат статей не годится для освещения действительно больших и продолжающихся событий, вроде отмирания иерархической файловой системы или эпопеи с привлечением женщин к программированию.

Когда мы запустили проект Co.Labs, было вполне естественным опробовать на нём нашу идею «ползучего блога». Мы надеялись, что такой подход ускорит написание и выпуск новостей, а также обеспечит большую гибкость в работе.

Вместо того, чтобы каждый раз начинать статью с нуля, добавляя вступление, контекст и подводки, нам достаточно просто дописать сверху более новую информацию. А читатель, который вникает в тему публикации впервые, может просто прокрутить материал вниз, чтобы увидеть предыдущие дополнения.

Размывая границы между избранными статьями и новостями

Теория с заглушками заведомо объясняла, как работать с новостями, но что делать с более объёмными публикациями? Мы приняли решение выпускать избранные статьи как дискретные публикации, но затем объединять их в одну статью-заглушку с большим количеством ссылок, используя готовые наработки. Это придаёт веса крупным публикациям и убирает избыток дополнений в тексте.

К примеру, наше интервью с бывшим стратегом Frog Design о том, что не так с современными носимыми компьютерами, стало ответвлением оригинальной заглушки, прочитав которую можно было понять, чем нас заинтересовала тема, и почему мы опубликовали интервью.

Вскоре мы сообразили, что у нас достаточно много причин попробовать этот формат. Так мы начали использовать всё новые и новые заглушки: принципы подбора цены для программного продукта, становление Bitcoin как легитимной валюты, шумиха вокруг "big data" и более пространные темы, такие как будущее пользовательских интерфейсов. Мы даже думали о применении формата заглушек для тем более аналитического толка, таких как влияние культуры ПО на новости.

Что построенные на заглушках статьи сделали с трафиком

Итак, мы приготовили полдюжины заглушек в черновиках и поставили их в отложенную публикацию на вторую неделю апреля. Сразу после этого мы увидели резкие изменения в отчётах Google Analytics. Первое же, что бросилось в глаза — это падение ежедневных показателей отказов — с 70—75% до 20—27%. Переход к почасовому отчёту выявил менее заметные падения трафика в нерабочее время.

Следом за тем мы проверили среднюю длительность сеанса, где увидели ту же тенденцию: рост пиковых значения составил до 100%, а средняя длительность посещения выросла в 4—5 раз.

При сохранившемся количестве просматриваемых страниц за посещение средняя длительность сеанса выросла с 15 секунд до полутора минут.

Уже скорее из интереса мы сравнили показатели отказов со средней продолжительностью посещения и увидели классическое горизонтальное зеркало: показатель отказов, обратно пропорциональный длительности сеанса.

Стоит отметить следующее: одного месяца мало для того, чтобы наверняка сказать, как долго эти впечатляющие результаты продержатся на том же уровне. Кроме того, мы пока не можем быть уверены в том, какова доля применения заглушек в наблюдаемом успехе.

Но сколько мы ни пытались найти иные объяснения, ничего не вышло. Увеличилось количество обратных ссылок? Нас упомянули на каком-то крупном мероприятии? Сказалось какое-то техническое изменение на сайте? Возможно. Но месяц спустя мы пока что наблюдаем стабилизацию показателей и не можем изолировать иные факторы, объясняющие наблюдаемый эффект. Мы не можем сказать, что применение заглушек однозначно является причиной такого драматического улучшения показателей посещаемости. Но это явно работает.

Крупная литературная форма: прошлое и будущее одновременно

В прошлом году во время поездки вокруг Мексиканского залива я разговорился с одним предпринимателем и «инвестиционным ангелом» о будущем контентного бизнеса. Он настаивал на том, что люди не хотят читать большие статьи в онлайне, и что с нашей стороны было бы разумно научиться высказывать мысли предельно сжато. Он даже настаивал на том, что в один прекрасный день люди начнут изъясняться преимущественно через эмотиконы. (Кроме шуток: всё так и было.) Отнесясь к услышанному с недоверием, я всё же вернулся в Нью-Йорк не без опасения, что занимаюсь смертельно больным бизнесом.

Но некоторые из лучших умов придерживаются иного мнения, и мы не единственные, кто делает ставку на качественные длинные тексты. Вот что сказал 2 мая на TechCrunch Disrupt Джим Банкофф, CEO в Vox Media:

Кое-что мы знаем наверняка. Мировой рынок рекламы — $250 миллиардов, из которых 70% держится на выстраивании брэндов — верхушке воронки, если использовать маркетологический жаргон. Если посмотреть на Интернет, у которого 25-миллиардный кусок общего пирога, 80% в нём — поиск, т.е. нижняя часть воронки. Так что у рынка есть огромные перспективы, которыми пока никто не воспользовался.

Обратная сторона длинных качественных публикаций

Такие статьи — хорошая проверка на «вшивость» технической инфраструктуры. За последний месяц эти публикации набрали такое количество обновлений, что их объём в 10 раз превысил объём кэша на сервере (кэш был настроен на статьи объёмом 10КБ, а не 100КБ). В результате сайт на короткие промежутки времени переставал откликаться.

Кроме того, наша собственная CMS не была рассчитана на публикации такого рода. Нам приходилось вручную перелинковывать заглушки с избранными статьями, что неизбежно сказывалось на скорости и, соответственно, стоимости выполнения работы. Кроме того, ручная обработка повышает риск человеческих ошибок. Сейчас мы работаем над автоматизацией процесса и надеемся снизить нагрузку на контент-менеджеров.

В комментариях к оригинальной статье Криса читатели справедливо указывают на то, то резкое понижение показателей отказа обычно объясняется непредумышленной двойной вставкой кода Google Analytics. Однако простая проверка произвольных страниц-заглушек показывает, что двойного кода GA на них нет.

Другие читатели замечают, что к подобному ходу время от времени прибегают другие, даже более крупные издания, такие как The Verge (в качестве примера приводится отслеживание судебных разбирательств между Apple и Samsung).

Стоит отметить и то, что дословная реализация предлагаемой идеи небезупречна с точки зрения индексации поисковыми машинами, поскольку предполагает скопление большого числа страниц с дублирующимся контентом. Издатели Co.Labs решают эту проблему путём использования атрибута rel="canonical".

В целом решение представляется нам интересным, но требующим особого внимания к технической стороне вопроса.

Статья основана на публикации Криса Даннена "This Is What Happens When Publishers Invest In Long Stories" в издании Co.Labs.

28.05.2013

Следите за нашими новостями

Подпишитесь на рассылку, и мы будем приглашать вас на наши мероприятия и делиться советами экспертов компании. Рассылка «Практика интернет-маркетинга» выходит дважды в месяц, в ней мы публикуем статьи о продвижении брендов в Интернете, делимся репортажами с крупных отраслевых событий и отвечаем на вопросы читателей.
Спасибо

Для завершения подписки вам необходимо перейти по ссылке,
присланной по указанному адресу email.

Произошла ошибка

Пожалуйста, попробуйте еще раз