Сайт упал в выдаче яндекса

В процессе продвижения можно столкнуться с ситуацией, что резко упали позиции сайта. Это может быть как в яндексе, так и в google. Причины могут быть разные, но есть те, что встречаются чаще всего.

Яндекс

1. Сайт взломали и разместили вирусы, спам, ссылки. Лечится через чистку сайта и закрытие дыры. Обычно на восстановление уходит около месяца, но можно ускорить процесс, написав в поддержку или закрыв страницы спама в robots.txt

2. Сменилась релевантная страница в выдаче. Первично нужно подождать 1 Апдейт, так как не исключены глюки алгоритма. Если причина не ушла, то необходимо править контент или искать дубликаты внутри сайта, убирая их.

3. Слетел регион. Лечится через панель вебмастера, где проверяется наличие региона, и если поменялся или исчез, можно задать вручную.

4. Проблемы хостинга или настроек сервера. Все страницы сайта, которые должны быть в поиске, должны возвращать код 200, если что-то иное, то надо разбираться. Порой причиной являются ошибки в скриптах сайта.

5. Наложены автоматические или ручные фильтры со стороны поисковика. Решается через переписку с поддержкой и устранением причины. Это может быть как переспам на сайте, так и накрутка поведенческих факторов, которая сейчас популярна, или продажа ссылок.

6. В выдаче появилось зеркало вашего сайта. Если принадлежит вам, то можно либо повторно склеить сайты, либо получать трафик на зеркало, как удобнее. Если же конкурент, то решается через переписку с поддержкой.

7. Смена алгоритма. Тут необходимо первые 2-3 Апдейта анализировать ситуацию, смотреть, кто вошел в топ и подстраиваться под изменения.

Google

1. Ручные санкции за ссылки. Лечится через панель вебмастера Google отключением ссылок. Если у вас все ссылки арендные, то можно постепенно начать их снимать и подавать заявку на пересмотр, но это долгий процесс и можете потерять позиции в Яндексе.

2. Смена алгоритма. Подстраиваться под новые реалии и анализировать тех, кто оказался выше вас.

3. Так же возможны варианты, как в Яндексе. За вирусы, при смене релевантной страницы или ошибках сервера. Алгоритмы исправления такие же.

Бывает, что все хорошо, но позиции все равно упали, тогда необходимо копать глубже как внешние факторы, так и внутренние. Не всегда ответ на поверхности, и не всегда мы можете его найти быстро.

Вернуться к содержанию SEO-курса

Мои услуги: Консультации по SEO от 29000 р. | Продвижение сайтов от 47000 р. | Разработка сайтов под SEO

Алексей Благих

webimho.ru

Решение #1: Внутрення компоновка

Самая большая ошибка, какую я вижу, сайты допускают прямо сейчас, это та, что они склонны забывать использовать внутренние связи, в которой вы связываете одну из ваших веб-страниц с другой. И если вы решили использовать внутренние ссылки , вы, вероятно, используете богатый форматированный текст, что не очень хорошо.

Если вы будете использвать короткие фразы в анкоре, это поможет той статье занять высокий уровень связанных с SEO ключевых слов.

Тактика с использованием небогатого привязанного текста настолько эффективна, что Mashable стоит на первой странице Google с такими терминами, как "YouTube " из-за внутренних связующих усилий.

Не ждите немедленных результатов, когда вы начинаете построение внутренних ссылок . Это обычно занимает 3-4 месяца. И вы не можете просто пойти на старые веб-страницы запостить и продвинуть много внутренних ссылок. Вы должны делать это медленно, постоянно, и также добавлять внутренние ссылки на новые страницы.

Решение #2: Ускорьте ваш сайт

В 2010 году Гугл с Яндексом объявили, что будут принимать во внимание скорость сайта при определении рейтинга сайта. Вы знаете, почему поисковики заботятся о том, как быстро загружается ваш сайт? Они заметили, что, когда они дают место медленно загружающимся сайтам, пользователи , как правило, переживают неудачный опыт, который заставляет их использовать поисковую машину меньше … а это значит уменьшение дохода для компании.

Итак, как увеличить скорость вашего сайта? Не волнуйтесь, я не собираюсь давать вам список технических вещей, которые вам нужно сделать. Вместо этого я собираюсь поделиться с вами простым  бесплатным решением проблемы.

Это Google Page Speed​​. Все, что вам нужно сделать, это зарегистрироваться и выполнить несколько шагов. После, увидите увеличение скорости загрузки вашего сайта.

Решение #3: Создайте ссылки, но не на страницу, упавшую в выдаче

Когда ваш сайт падает, какая вещь первая приходит вам на ум? Вы должны купить больше ссылок, не так ли?

Большинство людей делают ошибку, покупая тонны ссылок в быстром темпе для веб-страницы, рейтинги которой снизились. Поисковик умный и может обнаружить, если веб-страница получает ссылки неестественным темпом. Так что, если вы создаете слишком много ссылок на веб-страницу, рейтинг которой упал, вы заметите, что ваш рейтинг упадет еще больше.

Но, если создадите ссылки для других внутренних страниц избегая использования богатого смыслового связанного текста, вы увидите, что рейтинг не только стабилизируется, но будет расти. Эта тактика помогает повысить общий авторитет сайта, это значит, все ваши ключевые слова начнут повышаться в выдаче.

Решение #4: Обновление веб-страницы

Эта тактика самая простая из всех, и как правило, наиболее эффективная.

Яндекс предпочитает повышать ранжирование обновленных страниц. Путем добавления обновленного текста и изображений на веб-страницах, вы создадите лучший актуальных контент для пользователя.

Это приведет к тому, что люди дольше останутся на вашем сайте, увеличится вероятность получения обратной ссылки на сайт, даже распространяемость вашего контента в социальных сетях.

Обновление контента заставляет людей читать больше и делиться им с помощью соц. сетей снова. Вероятней всего, трафик не подымется резко, до прежних позиций, но будет ежемесячно расти. Где-то в течении 90 дней, вы получите свои позиции.

Решение #5: Повысьте рейтинг переходов по ссылке в выдаче

Если вы зайдете на свой аккаунт веб-мастера в Google или Яндекс, вы заметите, что поисковик отслеживает клики по ссылкам в выдаче.

Один из способов увеличить свой ​​поисковый трафик – это увеличение рейтинга кликов по ссылкам. Другим способом является путь повышения рейтинга кликов. Если поисковая система обнаружит, что ваш рейтинг кликов крайне низок для позиции, которую вы занимаете, он может легко опустить страницу в выдаче.

Для борьбы с этим оптимизируйте заголовок и мета-описания. Вы можете использовать следующие "цепляющие" слова, они как правило получают наибольшую долю кликов:

Как

Бесплатно

Основные

Почему

Лучший

Замечательный

Хотя, для каждого контента, существуют свои "мотивирующие" фразы, надо пробовать, менять.

Решение #6: Оптимизируйте дизайн

Мобильные и планшетные устройства развиваются более быстрыми темпами, нежели ноутбуки  или настольные ПК. Сделайте ваш сайт совместимым со всеми типами устройств, вы увеличите шансы сохранить свои позиции.

Это не логично для поисковика, держать на высоте сайт, который не приемлем для мобильных устройств.

Через Google Analytics или Яндекс метрику, вы можете увидеть типы устройств, которыми пользуются ваши посетители.

Простой способ убедиться, что сайт доступен для мобильных утсройств, провереть скорость работы сайта, о которой мы говорили выше.

Следующий шаг, сделайте дизайн приемлемым для различных типов мобильных устройств.

Решение #7: Увеличьте социальную активность

Проводились недавние дебаты о том, воздействует ли социальная активность на позиции. Чем чаще ваш сайт упоминается в социальных сетях, тем выше будут позиции. Почему? Более популярен сайт, больше трафика, больше вероятности того, что на сайт будут ссылаться.

По этой причине вы должны развиваться в сферах социальных сетей.

Есть 6 простых способов увеличить социальную активность:

Добавьте кнопки "поделиться" на своей странице. Лучшее решение, на мой взгляд — http://api.yandex.ru/share/

Если у вас есть блог, вы всегда можете попросить ваших читателей поделиться конкретной веб-страницей с помощью Twitter, VK или Facebook. Поверьте мне, просьбы работают 😉

Если у вас есть группа в соц. сети, просите их также делиться контентом.

Вы всегда можете купить упоминания о вашем сайте в социальных сетях.

Мотивируйте своих посетителей, делиться контентом с помощью бесплатных книг, вашей личной помощи, или еще чем-либо.

sitear.ru

Поисковая оптимизация – большая работа над множеством различных факторов. Дизайн, техническая составляющая, контент. Даже незначительные на первый взгляд детали очень важны для продвижения. О самых частых ошибках в дизайне сайта мы уже говорили. Сегодня разберем 9 фатальных SEO ошибок, способных «угробить» любой сайт.

  1. Фильтры и санкции поисковых систем

    Как минимум, раз в неделю рекомендую заглядывать в вебмастера Яндекс и Google для проверки наличия санкций. В Яндексе это можно сделать в разделе Диагностика → Безопасность и нарушения. В Google – Поисковый трафик → Меры, принятые вручную.

    Как показывает наша практика, чаще всего владельцы сайтов даже не догадываются о наложенных ограничениях. Недавний пример из нашей работы:

    Нарушения Яндекс. Малополезный контент

    Большое количество чужих текстов на сайте и открытые исходящие ссылки. Результат на скриншоте.

    До снятия всех ограничений дальнейшего смысла заниматься продвижением нет. Исправляем все ошибки, сообщаем поисковой системе и ждем снятия санкций.

  2. Контент

    Мы постоянно говорим о том, как важны тексты. Контент – это то, зачем пользователи заходят на сайты. Неуникальный и неинтересный контент никому не нужен. Поисковые системы занижают подобные ресурсы в выдаче, а клиенты устали читать одни и те же шаблонные тексты на сотне сайтов. Пруф того, что за контент можно вылететь с хороших позиций, тут.

    Проверяйте уникальность текстов перед размещением на text.ru.

    Как писать тексты, на какие страницы и в целом, о контенте, много написано в нашем блоге. Вот хорошая подборка статей от нашего копирайтера Дарьи.

  3. Теги Title и Description, заголовки H1-H3

    Основа SEO-продвижения – правильно подобранные ключевые слова. Это очень важный фактор в оценке релевантности вашего сайта поисковому запросу.

    Чаще всего мы сталкиваемся с двумя ошибками. Полное отсутствие ключевых слов в тегах:

    title без ключевых запросов

    Тег Title должен быть заполнен в виде связного предложения с включением ключевых слов.

    Либо переспам ключами в заголовках:

    переспам alt

    Важно найти золотую середину. Теги должны быть полезными не только для поисковых роботов, но и для обычных людей. Не забывайте об информативности. Как правильно писать теги title, description и заголовки H1, хорошо рассказывает наш копирайтер Екатерина в своей статье.

  4. Переезд на https

    C января 2017 года браузер Google Chrome (начиная с 56 версии) начал помечать все HTTP-сайты, содержащие любые формы, передающие личные данные пользователей (email, пароли, данные кредитных карт и т.п.) как «небезопасные». Также наличие SSL сертификата является небольшим импульсом в ранжировании в Google.

    Небезопасные сайты

    Всем интернет-магазинам в первую очередь следует перейти на протокол https. При этом очень важно соблюсти правильный алгоритм действий.

    Самая частая ошибка – просто настроить 301-редирект со старой версии http на https после покупки SSL-сертификата. Владельцы сайтов забывают о файле robots.txt, директиве Host, настройке вебмастеров. Сайт с http выпадает из индекса, новый сайт на https еще не проиндексирован. Все позиции моментально улетают в трубу.

    В нашем Блоге есть подробная инструкция, как правильно перенести сайт с http на https. Если останутся вопросы, пишите нам, обязательно поможем.

  5. Файл robots.txt

    Текстовый файл, размещенный на сайте и предназначенный для роботов поисковых систем. В этом файле следует указать параметры индексирования своего сайта для поисковых роботов.

    Иногда файл robots.txt отсутствует вовсе.

    Свежий пример из нашей работы. Интернет-магазин станков, работы проводились в рамках услуги поисковое продвижение сайта. Сайт был полностью открыт для индексации поисковым роботам и вовсе не имел файл robots.txt.

    Настроили ему robots, теперь все в порядке:

    Сайт упал в выдаче яндекса

    Что конкретно мы сделали?

    Закрыли от индексации админ панель сайта, служебные страницы 404 и 403, страницу поиска, корзину. Указали адрес карты сайта, настроили директиву Host.

    Вместе с остальными работами по оптимизации это помогло достичь следующих результатов:

    рост посетителей на сайте

    Еще одна серьезная ошибка – сайт полностью закрыт от индексации. За это отвечают директивы Disallow и Allow, которые запрещают или разрешают индексирование разделов, отдельных страниц сайта или файлов соответственно. Для проверки файла у поисковых систем есть специальные инструменты: Яндекс и Google.

    Проверьте, что у вашего сайта имеется файл robots.txt и заполнен он корректно. От индексации следует закрывать все служебные страницы, страницы поиска и фильтров. Страницы дублей, регистрации, авторизации. Корзину и страницу оформления заказа для интернет-магазинов. Подробнее о robots.txt.

  6. Дублирование контента (дубли страниц)

    Дублированный контент или просто дубли – это страницы на вашем сайте, которые полностью (четкие дубли) или частично (нечеткие дубли) совпадают друг с другом, но каждая из них имеет свой URL.

    Одна страница может иметь как один, так и несколько дублей:

    переспам alt

    Поисковые роботы отрицательно относятся к дублированному контенту и могут понизить позиции в выдаче из-за отсутствия уникальности, а следовательно, и полезности для клиента. Нет смысла читать одно и то же на разных страницах сайта.

    Может измениться релевантная страница. Робот может выбрать для выдачи дублированную страницу, если посчитает ее содержание более релевантным запросу. Сайт потеряет позиции и просядет в выдаче. В 90% случаев дубли мешают продвижению, и после их устранения позиции сайта улучшаются.

    Как найти и убрать дубли на сайте, рассказываем в данной статье.

  7. Зеркала сайта

    Зеркалами считаются сайты, являющиеся полными копиями друг друга, доступные по разным адресам. Все зеркала сайта важно склеить через 301 редирект.

    Показатели тИЦ, вес внешних ссылок не должны растекаться, а они будут, т.к. поисковики считают разными ресурсами сайты, расположенные по разным адресам. Возможна подмена релевантной страницы в поисковой выдаче, дублирование контента. 100% мешает росту сайта в выдаче.

    Сайт не должен открываться по разным адресам, с www и без www, просто site.ru и site.ru/index.php, по http и https и т.д.:

    Сайт упал в выдаче яндекса

    Чек-лист для проверки:

    • Сайт должен быть доступен только по одному протоколу http или https.
    • Выбрано главное зеркало сайта, с www или без www, указано в Вебмастере.
    • Настроен 301 редирект со всех зеркал.
    • Главная страница сайта доступна по одному адресу, без /index.php, /index.html и т.п.
  8. Адаптивная верстка (версия сайта для мобильных устройств)

    100% Must-have для всех сайтов в 2017 году. Сегодня рост мобильного трафика опережает компьютерный. Число пользователей, использующих смартфоны для совершения покупок, в мире растет с каждым днем. Алгоритмы поисковых систем учитывают адаптивность при ранжировании сайта в мобильной выдаче.

    Google уже с 2015 года использует алгоритм Google mobile-friendly.

    Яндекс год назад запустил алгоритм Владивосток.

    Если ваш сайт все еще не адаптирован под мобильные устройства – каждый день вы теряете до половины своих клиентов. Подробнее о том, зачем нужна оптимизация.

  9. Скорость загрузки сайта

    Тут все просто. Пользователям не нравятся медленные сайты. Поисковые системы так же отдают предпочтение быстрым, оптимизированным сайтам. Проверить скорость загрузки своего сайта можно с помощью инструмента Google. Красный – медленно, важно срочно увеличивать скорость, желтый – нормально, но можно оптимизировать, зеленый – отлично.

    скорость загрузки сайта

    Разберем на конкретном примере

    Помните, в начале статьи мы упоминали интернет-магазин станков. Что мы исправили из фатальных ошибок:

    • Неуникальный контент

    Написали хороший продающий, уникальный текст на главную страницу сайта.

    • Ошибки оптимизации

    Скорректировали теги title и description, заголовки H1.

    • Отсутствие файла robots.txt

    Создали и настроили файл robots.txt. Сейчас сайт правильно индексируется поисковыми системами. До этого, как писали выше, данного файла не было на сайте вовсе.

    • Наличие не склеенных зеркал

    Склеили зеркала сайта. Сайт был доступен по двум адресам с www и без.

    • Некорректный ответ сервера для несуществующих страниц

    Создали отдельную страницу 404 и настроили правильный ответ сервера для несуществующих страниц.

    До выполнения работ несуществующие страницы через 302 редирект перенаправляли пользователя на главную страницу сайта.

    Результаты:

    Положительная динамика роста посещаемости из поисковых систем:

    Рост посещаемости

    Трафик из Google вырос в два раза:

    Рост трафика из Google

    Результат за 3 месяца:

    +8 запросов у Яндекса, +6 у Google в топ-5

    +19 запросов у Яндекса, +9 у Google в топ-10

    +25 запросов у Яндекса, +11 у Google в топ-20

    +14 запросов у Яндекса, +4 у Google в топ-50

    Посмотреть позиции до и после »

    Хотите так же? Проверьте, может данные ошибки есть и на вашем сайте. Если нет времени и желания разбираться, заказывайте поисковое продвижение у нас, с радостью поможем.

1ps.ru

Частые причины: индексация, сильная фильтрация документов, аффилированность группы сайтов, смена CMS

ТОП-1 #

ТОП-1 нашего импровизированного рейтинга «Причины выпадения» занимает индексация продвигаемого документа.

Симптом: сайт резко выпадает или теряет позиции со сменой релевантной страницы. Позиции теряются по всем запросам, ведущим на страницу.

Проверка: для проверки индексации документа в поисковой системе Яндекс достаточно ввести следующий запрос: [url:site.ru/catalog/page.php]. Если выдача пустая, значит, продвигаемый документ выпал из выдачи и в первую очередь требуется вернуть его в индекс поисковой системы [1]. В данном случае можно просто подождать следующего апдейта выдачи.

(!) Важно: правильно вводите URL документа, результат будет отличаться для доменного имени, введенного с www и без, со слешем на конце и без.

(!) Совет: быстрой индексации документа может существенно поспособствовать постановка нескольких ссылок из индексирующихся социальных медиа, таких как Twitter, FaceBook, LiveJournal и других (см. рисунок 1).

Самые свежие документы в выдаче

(!) Совет: осуществите поиск по сайту по интересующему поисковому запросу. В данном случае поможет запрос вида: [продвигаемый-запрос site:domain.ru]. Интересующий документ должен быть на 1 строчке в выдаче. Если его нет среди релевантных ответов, то это также свидетельствует о выпадении его из индекса.

ТОП-2: сильная фильтрация сайта/документа #

Наиболее часто встречаемые текстовые фильтры (описанные в соседней статье) редко могут выбить коммерческий сайт из ТОП-10 сразу на сотые места [2]. В данном случае особое внимание следует уделить возможным сильным фильтрациям, таким как Adult-фильтр [3] и АГС.

Симптом Adult-фильтра: сайт почти полностью теряет входящий поисковый трафик. На нормальных позициях в выдаче остаются только запросы «взрослого характера». Сайт не ранжируется даже по кускам уникального текста. Трафик из других поисковых систем при этом остаётся на примерно постоянном уровне.

Симптом фильтра АГС: из видимой части индекса поисковой системы выпадет ряд содержательных страниц сайта (старые версии АГС) или обнуляется значение показателя тИЦ (новые версии). Читайте также: «Как отличить сайт под АГС от сайта с тИЦ=0».

Проверка Adult-фильтра:

  • по запросу вида [site:domain.ru] количество документов осталось на прежнем уровне;
  • сайт не ранжируется даже по уникальным фрагментам текста со страниц в индексе [url:domain.ru/dir/page.html];
  • трафик с Яндекса по статистике падает в 2-30 раз;
  • трафик с других поисковых систем остаётся на прежнем уровне;
  • если ввести запрос относительно взрослого содержания, позиция сайта останется неизменной.

Проверка АГС:

  • по запросу вида [host:site.ru] количество документов в выдаче не больше 100 (старые версии АГС);
  • количество страниц в индексе других поисковых систем осталось на старом уровне и значительно превышает 30 (при их наличии на сервере, конечно);
  • у сайта обнулилось значение показателя тИЦ и проверка на АГС подтверждает наличие фильтра.

Диагностировав, какая именно санкция была применена к вашему сайту, вы сможете направить все силы именно на её устранение.

(!) Важно: в случае с Adult-фильтром причиной может быть размещенная на сайте тизерная сеть или партнерка с «сомнительными» материалами. Иногда вам хватит и единственной ссылки на «взрослый» сайт, чтобы привлечь внимание фильтра.

(!) Важно: в случае АГС причиной служит содержимое низкого качества, дублированный контент, продажа ссылок. Особенно подвержены АГС молодые проекты.

(!) Совет: если вы сильно потеряли в трафике или в количестве страниц в выдаче, то можете смело писать вежливое письмо в техническую поддержу Яндекса для уточнения возможных причин. По обоим вышеперечисленным фильтрам сотрудники поддержки периодически подсказывают возможные причины наложения санкций (хотя и шаблонным образом).

(!) Совет: под АГС можно загнать и неплохой клиентский сайт, если бездумно плодить статьи. Желательно, чтобы каждый добавленный на сайт материал нёс смысловую нагрузку (решал какую-либо задачу пользователя) и был оптимизирован под 2-3 низкочастотных целевых поисковых запроса.

ТОП-3: аффилированность сайтов [4] #

В 2011-2014 годах Яндекс более серьёзно взялся за проблему аффилированности двух и большего числа сайтов одной тематики (сайтов, принадлежащих одной компании). В результате чего, ряд сайтов ранее успешно уживавшихся одновременно в ТОП-10 или ТОП-20 выдачи — утратили свои позиции.

Симптом: сайт резко выпадает из ТОП-100 выдачи по запросу или некоторым запросам. Иногда, позиции могут менять скачком на протяжении нескольких апдейтов подряд (5 место — нет в сотне — 4 место — нет в сотне — …).

При аффилированности двух и большего числа сайтов — в выдаче по каждому запросу остаётся только один, как правило, более релевантный запросу. Остальные аффилиаты скрываются или существенно занижаются в занимаемых ими позициях [4].

Проверка: чтобы понять, что ваш сайт был признан аффилированным с другими, достаточно произвести следующую последовательность действий:

  • задать поисковый запрос, по которому ваш сайт был в ТОП-10 выдачи до этого;
  • последовательно исключить из выдачи каждый из сайтов в ТОП-20 и проследить за выдачей (см. рисунок 2). Запрос вида: [продвигаемый-запрос ~~ site:domainN.ru];
  • если вы исключили один из сайтов и ваш проект тут же начал ранжироваться высоко (появился в ТОПе), то это значит, что исключенный домен и ваш — являются аффилиатами;
  • для уверенности, лучше проделать процедуру и для других продвигаемых фраз.

Автоматизация диагностики: доступна в соответствующем инструменте «Пиксель Тулс».

Исключение сайтов и поиск сайта-аффилиата

(!) Важно: не забывайте, что аффилированных сайтов может быть несколько и по разным запросам разные домены могут мешать вам в выдаче.

(!) Совет: можно резко сузить круг подозрительных доменов, если сравнить выдачу по двум и большему числу запросов и выявить сайты, присутствующие и там и там. Иногда это поможет сузить «круг претендентов» до 1-2 штук.

(!) Совет: аффилированность в большинстве случаев накладывается автоматически. То есть и снять её можно без обращения в службу поддержки — устранив все возможные причины. Пересекающиеся контактные данные, тексты, изображения, IP-адрес хостинга, схожесть названий компаний и доменных имен и другие факторы. Действуйте!

ТОП-4: смена CMS или структуры URL на сайте #

Выпадение может произойти в случае смены URL-структуры на сайте. Требуется наиболее оперативно настроить 301-редиректы [11]. В отличие от простого выпадения документа из индекса, тут могут быть некоторые нюансы: текущий продвигаемый URL может находиться в индексе поисковой системы (пункт 1), в то время как старый URL будет отдавать 404 ошибку.

Симптом: вы недавно меняли CMS или некоторые из URL продвигаемых страниц, после чего (5-30 дней) позиции по целому ряду запросов резко ухудшились.

Проверка: обязательно посетите панель Вебмастера [8]. Сайт > Индексирование сайта > Исключенные страницы > HTTP-статус: Ресурс не найден (404) (см. рисунок 3). Если среди списка вы нашли URL адреса ранее находящиеся в ТОПе — это оно.

Исключение сайтов и поиск сайта-аффилиата

(!) Важно: при смене URL-структуры всегда настраиваете 301-редиреты [11], это поможет избежать выпадений и сохранит ранее накопленную ссылочную массу и возраст документа.

(!) Совет: посещайте вкладку исключенных страниц не реже раза в 2-4 недели. Часто, естественные ссылки могут вести на не существующие страницы вида «site.ru/.» или «site.ru/-». Настройка сервера позволит преобразовать эту ссылочную массу в работающую на благо ресурса.

Из того, что встречается чуть реже: смена типа поискового запроса и алгоритма, вирусы, фильтр на одинаковые сниппеты (карточки), прочие опасности

ТОП-5: смена типа поискового запроса и/или алгоритма поисковой системы #

Каждый запрос, который вводят в современную поисковую систему проходит определенную классификацию. Это значит, что в зависимости от определенных характеристик запроса — он будет по-разному обрабатываться поисковиком.

(!) Важно: Для разных классов запросов — применяются разные формулы. Ряд факторов — также принимают отличные значения для запросов разной классификации.

Полностью понять и проанализировать, как поисковая машина классифицирует тот или иной запрос для рядового пользователя — не представляется возможным. Но получить некоторые характеристики (по поведению поисковой системы) и применяя логику — возможно.

(!) Важно: Базовая характеристика запроса — его геозависимость (геонезависимость) [5].

Очевидно, что в случае смены классификации запроса с геозависимого на геонезависимый (и наоборот) — меняется формула ранжирования, и позиции сайтов в ТОПе изменяться кардинально. Схожие изменения могут наблюдаться и в случае изменения алгоритма ранжирования Яндекса.

Симптом: сайт по продвигаемому запросу резко меняет занимаемую позицию.

Проверка: чтобы отличить изменение классификации поискового запроса и смену алгоритма от других причин, требуется произвести следующую последовательность действий:

  • проверить текущий тип запроса (геозависимый он или нет) [6];
  • если известно, какой тип запроса был у него до апдейта и он поменялся в ближайший апдейт — значит, причина кроется в этом;
  • если нет: проверить и выписать ТОП документов по интересующему запросу;
  • сравнить этот список со списком сайтов находящихся там до выпадения (в предыдущую дату);
  • произвести анализ: если ТОП поменялся крайне сильно (более 5-10 новых сайтов на лидирующих позициях, сильная тряска) — значит, произошло изменение алгоритма или типа поискового запроса;
  • произвести анализ: если изменения носят локальный характер — выпало 1-2 сайта, среди которых оказался ваш — причина кроется в чём-то другом.

(!) Важно: старайтесь всегда анализировать выдачу комплексно, а не мониторить только подвижки одного проекта. Это позволит составить более правильно представление об апдейте. В этом поможет собственная система мониторинга выдачи или сторонний сервис [7].

ТОП-6: вирусы на сайте #

Каждый из вебмастеров должен заботиться о продвигаемом им сайте. Причиной выпадения проекта может стать наличие вредоносного кода на сайте вкупе с длительным игнорированием этого факта.

Рекомендуется периодически просматривать выдачу руками на наличие специальной пометки страницы в результатах поиска Яндекса и наиболее оперативно реагировать на проблему. Специальные оповещения о заражении приходят также пользователям, подтвердившим права на сайт в панели Вебмастера [8].

(!) Важно: игнорирование специальной пометки в результатах поиска чрезвычайно негативно сказывается на позициях, так как у документа существенно снижаются значимые поведенческие факторы, такие как CTR по запросу, общее количество кликов и прочие.

(!) Важно: соблюдайте элементарные правила безопасности. Не храните пароли в FTP-клиентах, не используйте стандартные и популярные пароли, периодически меняйте доступы.

(!) Совет: оптимально устранять проблему заражения ещё на том этапе, когда пометка в выдаче не успела появиться. Это возможно, если регулярно посещать сайт с включенным антивирусом, следить за количество страниц в выдаче и незапланированными изменениями файлов на сервере (js ,php, .htaccess).

ТОП-7: Фильтр на одинаковые сниппеты #

Поисковые системы сильно заботятся о своей выдаче, её полноте и разнообразии. Пользователь должен быть удовлетворён результатами по своему запросу, даже если ввёл весьма неоднозначный поисковый запрос. Яндекс решает эту задачу тремя основными приёмами:

  • Поисковая технология «Спектр», внедренная в декабре 2010 года [9]. «Спектр» направлен на разнообразие результатов выдачи по неоднозначным поисковым запросам.
  • Скрытие предложений товаров и услуг от «схожих» или одинаковых компаний (аффилированность, см. пункт 3).
  • Фильтр на одинаковые сниппеты: скрытие результатов, которые по тем или иным причинам содержат повторяющийся сниппет (текстовое описание, анонс), см. рисунок 4.

Фильтр на одинаковые сниппеты

Фильтр на одинаковые сниппеты наиболее часто встречается при продвижении конкретных товарных позиций интернет-магазинов. Если анонс вашего документа полностью или почти полностью дублирует анонс другого сайта, то один из результатов будет скрыт для пользователей. Отобразить все релевантные сайты можно, если нажать на ссылку «Показать всё без исключения» после последнего результата или дописать в конце URL: &rd=0.

Симптом: сайт теряет позицию по одному или нескольким товарным запросам.

Проверка: при этом, позиции сильно улучшаются, если просмотреть выдачу с параметром &rd=0 в URL или нажать на ссылку «Показать всё без исключения».

(!) Важно: фильтр накладывается, если описание товаров или его характеристики не являются уникальными. И не уникальная фраза участвует в формировании сниппета. При этом ваш сайт не признаётся Яндексом автором контента.

(!) Совет: если попали под фильтр, добейтесь уникальности дополнительного описания товара. Заполните meta-тег description привлекательным и не спамным содержимым. Допишите в начале карточки 2-3 уникальных предложения с содержанием ключевой фразы.

(!) Совет: далеко не всегда 100% уникальность текста на странице даст весомый плюс в ранжировании карточки товара. Но, чтобы не попасть под фильтр (а в поисковой системе Google это может быть и Панда [10]), рекомендуется добавить на страницу уникальное содержимое: анонс, отзывы, обзоры, расширенные данные о продукте.

ТОП-8: некорректность файла robots.txt или meta-тегов #

Часто причиной резкой потери позиции может быть некорректное содержание файла robots.txt, который отвечает на сканирование сайта пауками поисковых систем, а также наличие meta-тега robots, запрещающего индексацию документа.

То что страница разрешена к индексации, можно проверить с помощью сервиса ADD URL в Яндексе [1], просто введя интересующий адрес в форму, если документ запрещен к индексации посредством файла robots.txt или meta-тега, то выведется предупреждение свидетельствующее об этом (рисунок 5).

Добавление документа в сервис add url Яндекса

Пример корректно составленного файла:

User-Agent: Yandex
Disallow: /papku-ne-nado-indeksirovat
Disallow: *?i-etot-get-parametr=*
Host: www.pixelplus.ru

User-Agent: *
Disallow: /papku-ne-nado-indeksirovat
Disallow: *?i-etot-get-parametr=*

Дополнительно стоит проверить наличие и корректность атрибута rel=»canonical» тега <link>. Его требуется использовать, если на сайте есть два и большее количество URL-адресов, по которым оказывается доступен один и тот же документ. Скажем:

  • https://pixelplus.ru/samostoyatelno/stati/
  • https://pixelplus.ru/samostoyatelno/stati/?from-email
  • https://pixelplus.ru/samostoyatelno/stati-po-seo/

Тогда, чтобы избежать наличия дублей в индексе, на всей группе одинаковых страниц устанавливается тег, указывающий основной адрес (канонический). Если атрибут указан некорректно, то это может привести к выпадению нужных документов из индекса. Пример тега:

<link rel=»canonical» href=»https://pixelplus.ru/samostoyatelno/stati/» />

ТОП-9: Прочие опасности #

Выше были рассмотрены наиболее частые причины выпадения коммерческих сайтов из ТОП-10 лидирующей поисковой системы рунета — Яндекса. Но в ряде случаев, SEO-специалиста могут подстегать и более редкие опасности. Обращать на них внимание можно, если ни один из описанных выше приёмов проверки не сработал.

Просто перечислим их, чтобы далее читатель понимал, куда можно двигаться в случае неудачи:

  • Изменение региональной привязки сайта. При ранжировании по геозависимым поисковым запросам поисковая система Яндекс обращает пристальное внимание на совпадение региона пользователя и региональной привязки сайта. Если в какой-то момент у вас сменилась эта привязка — это станет причиной существенного изменения занимаемых позиций. Важно отслеживать привязку в панели Вебмастера (Сайт > География сайта > Регион сайта) и периодически проверять, что всё в порядке.
  • Выпадение сайта в результате пересчета категорий ответов в поисковой технологии «Спектр». Требуется понять, мог ли выводиться ваш сайт, как примесь по одной из дополнительных категорий ответов «Спектра».
  • Дубли страниц в рамках одного сайта. В случае нормально настройки работы сайта (CMS и хостинга) этой проблемы можно полностью избежать, однако в большинстве случаев, по разным URL адресам в рамках одного сайта — отдаётся одинаковое содержимое. Однажды это может сильно аукнуться, если в индекс попадёт сразу несколько полных копий продвигаемого документа. Для проверки осуществляйте поиск уникального фрагмента текста в рамках сайта. Здесь поможет поисковый запрос следующего вида: [«уникальный_текст_со_страницы» site:host.ru].
  • Ваш ресурс содержит избыточное количество неуникальных текстов, это может сказаться и на позициях страниц, которые содержать уникальный материал.
  • На сайте размещен Popunder или навязчивая реклама открывается при клике пользователя.
  • Смена доменного имени: требуется чётко соблюдать последовательность действий. Сначала указываем главное зеркало в robots.txt в директиве Host и только после склейки/переклейки ставим 301-редирект, а не наоборот!

ТОП-10: Санкции за накрутку ПФ #

В 2014 и 2015 годах, многие сайты стали подвергаться санкциям за накрутку кликовых поведенческих факторов.

По заверениям представителей поисковой системы Яндекс под пессимизацию попали несколько тысяч сайтов, которые имели отношение к накрутке и манипуляции действий пользователей.

При этом, сама санкция является очень сильной и длительной — от 6 календарных месяцев. Для диагностики факта наложения санкций за накрутку ПФ — рекомендуется написать соответствующий вопрос в службу поддержки Яндекса. Также, рекомендуются следующие действия для снятия санкций, в зависимости от срока их применения: ответ на вопрос.

С чего следует начинать любой анализ

Помните, анализ причины требуется начинать с полноценной оценки ТОПа и сравнению выдачи до и после апдейта. Это позволит вам быстро отделить локальные подвижки (изменение позиции 1-3 сайтов) от глобального апдейта алгоритма/классификации запроса и существенно сузить круг возможных причин.

pixelplus.ru

You May Also Like

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *

Этот сайт использует Akismet для борьбы со спамом. Узнайте как обрабатываются ваши данные комментариев.