Что значит недостаточно качественная страница. Яндекс удаляет страницы из поиска за то, что они недостаточно качественные

Думаю, не для кого не секрет что некоторые страницы сайта рано или поздно пропадают из поисковой системы, причин тому может быть множество - не оригинальный контент, во время обода страницы роботом она была недоступна, всевозможные нарушения со стороны веб-мастера и так далее.

Однако существует и другая достаточно распространённая причина, о которой нас уведомляет Вебмастер Яндекса - недостаточно качественная страница . Что значит недостаточно качественная страница, ? Давайте попробуем в этом разобраться.

Проблема исключения страниц сайта из индекса мне известна достаточно давно, но лично для меня это было не критично по одной простой причине - эти страницы были не слишком популярны. А на данном сайте подобных проблем вообще не замечалось, до недавнего времени:

На скриншоте видно, что робот Яндекса исключает страницу из поиска с пометкой что она недостаточно качественная, а при следующем обновлении поисковой базы страница снова попадает в индекс. Яндекс объясняет это тем что исключение происходит в результате работы специального алгоритма, который по неким причинам посчитал данную страницу не релевантной запросам.

Такой ответ меня если честно не устроил и мне захотелось узнать конкретную причину исключения страницы из индекса . Ведь вроде бы все хорошо - контент уникальный, в индексе страница достаточно давно и никаких проблем не было, кроме того изменений на данной странице никаких не производилось и вдруг страница стала некачественной.

И тут я решил написать в поддержку Яндекса чтобы получить конкретные ответы на все вышеперечисленные вопросы. Надо отдать должное техподдержке Яндекса, ответили действительно быстро. Скриншот ответа на мое обращение Вы можете увидеть ниже, почему именно скриншот поясню позднее :

Ответ в принципе понятен, специальный алгоритм оценивает страницу и строит прогноз ее показа в поисковой выдаче. Если прогноз неутешительный и алгоритм решил, что данную страницу пользователи попросту не смогут найти, то она исключается до лучших времен. Кроме того, техподдержка Яндекса уверяет что это никак не скажется на посещаемости сайта. Вроде бы все понятно и в то же время все стало еще запутанней.

Но каково было мое удивление, когда я проверил данный текст на уникальность. Как вы уже наверно догадались уникальность была прямо скажем на нуле, нашлось невероятное количество сайтов где данный ответ уже был опубликован и как минимуму все эти сайты помогают улучшить секретно ингредиентный алгоритм Яндекса. Собственно, именно поэтому я и сделал скриншот письма, дабы не плодить его копии.

Открыв парочку сайтов на которых публиковали письмо с ответом почему Яндекс удаляет страницы из поиска , я был удивлен еще больше увидев дату публикации от 2014 года. Получается Яндекс дает стандартные отписки уже как минимум 4 года. И никаких обещанных улучшений замечено не было.

Почему Яндекс удаляет страницы из поиска

Проанализировав все те страницы, которые время от времени Яндекс считает недостаточно качественными и исключает из поиска я пришел к вполне логичному выводу - все дело в поведенческих факторах. И лично мое видение примерно такое:

  • Если пользователи находят страницу вашего сайта в поиске, но она не отвечает их запросу, они соответственно ее тут же закрывают, вот вам первый жирный минус для текущей страницы. Собственно, эта ситуация как раз таки говорит о нерелевантности страницы.
  • Второй минус, который может получить та или иная страница возникает из-за того, что пришедшие на сайт пользователи упорно не хотят переходить на определенные страницы, они видят на них ссылки, но не переходят.

Конечно все это лично мои догадки, точной работы алгоритма думаю не знает никто кроме его разработчиков и сотрудников самого Яндекса (и то не всех). Но все эти догадки лично мне кажутся вполне логичными.

Ведь просто так исключить из поиска нерелевантную страницу я считаю излишним, максимум что с ней может произойти это потеря позиций, а вот если при всем при этом её перестанут посещать пользователи то тут уже есть повод задуматься о ее временном исключении. Но как только страница на страницу будут заходить посетители она вновь появляется в поиске, о чем свидетельствует первый скриншот.

Как решить проблему некачественных страниц? Если честно мое видение примерно такое - анализ запросов, удаление лишних ключей, оптимизация текста, обратные ссылки на текущие страницы.

Сначала я испугался, потому что у меня удаляли по 50-100 таких страниц. Но, потом разобрался и успокоился. Оказывается, Яндекс внедрил в систему поиска новый алгоритм, который автоматически удаляет из поиска не релевантные страницы.

Но, опять же, здесь не стоит бояться. Яндекс удаляет такие страницы лишь временно. Пример, если вы написали статью, а в поиске нет на неё запросов, то есть никто не ищет информацию, которая представлена в статье, то данная статья будет временно удалена из поиска. Если в поиске появятся запросы соответствующие вашей статье, то она автоматически будет добавлена в поиск.

Вам ни в коем случае нельзя удалять такие страницы с вашего сайта!!! Если вы заметили в Яндекс Вебмастере страницы с пометкой «Недостаточно качественные», не пугайтесь и не бойтесь, всё нормально! Данные страницы так же важны как и все остальные, они могут появится в поиске в любой момент!!!

Как узнать есть ли у вас Недостаточно качественные страницы?

Зайдите на свою страницу в сервисе Яндекс Вебмастер. На главной странице, обратите внимание, в разделе «Обновления поиска» , у вас могут отображаться количество удалённых и добавленных страниц. Это как раз те страницы, которые автоматически удаляются и добавляются в поиск по специальному, новому алгоритму.

Далее, внизу данной страницы, у вас могут отображаться URL адреса помеченные синим цветом и под которыми отображается уведомление «Недостаточно качественная» . Нажмите на знак троеточие рядом с таким уведомлением.

Вам покажут пояснение «Страница исключена из поиска в результате работы специального алгоритма. Если в будущем алгоритм сочтёт страницу достаточно релевантной запросам пользователей, она появится в поиске автоматически» .

Вот и всё ! Как я уже сказал ранее, не стоит пугаться и бояться! Внимательно читайте пояснения! Продолжайте писать статьи и главное старайтесь помочь своему читателю, чтобы уходя с вашего сайта, он не раз ещё на него вернулся!

Как заблокировать автоматический трафик в поиске Яндекс!!!

Новый Вебмастер Яндекса позволяет найти проблемы на сайте и исправить недочёты, мешающие ранжированию – это факт медицинский. Для этого Яша предложил на праздничный стол набор интересных инструментов, многих из которых не было на старом сервисе. Предлагаю обзор возможностей Вебмастера для стимулирования хорошего настроения.

Обзор инструментов

Инструменты нового Вебмастера разбиты по блокам, каждый из них открывается на вкладки. Вот основные пункты меню:

  1. - Диагностика,
  2. - Поисковые запросы,
  3. - Индексирование,
  4. - Настройка индексирования,
  5. - Инструменты.

Последний пункт «Права доступа» – это не гармошка, этот пункт не матрёшка, он не открывается. Как подсказывает интуиция, в каждом блоке находятся инструменты для решения узкоспециализированных задач, например, в блоке «Поисковые запросы» можно узнать всё о запросах пользователей, которые переходили на сайт, показах.

Диагностика

Первый пункт меню «Диагностика», в нём два пункта:

  1. - Диагностика сайта,
  2. - Безопасность и нарушения.

В первом пункте узнают о проблемах на сайте, например, недоступности страниц. Обновляется страничка со скрипом, как работает дизель в Заполярье, поэтому надеяться, что в ней оперативно отобразятся все проблемы не стоит, но иногда она приходит на помощь.

На странице «Безопасность и нарушения» отображаются проблемы с безопасностью сайта и некоторые нарушения. Тут можно увидеть информацию о вирусах, санкциях и прочих косяках. Также отображается не всё – например, неявный текстовой спам не показывают, а АГС отображают.

Поисковые запросы

Здесь два пункта:

  1. - Статистика,
  2. - Последние запросы.

В «Статистике» указываются запросы сайта за определённый период, а также запросы из топ-3-10-50. Для веб-мастера видны показы, клики и CTR запросов. Если CTR низкий, то стоит подумать об изменении сниппета или фавиконки, ибо что-то отпугивает пользователя в выдаче от активных действий в отношении сайта. Для справки – CTR топ-3 всегда выше, так как пользователи ещё не задолбались искать ответы в недрах выдачи. Если CTR меньше 2%, то беда, для топ-10 нормальный показатель от 3%.

Запросы можно отсортировать по группам, показателям и региону.

Страница «Последние запросы» то же самое, но в отношении последних действий пользователя в выдаче. Для веб-мастера последние запросы по показам, кликам и CTR + добавлена средняя позиция по запросу.

Тут также доступна сортировка, можно добавить фильтр или сгруппировать запросы.

Индексирование

Более массивный пункт «Индексирование», в нём находятся инструменты:

  1. - Статистика,
  2. - Структура сайта,
  3. - Проверка URL,
  4. - Внутренние и внешние ссылки.

На странице статистики указаны загруженные и исключённые web-документы, а также страницы в поиске. Отдельно настраивается показ по ошибкам кодов HTTP и запрещённым к индексированию роботом страницам.

В нижней части статистика последних обходов ботом, там виден url документа, статус HTTP и дата визита робота.

Полезный пункт «Страницы в поиске», ведь там можно увидеть не только банальщину, но и найти ценную информацию. Инструмент показывает количество добавленных и исключённых страниц, сортировка доступна по последним изменениям и всем страницам. Что тут полезного для ослабленной нервной системы веб-мастера? Инструмент показывает статус исключённых страниц, не HTTP статус, а причину исключения.

Две основные причины исключения из поиска – дубли и «недостаточно качественная страница». Если количество исключённых страниц (кроме специально удалённых через 404) велико, то ждите ухудшения ранжирования сайта. Пользуйтесь этим инструментом, смотрите причину удаления страниц и устраняйте её для собственного блага. Сделать это несложно – смотрите причину, переходите на страницу и придавайте её человекообразный вид, после чего отправляйте документ для переиндексации. Проверено – работает и помогает выходить из фильтров и не попадать под санкции.

Инструмент «Структура сайта» прост, но полезен. В нём видна структура сайта и указано количество загруженных и проиндексированных страниц в каждом разделе и категории. Стремитесь приблизить второй значение к первой цифре, для чего удаляйте и закрывайте в robots дубли и мусор.

Инструмент «Проверка URL» позволяет проверить любую страницу сайта на индексацию. Ничего оригинального. Добавили URL, проверили его, нажали «готово» и увидели в индексе или нет + статус HTTP

Более интересны инструменты «Внутренние и внешние ссылки», хотя и непонятно, зачем их засунули в раздел «Индексация».

C помощью инструмента «Внутренние ссылки» легко увидеть битые беки на внутренних страницах с указанием, где расположена ссылка и на какую страницу она ведёт. Вычищайте всё в ноль и будет счастье – никакие сторонние сервисы не нужны – найти все битые ссылки поможет Вебмастер.

  1. - Текущим и удалённым ссылкам,
  2. - Группировке по сайтам,
  3. - Неработающим бекам.

Вверху указано общее число внешних ссылок на сайт и доменов, с которых на вас ссылаются. Внизу детальная информация:

  1. - Адрес донора,
  2. - тИЦ ссылающегося сайта,
  3. - Страница акцептора,
  4. - Дата обновления информации.

Информация обновляется после ссылочных апдейтов.

Настройка индексирования

Здесь нашлось место инструментам:

  1. - Файлы Sitemap,
  2. - Переезд сайта,
  3. - Региональность,
  4. - Регистр имён сайта,
  5. - Быстрые ссылки,
  6. - Оригинальные тексты,
  7. - Товары и цены.

В инструменте Sitemap видны используемые карты сайта, тут же добавляют Sitemap в формате xml.

Во вкладке «Переезд сайта» добавляют для домена www и HTTPS, а в инструменте «Региональность» видны регионы сайта по ЯК, Яндекс Справочнику и Вебмастеру. В последнем пункте можно указать регион, но его надо подтвердить страницей, в которой есть информация о региональности.

Следующие три пункта понятны и школьнику, а инструмент «Товары и цены» пригодится интернет-магазину. Для этого соглашаются с условиями и подключают YML-файлы. Сюда лазать без программиста не рекомендую – чревато нервами и клизмами.

Инструменты

Здесь, как и следует из названия, представлены технические инструменты Вебмастера Яндекс. Для владельца веб-сайта или оптимизатора:

  1. - Анализ Sitemap и Robots,
  2. - Ответы сервера,
  3. - Удаление URL,
  4. - Проверка мобильной адаптивности страниц,
  5. - Переобход,
  6. - Микроразметка,
  7. - Валидатор XML.

Тут всё понятно интуитивно, особое внимание советую уделить инструменту «Проверка мобильных страниц», так как она работает несколько иначе, чем проверка адаптивности Google. Если продвигаетесь под Яндекс и имеете большой процент мобильной аудитории, то проблем с отображением страниц на планшетах и смартфонах быть не должно.

Последний пункт «Права доступа» позволяет делегировать кому-либо права доступа для просмотра статистики через свою панель Вебмастера. Укажите логин в Яндексе своего оптимизатора и делегируйте ему права.

Не так страшен чёрт, как его малюют
– русская пословица

Иногда довольно сложно понять, что от тебя хотят поисковые системы, что именно они понимают под значением «страницы низкого качества»? Порой смотришь на страницу и откровенно не понимаешь, почему же её невзлюбил Яндекс или Google. В этой статье мы рассмотрим страницы, которые ПС удаляют из поиска, считая недостаточно качественными.

Страницы низкого качества в понимании поисковых систем

В блоге Яндекса Елена Першина даёт следующее определение страницы низкого качества: «Под понятием некачественная страница мы понимаем страницы, вероятность показа которых в поиске практически нулевая. По понятным причинам мы не рассказываем способы определения таких страниц, но это чёткий сигнал, что если вы хотите видеть эту страницу в поиске, то со страницей нужно что-то делать».

Внесём немного корректив в слова представителя Яндекса: так как алгоритмы иногда дают сбой, причём в пользу сайтов, страница может занимать ТОП, а потом бесследно пропасть из выдачи.

То есть, страницы низкого качества – это документы, которые не имеют ценности, не несут новую и полезную информацию, не дают релевантный ответ на вопрос пользователя, с точки зрения поисковых систем.

Как обнаружить удалённые низкокачественные страницы

Яндекс.Вебмастер

Проще всего найти исключённые страницы, воспользовавшись инструментом Яндекс.Вебмастер .

Переходим в раздел «Индексирование» – «Страницы в поиске».

Переходим на вкладку «Исключённые страницы» – выбираем статус «Недостаточно качественная».

Можно, не переходя с «Последних изменений», выбрать статус «Удалено: Недостаточно качественная».

Google Search Console

В отличие от Яндекса, Google не предоставляет информацию о том, какие страницы были удалены из поиска из-за качества. Даже в новой бета-версии Google Search Console, к сожалению, эта функция отсутствует.

Единственным сигналом от Google сейчас можно считать «Отправленный URL возвращает ложную ошибку 404». В таких случаях нужно проанализировать страницы, убедиться, что они существуют, а не удалены (и просто ответ сервера некорректен). Подробнее о мягкой 404 можно прочесть .

  1. Переходим в новую версию Google Search Console.
  2. В боковом меню находим «Статус» – «Индексирование отправленных URL».

  1. Выбираем строку «Отправленный URL возвращает ложную ошибку 404».

  1. Анализируем исключённые страницы.

Причины удаления страниц

Проанализировав большое количество различных сайтов и выявив закономерность у страниц, удалённых по причине низкого качества, мы пришли к следующим выводам:
1) Алгоритм Яндекса недоскональный: вместо того, чтобы отнести страницу в удалённые, например, по причине дублирования, он исключает её как низкокачественную.
2) Страницы низкого качества чаще встречаются на коммерческих сайтах – интернет-магазинах и агрегаторах, чем на информационных (за счёт автоматической генерации).

Типология удалённых страниц низкого качества

1. «Жертвы» некорректной работы алгоритма

1.1. Дубли страниц

К страницам низкого качества довольно часто попадают дубликаты страниц.

Такие страницы довольно легко определить, если кроме URL ничего не уникализированно.

1.2. Страницы сортировки, пагинации и GET-параметры

Чаще Яндекс исключает такие страницы, как дубли, но, как показано на примере ниже, они могут быть удалены и по другой причине.

Страницы сортировки:

Страницы пагинации:

GET-параметры:
В этом примере GET-параметры определяют регион пользователя.

1.3. Неглавное зеркало

Сайт переехал на защищённый протокол. Долгое время робот Яндекса не знал, что делать со старой страницей на HTTP и, то удалял её как некачественную, то добавлял обратно в поиск. По итогу, спустя несколько месяцев, он удалил страницу как неглавное зеркало.

1.4. Страницы, закрытые в файле robots.txt

Директивы в файле не являются прямыми указаниями для поисковых роботов, а служат больше рекомендациями. Исходя из практики, бот Яндекса больше придерживается установок, прописанных в файле, чем Google. Но не в этот раз. Как и в прошлом примере, «помучив» несколько раз страницу, он всё-таки «снизошёл» и удалил её из поиска как запрещённую в файле robots.txt.

2. Действительные недостаточно качественные страницы

В эту группу «я плох, бесполезен и никому не нужен» попадают страницы низкого качества, которые действительно являются таковыми.

2.1. Шаблонная генерация страниц
Часто шаблонное заполнение и генерация страниц влечёт за собой ошибки внутренней оптимизации: неуникальные Title, отсутствует Description, с H1 что-то не так и т. д.

Тут важно сказать, что пользователь без проблем поймёт разницу в страницах и для него они могут быть даже полезными, но он о них не узнает, так как роботы стоят на страже порядка не допустят попадания данных страниц в поиск.

Увидев Title на странице, долго не пришлось гадать, что с ней не так.

2.2. Плохое заполнение карточек товара

Создать карточку товара просто, а вот наполнить её качественным контентом, описанием товара, изображениями – не каждому под силу.

2.3. Листинг без листинга

  • вряд ли такая страница попадёт в ТОП;
  • вероятнее всего, показатель отказов на такой странице будет максимальный.

Об этом скажет и сам Яндекс, исключив страницу из поиска как недостаточно качественную.

2.4. Страницы с малым количеством контента

Несмотря на слова поддержки Яндекса, что важно не количество контента, а качество, его отсутствие – не очень хорошая идея.
Например, на этой странице, кроме шаблонной части и двух изображений, ничего нет.

2.5. Страницы, не предназначенные для поиска

В эту группу относятся страницы robots.txt, Sitemap, RSS-ленты.
Чуть ли не в каждом проекте можно встретить файл robots.txt , удалённый из поиска как недостаточно качественная страница.

Не стоит паниковать, робот о нём знает и помнит. Страница просто не будет отображаться в поисковой выдаче – ну а зачем она там нужна?
XML- и HTML-карты сайта также исключаются. Особенно если у вас многостраничная карта сайта – какая польза от неё в поиске?

Яндекс считает, что RSS-лентам в поиске тоже нет места.

2.6. Страницы с некорректным ответом сервера

В эту группу мы отнесём страницы, которые должны выдавать 404 ответ сервера, а вместо этого отвечают 200 ОК.

Например, это могут быть несуществующие страницы пагинации. Яндекс исключил восьмую страницу пагинации, при имеющихся семи.

Также это могут быть пустые страницы. В таком случае нужно анализировать и принимать решение: настраивать 404 ответ сервера или 301 редирект.

Google может удалить такие страницы, как SOFT 404, но об этом чуть позже.

2.7. «Нужно больше страниц»

Этим часто грешат агрегаторы и интернет-магазины, считая, что чем больше страниц, тем больше видимость и трафик. Страницы создают, не беря во внимание их качество и надобность.

Например, низкокачественными являются страницы, созданные под каждый вопрос из FAQ.

Часто бесполезные страницы создаются с помощью применения всех фильтров. Я соглашусь, что нужно думать о посетителях и удобстве пользования сайтом. Если у интернет-магазина большой ассортимент, то структура сайта должна состоять из множества категорий и подкатегорий, а также иметь различные фильтры. Но, во-первых, нужно ли создавать страницу для «Фарфоровых кукол 20 см с голубыми глазами в розовом платье с корзинкой» и, во-вторых, нужны ли такие страницы в поиске?

2.8. Технические ошибки

Яндекс не жалует страницы с pop-upом, который перекрывает текст без возможности его закрыть, или случайно созданные страницы под изображения.

Как должно быть и как реализовано на сайте:

Случайно созданная страница:

2.9. SOFT 404

Как мы уже говорили, Google прикрепляет страницам именно такой ярлык. Это могут быть пустые страницы или же страницы с очень малым количеством контента.

Влияние низкокачественных страниц на ранжирование

Сколько бы страниц ни было исключено из поиска по этой причине, на ранжировании остальных страниц сайта это никак не отразится.

Этот алгоритм удаления страниц анализирует каждую страницу отдельно, пытаясь ответить на вопрос: «Если страница будет в поиске, даст ли она релевантный ответ на вопрос пользователя?».

Как говорит Яндекс, страница может быть исключена из поиска даже в том случае, если отсутствуют запросы. Робот может вернуть её, если количество запросов, которым будет релевантна страница, увеличится.

Что же делать со страницами низкого качества

Принимать меры можно только после того, как вы определили причину исключения страницы из поиска. Без выяснения обстоятельств не стоит паниковать, сразу удалять страницы, настраивать 301 редирект.

Алгоритм действий после определения причины удаления страницы:

Дубли страниц: 301 редирект или rel=“canonical”.

Страницы сортировки, пагинации и GET-параметры: настраиваем rel=“canonical”/уникализируем страницы пагинации.

Неглавное зеркало : проверяем 301 редирект, отправляем на переиндексацию.

Страницы, закрытые в файле robots.txt: если страница не нужна в поиске, настраиваем метатег noindex.

Шаблонная генерация страниц: если страница нужна в поиске – уникализируем её, работаем над качеством.

Плохое заполнение карточек товара: добавляем описание товара, изображения и т. д.

Листинг без листинга:

  • проверяем, приносили ли такие страницы трафик;
  • определяем, нужны ли они пользователям;
  • временно ли на них отсутствует товар или его не было и не будет.

Принимаем действия исходя из результата. Например, если страница приносила трафик и на ней временно отсутствует товар, можно вывести ленту с похожими товарами или со смежных категорий.

Страницы с малым количеством контента: определяем необходимость таких страниц в поиске, если они нужны – наполняем качественным контентом; не нужны – настраиваем метатег noindex.

Страницы, не предназначенные для поиска: тут всё просто – ничего не делаем, просто живём с этим.

Страницы с некорректным ответом сервера и SOFT 404: как бы ни логично это прозвучит, настраиваем корректный ответ сервера.

«Нужно больше страниц»: проверяем, приносили ли такие страницы трафик, определяем, нужны ли они пользователям в поиске, частотны ли запросы – принимаем действия исходя из результата.

Страницы с техническими ошибками: исправляем недочёты/если страницы не нужны – закрываем noindex/настраиваем 404 ответ сервера.

Заключение

К сожалению, выдача поисковых систем переполнена мусором, некачественным контентом и бессмысленными сгенерированными страницами. Яндекс и Google активно борются с такими страницами, исключая их из поиска. Мы за качественный контент. Поэтому, если у вас возникли трудности, вы наблюдаете, как поисковики удаляют страницы, ссылаясь на недостаточное качество, мы можем провести вашего сайта и написать инструкции по решению проблемы.

Яндекс стремится находить ответ на запрос пользователя, предоставляя на странице результатов информацию и ссылки на нее в интернете. Мы создали и развиваем поиск , исходя из нашего понимания, что нужно пользователям, и какая информация является ценной.

Поэтому следование рекомендациям, приведенным ниже, поможет в индексировании и лучшем ранжировании вашего сайта, в то время как применение обманных техник может привести к понижению его позиций или исключению его из поиска .

Основные принципы

    Создавайте сайты с оригинальным контентом или сервисом. Реклама не является той ценностью, ради которой пользователи приходят на сайт.

    Думайте о пользователях, а не о поисковых системах. Стали бы вы создавать сайт, страницу или ее элемент, если бы не существовало поисковиков? Приходят ли пользователи на ваш сайт или интернет-магазин не только из поисковых систем?

    Тщательно продумайте дизайн - он должен помогать посетителям увидеть главную информацию , ради которой сайт создан.

    Будьте честны. Привлечь пользователей по запросам, на которые ваш сайт не может достойно ответить, не значит удержать их. Думайте о том, что пользователь получит, придя на ваш сайт .

Примеры к принципам

Если в этом разделе не описан какой-то прием, помогающий искусственно повлиять на ранжирование сайта в Яндексе, это не значит, что мы его приветствуем. Следуйте здравому смыслу и выше описанным принципам.

Мы стараемся не индексировать или не ранжировать высоко:

  • Сайты, которые вводят в заблуждение посетителей: при скачивании какого-либо файла (аудио, видео, торрент-файл и пр.) загружается посторонняя программа. Или посторонняя программа размещается под видом популярного приложения и т. д. Примером такого нарушения являются так называемые программы-обертки .
  • Сайты, использующие устройства посетителей для майнинга криптовалют .
  • Сайты, копирующие или переписывающие информацию с других ресурсов и не создающие оригинальный контент.

  • Сайты, копирующие или переписывающие информацию с других ресурсов, с низкокачественным автоматическим переводом контента на другой язык, не создающие оригинальный контент.
  • Страницы и сайты, единственной целью которых является перенаправление посетителя на другой ресурс, автоматически («редирект» ) или добровольно.

    Автоматически сгенерированный (бессмысленный) текст.

    Сайты с каталогами (статей, программ, предприятий и т. п.), если они являются только агрегаторами контента, не создают тексты и описания самостоятельно и не предоставляют никакого уникального сервиса.

    Страницы с невидимым или слабовидимым текстом или ссылками .

    Сайты, отдающие разный контент посетителям и роботам поисковых систем («клоакинг» ),

    Сайты, предоставляющие товары или информацию по партнерским программам, но не представляющие никакой ценности для посетителя.

    Сайты, использующие обманные техники (например, вредоносный код , опасные для посетителей сайта настройки CMS и серверов, вирусы в партнерских программах , вредоносные мобильные редиректы), перенаправляющие посетителей на сторонние ресурсы или меняющие окно результатов поиска на страницы других ресурсов при переходе из поисковых систем.

    Сайты, пытающиеся повлиять на поисковую систему путем имитации действий посетителей .

    Сайты, основным предназначением которых является агрессивная демонстрация рекламных материалов (в том числе popup, popunder , clickunder).



Понравилась статья? Поделиться с друзьями: