5 способов сделать так, чтобы Google и Яндекс вас возненавидели

Когда сайт упорно не растет по позициям и трафику, опытный сеошник может выдать многозначную фразу — «поиск просто не любит этот сайт». Казалось бы, при чем здесь вообще любит/не любит, когда речь идет о поисковых роботах? Оказывается, всему есть свои объяснения.

И Google и Яндекс пытаются подвести всех к одной простой истине — сайты должны быть полезны для людей и решать их проблемы. По ряду критериев, современным поисковым алгоритмам не так уж и сложно определить общие характеристики, как для качественных ресурсов, так и некачественных.

И могу вас уверить — сделать хороший сайт сейчас проще, чем тратить время и усилия на то, чтобы выдать за конфетку сделанный на коленке сателлит.

Но если вы все-таки поставили перед собой грандиозную цель сделать так, чтобы поисковики возненавидели ваш сайт, добиться этого не так уж и сложно.

Вот вам пять проверенных советов на основе многолетней практики SEO-аудитов. Просто придерживайтесь как можно более тщательно, и все у вас не получится!

1. Ашипки, errors и прочие баги

Все прекрасно знают насколько перегрет современный рынок труда, и как жадные программисты, верстальщики, дизайнеры и прочие представители IT-индустрии, наживаются на бедных бизнесменах. Если разница «на глаз» между сайтом за 50 000 рублей и 5000 рублей практически не видна, зачем платить больше?

И вот толпы страждущих предпринимателей вовсю мчатся на биржи фриланса. Конвейер будущих сайтов «лидеров ниши» начинает работать вовсю.

Вот только потом оказывается, что не все так гладко в Датском королевстве. И вроде сайт есть, а трафика нет. И кроме адреса на визитке, пользы от такого творения никакого.

Все просто — сайт, сделанный непрофессионалом своего дела, скорее всего будет содержать разного рода ошибки, как технические, так и в плане юзабилити, которые негативно влияют в первую очередь на SEO. Ведь те баги, которые не видны людям, роботы фиксируют очень хорошо. И это непременно сказывается на видимости и посещаемости. Дубли, ошибки скриптов, битые ссылки, ненужные редиректы — список проблем можно долго продолжать.

Более того, сайт может создаваться даже опытным программистом, но это совсем не значит что он в курсе требований SEO. Поэтому какой бы авторитетной не была команда разработчиков, обратится за аудитом к профессиональному оптимизатору, никогда не будет лишним.

2. Низкокачественный контент (генерируй меня полностью!)

Google и Яндекс настолько «любят» простыни бессмысленных текстов от копирайтеров не в теме, копипаст и прочие синонимайзы, что даже выпускают алгоритмы, направленные специально на борьбу с такими деятелями.

Сначала Панда, а потом и Баден-Баден, здорово проредили ряды тех, кто в погоне за объемами, потерял по дороге смысл.

Какие же тексты поиск точно терпеть не станет? Здесь нет никаких секретов:

  • неуникальный контент, взятый с других сайтов;
  • переоптимизированные ключевыми словами тексты;
  • страницы с «водой», контент на которых раздут исключительно в угоду объему;
  • клоакинг (пользователям показывается один текст, а роботам другой).

Проверить тексты своего сайта на уникальность можно при помощи сервиса Content-watch.ru, который также выводит адреса страниц с найденными совпадениями:

А на возможную переоптимизацию — через анализатор Istio.com. Сервис показывает процент вхождений определенных ключевых слов в текст, и если по какому-то ключу этот показатель превышает 2,5-3% — это уже повод призадуматься.

Отображение облака слов в режиме «карта» отлично это иллюстрирует. Сразу становится понятно, каких вхождений явно больше, чем следует.

3. Ссылочный спам и плохие доноры

Если владельцы контентных проектов могут позволить себе игнорировать работу с внешними факторами, то для владельцев коммерческих проектов все немного иначе. Здесь необходимо одинаково хорошо прорабатывать все направления, и обратные ссылки не исключение. Особенно если речь идет о конкурентной тематике и продвижении в Google.

Желание взять количеством, а не качеством — частые грабли, на которые наступают те, кто еще не обжегся на этом в полной мере. Зачем тратить время на контент-маркетинг, линкбилдинг и прочие аутричи, если можно просто прогнать сайт по каталогам и закупиться ссылками с чьей-то пачки сателлитов?

Даже Миралинкс, в котором можно найти немало хороших площадок, это тоже слишком дорого. Нужно ведь еще и статьи писать, а если копирайтер написал кое-как, владелец площадки может и завернуть …

Реализация подхода «набрать побольше ссылок и плевать на качество», в лучшем случае даст нулевой эффект. Потраченные зря время и усилия. В худшем — визит Google Penguin и Яндекс Минусинск в паре, а затем обвал трафика в купе с откатом позиций далеко за первую двадцатку поисковой выдачи.

Ссылочный спам остается одним из верных способов получить черную метку от поисковиков и остаться в гордом одиночестве с целой пачкой санкций, на снятие которых могут уйти долгие месяцы.

4. Юзабилити? Не, не слышал

По этому пункту есть две крайности:

Ужасное нечто, сделанное на коленке и с заботой о том, как бы больше сэкономить (заказчик) или побыстрее получить свои деньги (исполнитель);

Истинный шедевр, творение рук талантливого дизайнера, который правда кроме дизайна ни на что другое и не обращал внимания.

В первом случае обычно получается «кривой» сайт, которым невозможно пользоваться из-за вороха проблем, багов и отсутствия логики в целом. Во втором, на сайт приятно смотреть, но пользоваться снова-таки невозможно. Ведь все внимание было уделено именно красивому внешнему виду, а не юзабилити.

Напомню, под юзабилити понимают именно удобство взаимодействия пользователя с сайтом. И тех разработчиков, которые на это внимания не обращают, ждет неминуемая карма после того, как все проблемы на сайте скажутся на поведенческих факторах.

Сам по себе этот пункт не является критическим, и фильтры за такое пока не наблюдаются. Но вот в совокупности с остальными факторами, именно проблемы с юзабилити могут стать тем самым последним гвоздем, который окончательно прибьет к вашему сайту табличку — «Топа недостоин»!

5. Медленно, всё очень медленно… И не мобильно

Уверен, среди читателей моего блога есть немало таких, которые еще помнят времена, когда стоимость безлимитного кабельного Интернета была сравнима с минимальной зарплатой в регионах.

И вот представьте себе. В век, когда по скоростным трассам рассекают Tesla, продолжают существовать сайты, который грузятся по 7+ секунд. Более того, они еще и неадаптированные под мобильные…

Может ли такой сайт осквернять Топы своим присутствием? Стоит ли перенаправлять трафик на столь недостойные страницы? Ответ очевиден. И можете быть уверены — инквизиция, в виде поисковых ботов, не замедлит явиться в гости к столь явному нарушителю заповедей.

 

И немного напоследок

Желание сделать все дешевле, стремление получить быстрые результаты, ничего при этом, особо не делая — неистребимо. Именно поэтому поисковики продолжают совершенствовать свои алгоритмы, а SEO-компании продолжают оказывать услугу по аудиту, которая пользуется популярностью.

Иногда не нужно придумывать сложные схемы, так как многое уже придумано до нас. И все на самом деле проще, чем кажется. Я недаром ведь писал о том, что нужно просто больше внимания уделять тем самым основам, о которых известно уже много лет. А поиски «серебряной пули», обычно, оборачиваются простой потерей времени.

Так и здесь — хотите, чтобы поисковики внесли ваш сайт в список «неблагонадежных»? Вот вам прекрасное руководство к действию. А хотите сделать свой сайт лучше, получая все больше трафика и продаж? Просто сделайте все с точностью наоборот.

23.11.2017

Головорот - Всё о голове