А робот одной крупной поисковой системы так попал в административный раздел какого-то банка и удалил часть данных, просто переходя по ссылкам.
SEO для бизнеса
Рисунок 27. Пустые страницы
Рисунок 28. Ошибки кодировки
Некоторые модули позволяют создавать неограниченное количество пустых страниц. Например, календарь меро-приятий. Так, анализируя сайт одного клиента, я обнаружил
в базе «Яндекса» страницы мероприятий от 1143 года.
В результате технического сбоя, например, в базе данных, на сайте могут появиться страницы с ошибками отображения данных.
Глава 1. Как продвинуть сайт
Всё это приводит к про-блемам с ранжированием. Сайт теряет позиции, по-нижается уровень дове-рия поисковой системы, страницы исключаются из базы. Иллюстрация: из-за оплошности программиста в одном случае трафик упал с 3000 практически до нуля.
Это не санкции! Ошибка в robots.txt
Рисунок 29. Падение трафика в результате ошибки программиста
www.komandirovka.ru
Кейс: рост трафика в 2 раза в течение года после устранения технических ошибок
После устранения технических ошибок, удаления дубликатов –
и мусорных страниц, – ожидайте улучшений – в течение следующих 12 месяцев. Трафик может вырасти в несколько раз.
Рисунок 30. Рост трафика в результате исправления технических ошибок сайта
SEO для бизнеса
Санкции поисковых систем накладываются, если вы что-то сделали совсем не так, если вы переиграли со спамом. Как правило, это результат ошибок SEO-специалиста, но не так уж редки и ситуации, когда за то, без чего вчера сайт было продвинуть невозможно, сегодня накладывают санкции. Так, например, было время, когда длинные «полотна» текстов были обязательны – без них невозможно было продвинуть сайт в конкурентной тематике, так что 8–10 экранов нечитаемого текста стало правилом в SEO. Алгоритмы поменялись, и это стало расцениваться как спам. Было время, когда наличие ключевых слов в имени домена было обязательным фактором, некоторые компании даже меняли название сайта, чтобы в него вошли ключевые слова. А потом Google изменил алгоритмы, и в одном из интервью было объявлено, что теперь это признак спама. Бывают и ошибки со стороны поисковых систем. Несколько лет назад в «Яндексе» появился региональный поиск. Теперь в каждом городе предпочтение отдается местным компаниям.
Пример. У меня продвигался сайт клиники доктора Александрова. И на каждой странице этого сайта было написано «клиника доктора Александрова». А ещё есть город Александров. «Яндекс» решил, что клиника находится там, и роботы «Яндекса» поменяли регион на город Александров. Позиции упали, их удалось восстановить только через один месяц. Сотрудники «Яндекса» в переписке признали свою ошибку.
Как выяснилось позже, у моих коллег была аналогичная ситуация с городом Королевом. Есть еще такая проблема – часто новые алгоритмы работают ошибочно. Пока они тестируются, могут возникать сложности. Поэтому ничего удивительно нет, если новый алгоритм появился
и вдруг возникли какие-то ошибки. Да, ошибки бывают, и с ними нужно работать, их нужно исправлять и прописывать в «Яндекс».
Тенденции алгоритмов
Как начинался Интернет? Сначала сайтов было очень мало. Было время, когда все сайты помещались на одном жестком диске. Можно было уместить всё на трех терабайтах. Помню, у меня был жесткий диск на три гигабайта, и этого было очень много.
Постепенно Интернет рос. Люди знали сайты поименно – есть вот такой сайт и такой, а еще такой… В какой-то момент все сайты уже невозможно стало помнить, тогда появились каталоги сайтов. В каталогах можно найти нужный сайт, перебирая категории. Очень долгое время каталоги было единственным способом навигации по Интернету. Помните, когда Интернет ассоциировался с Rambler.ru. Удивительно, но для многих владельцев крупного бизнеса в солидном возрасте Интернет до сих пор – Rambler. Поэтому на Rambler очень крутая аудитория, там много хорошего коммерческого трафика.
Постепенно каталоги росли, количество сайтов стремительно увеличивалось. В какой-то момент стало ясно, что по каталогу нужен поиск. Поначалу поиск был просто как дополнение
к каталогу. Поисковые системы, собственно, так и начали развиваться. Потом стало понятно, что сайтов слишком много, да ведь и далеко не все стоит добавлять, но искать их тоже нужно.
Потому что есть популярные «запрещенные» тематики, их ищут. Одно время большим спросом пользовались сайты с генераторами лицензионных ключей, помните?
Глава 1. Как продвинуть сайт
Рисунок 31. Инструменты интернет-маркетинга
Так появились современные поисковые системы. Как они работали? Давайте представим себя на месте разработчиков поисковых систем. Интернет еще маленький, но сайтов уже довольно много. На основании чего можно определить, какой сайт хороший?
– Из заголовков.
– Контент.
Да, контент, заголовки.
– Тайтлы, кейвордс.
Да, конечно же, смотреть на HTML-код, что как отмечено. То есть <Н1> – это заголовок, там более важные слова. <P> – это абзац, там текст. <STRONG> – это выделение жирным, не просто выделение жирным, а логическое акцентирование на вот этом словосочетании. И так далее.
SEO для бизнеса
Практика 5. Как верстать страницы для SEO
Мы видим:
Робот видит:
Рисунок 32. Как поисковый робот видит сайт
Картинка в H1
Рисунок 33. Некорректное использование HTML-тегов
3 ключевых совета для верстальщика:
Для того чтобы заголовок выглядел как заголовок, а ссылка переводила вас на нужную страницу, исполь-зуются HTML-теги. Кон-тент-менеджер прописыва-ет их в коде, когда создает новую страницу, а версталь-щик делает разметку, когда создает страницу из макета. Некоторые из HTML-тегов: <TITLE> – название страницы <H1> – главный заголовок <H2> – подзаголовок
<P> – абзац <STRONG> – выделение жирным
<EM> – выделение курсивом
При верстке страниц неизбежно допускаются ошибки, теги используются не по назначению, в резуль-тате чего поисковая система не может распознать, где на странице заголовок, а где обычный текст. В этом случае ваш сайт не получает пре-имуществ перед конкурен-тами по HTML-факторам.
• Точные вхождения запроса в <H> и <TITLE>.
• <TITLE> каждой страницы уникален.
• <H> используются только по назначению.