Оценить:
 Рейтинг: 0

Поисковые алгоритмы ранжирования сайтов

Год написания книги
2022
<< 1 ... 8 9 10 11 12 13 14 15 16 17 >>
На страницу:
12 из 17
Настройки чтения
Размер шрифта
Высота строк
Поля

Как вы уже знаете, не Google, и ни какой другой поисковик придумал эти правила, а потребители контента так рассуждают, а поисковые системы формализовали этот факт в виде фильтра.

Удаление не качественных ссылок возвращает веб-страницы на прежние позиции в результатах поиска. Но это требуется делать разумно, планомерно и не спеша.

Быстрое же удаление ссылок приводит в действие другой фильтр – Too Many Links at Once Filter, который в этой книге расположен перед этим фильтром.

7 – BROKEN LINKS (БИТЫЕ ССЫЛКИ)

Этот фильтр – один из многих, который определяет качество сайта.

Любой развивающийся сайт, со временем претерпевает некоторые изменения. Некоторые страницы добавляются, некоторые изменяются, удаляются или переносятся. Страницы же сайта, как правило, связаны ссылками, и при переносе или удалении даже одной страницы случается так, что несколько или несколько десятков страниц сайта имеют ссылки на удаленную, или перемещенную страницу.

Поэтому получается, что несколько ссылок ведут на несуществующую страницу.

Бывает и так, что при создании сайта недодумано, могут генерироваться страницы с ошибкой 404.

Самый простой и распространенный пример. Программист устанавливает календарь событий компании, на котором пользователь может выбрать любую дату, месяц и год, чтобы посмотреть новость компании этого дня.

Но забывает закрыть доступ к тем датам, когда компания ещё и не существовала. Так пользователь может открыть любой год, например, 1001, или 11, и естественно получить страницу с ошибкой 404.

Разумному человеку вряд ли придет в голову посмотреть события компании в начале первого тысячелетия, но алгоритм, без эмоций выполняет свою работу.

У поисковика алгоритм – обойти все ссылки. Робот и обходит все, а для нашего примера это

2022 х 365 +505= 738 535 не рабочих ссылок, которые ведут на несуществующие страницы.

Ссылка, которая ведет на несуществующую страницу, называют битой. Обычно пользователю в этом случае выдается страница с кодом ошибки 404.

Ошибка 404 или Not Found («не найдено») – стандартный код ответа HTTP о том, запрашиваемая страница не найдена. (Ошибку 404 не следует путать с ошибкой «Сервер не найден» или иными ошибками, указывающими на ограничение доступа к серверу.)

Если сайт с таким календарем имеет несколько десятков страниц, то не сложно подсчитать отношение «хороших» и «плохих» страниц, а это хороший прирост к отрицательному определению качества сайта.

Кроме этого робот-паук должен обойти все страницы сайта, и если он «застрянет» на таком календаре, то хорошие страницы будут еще долго не индексированы.

Другая распространенная причина получения битых ссылок – перенос материала из одной категории в другую. Этим обычно страдают интернет-магазины.

Если битых ссылок на сайте много (величина или процент, который определяет, что битых ссылок много – коммерческая тайна Google), то Google считает этот сайт низкого качества, а поэтому его не стоит показывать пользователям, и пессимизирует его.

Перед запуском сайта нужно убедиться, что на веб-страницах нет битых ссылок, т.е. ссылок, которые никуда не ведут.

8 – LINKS (ОБМЕН ССЫЛКАМИ)

Ранее среди веб-мастеров и хозяев сайтов было модно обмениваться ссылками, т.е. размещать ссылки на своем сайте на другой сайт, а тот в сою очередь делает то же самое.

Поисковики такой вариант увеличения ссылочной массы считают искусственным, и перестали учитывать такие ссылки. Если обмен ссылками был с большим количеством сайтов, то можно дополнительно получить наказание в виде понижения в рейтинге выдачи.

Links – применяется также к сайтам, содержащим страницы обмена ссылок с другими ресурсами. Такие страницы обычно называют полезными страницами, что на первый взгляд кажется правильным.

Но представьте такой вариант. У меня туристическая фирма, и я продаю путевки в разные страны и города. Для удобства пользователя на сайте создаю страницы для каждого курорта, где прописываю полезную информацию по этому месту отдыха. Например, даю ссылки на сайты: где заказать машину, экскурсовода, музеи, места, где вкусно готовят, и многое еще чего, что может пригодиться в незнакомой местности. В ответ, в качестве благодарности, все эти сайты делают ссылки на мой сайт.

Вся предоставляемая мной информация – полезна пользователям? Безусловно! Но поисковики считают такие страницы спамными. Кроме этого, чтобы не попасть под этот фильтр, если ссылка ведет на прайс-лист, или другое финансовое предложение, то Google разработал специальные атрибуты для гиперссылки, который указывает, что это коммерческая или спонсорская ссылка. Ссылки с такими атрибутами не учитываются, поэтому не учитываются и не могут навредить сайты. Их и требуется устанавливать в таких случаях.

Противоречиво, не справедливо, но это – объективная реальность на данный момент.

Под этот фильтр попадает обмен ссылками с доморощенными каталогами, которые предлагают за установку баннера их каталога размещать у себя ссылки на сайт.

Теперь если же на одной страницы сайта появляется 4 или более ссылок на сайты «партнеров», то велика вероятность попасть под пессимизацию фильтра Links.

Но если вы пишете хорошую статью, и в статье ссылаетесь на выводы нескольких авторитетных сайтов, то в этом случае сайт не попадает под этот фильтр, а наоборот – увеличивает свой вес.

Google считает, что одним из признаков авторитетности статьи – ссылки на первоисточники. В этом случае, если на странице 4 и более ссылок на авторитетные издания, то Google добавляет вес к авторитету сайта. Такой шаг Google считает, что ссылка помогает углубить изучение вопроса, в котором заинтересован пользователь.

Подчеркну, что Google не учитывает обмен ссылками. Лучше сослаться на авторитетный сайт самому, чем искать, с кем можно обменяться ссылками.

9 – PAGE LOAD TIME (ВРЕМЯ ЗАГРУЗКИ СТРАНИЦЫ)

Фильтр Page load time проверяет, как быстро загружается сайт на различных гаджетах.

Если сайт долго загружается, то есть вероятность, что пользователь не дождется окончательной загрузки, то для этого фильтра – это сигнал, чтобы понизить рейтинг сайта на таком устройстве.

В самом деле, зачем пользователю показывать сайт, который на его устройстве будет грузиться долго, в то время как сотни подобных сайтов загружаются быстро. Особо щепетильно Google относится к загрузке страниц сайтов на мобильные устройства.

Каждый разработчик после того как собрал сайт, если желает, чтобы сайт высоко позиционировался в Google проверит скорость загрузки своего творения на тестирующие Google – PageSpeed Insights, чтобы убедиться, что скорость загрузки его шедевра удовлетворяет требованиям поисковика. Если же скорость загрузки низкая, то требуется выполнить там же предлагаемые рекомендации.

Заметьте, что Google никого и ничего не заставляет делать, он принимает всех, только выстраивает в рейтинге как считает нужным. Но Google дает рекомендации, которые не сам придумывает, чтобы усложнить жизнь разработчикам.

Его рекомендации – это плод его исследований, и собираемой статистики. Google бесплатно делится ими, чтобы помочь нам сделать свой веб-проект как можно более полезным конечному потребителю.

Но вернёмся к скорости загрузки веб-сайта.

Кроме медленной скорости работы сервера (что сейчас редко встречается), может быть очень большой объем загружаемой информации.

Это может быть километровые CSS файлы, скрипты, которые лучше подгружать позже, или скрипты в основном несущие только дизайнерскую «красоту» и эффекты, а также огромные картинки, которые в своем объеме практически не нужны. На все, что может снизить время загрузки, на исследуемом сайте Google сразу же указывает в своих рекомендациях, поэтому разработчик сайта обязан устранить все указанные недочеты…

Но скудные знания многих «программистов», тех, которые разрабатывают сайты на известных системах управления сайтами, не позволяют сделать это… А скорость загрузки сайта – один из приоритетных факторов при ранжировании сайтов.

Здесь и большая вина заказчиков сайтов. Они, как правило, желают по максимумы получить навороченный сайт. Но все навороты сводятся к усложнению дизайна: всякие всплывающие, динамические элементы, большие графические вставки существенно увеличивают время загрузки веб-страницы.

Возможно, провести сравнение крысы и белки. Белка – тюнингованная крыса, а заказчик желает получить белку, на которой дополнительно надеты наряды.

Google еще не понимает, хорош или плох дизайн, пользователю приятнее смотреть на белку. Поэтому мастерство разработчика сайта должно найти золотую средину между белкой и крысой.

Ведь, если пользователь пытается просмотреть сайт на своем мобильном устройстве, при оплате за трафик, для него тяжелые сайты – расточительны, поэтому тяжелая версия сайтов в Google считается недопустима. Так Google заботится о своих пользователях.

Если скорость загрузки страницы сайта больше 2—3 сек., то сайт может иметь существенную пессимизацию.

Здесь действует принцип – чем быстрее открывается веб-страница, тем лучше. Статистика показывает, что пользователи не готовы ждать открытия страницы более 2—3 сек. Пользователи смартфонов ещё более не терпеливы.

10 – OMITTED RESULTS (УПУЩЕННЫЕ РЕЗУЛЬТАТЫ)
<< 1 ... 8 9 10 11 12 13 14 15 16 17 >>
На страницу:
12 из 17