Оценить:
 Рейтинг: 0

Поисковые алгоритмы ранжирования сайтов

Год написания книги
2022
<< 1 ... 3 4 5 6 7 8 9 10 11 ... 17 >>
На страницу:
7 из 17
Настройки чтения
Размер шрифта
Высота строк
Поля

– Сайты, на которых публикуется скопированное содержание с незначительными изменениями (например, слова заменены синонимами или используются автоматические методы обработки).

– Сайты, транслирующие с других ресурсов фиды, без собственных функций для работы с ними.

– Сайты, содержащие только встраиваемый контент, например, видео, изображения и прочие мультимедийные материалы, с других сайтов без дополнительной значимой информации.

– Участие в партнерских программах, если вы не создаете контент самостоятельно, например,

– Страницы со ссылками на товары, на которых размещены только описания и отзывы, скопированные с сайта продавца, и отсутствует какой-либо уникальный контент.

– Бесполезные страницы, которые содержат преимущественно материалы из других ресурсов и минимум оригинального контента.

– Загрузка страниц с нерелевантными ключевыми словами, например,

– Список телефонных номеров без дополнительной информации,

– Текстовые блоки с перечнем городов и областей, по запросам которых веб-мастер пытается повысить рейтинг страницы,

– Многократное повторение слова или фразы, из-за чего текст не воспринимается как естественный.

– Создание вредоносных страниц для фишинга и установки вирусов, троянов или другого нежелательного ПО, например,

– Манипулирование контентом таким образом, что при нажатии пользователем на конкретную ссылку или кнопку фактически происходит нажатие на другой элемент страницы.

– Внедрение на страницы новых объявлений или всплывающих окон, или замена существующих объявлений другими, а также реклама или установка программного обеспечения, которое выполняет эти действия.

– Добавление нежелательных файлов при загрузке содержания, запрошенного пользователем.

– Установка вредоносного ПО, троянских программ, шпионского ПО, рекламы или вирусов на компьютер пользователя.

– Изменение домашней страницы в браузере или настроек поиска без ведома и согласия пользователя.

– Некорректное использование разметки для расширенных описаний веб-страниц.

– Автоматические запросы в Google.

Заметьте, что начинающему веб-мастеру нужно неистово «стараться» для того, чтобы его сайт попал под бан поисковой системы.

Google редко применяет репрессивные меры, т.е. исключает из индекса сайты, ограничиваясь пессимизацией – искусственным понижением в позиции поисковой выдачи.

Для этого специалисты интернет гиганта предусмотрели множество алгоритмов, которые разложены в группы, или фильтры, о которых и будем говорить дальше.

4 ЭТАПА ПОИСКА поисковиков, которые должны знать все SEO-специалисты

Понимание того, как работают поисковые системы, имеет основополагающее значение для профессионалов SEO. Предоставляю последнюю информацию о сканировании, рендеринге, индексировании и ранжировании.

Не все согласились с акцентом на важность понимания различий между сканированием, рендерингом, индексированием и ранжированием.

Я заметил, что некоторые специалисты-практики считают такие опасения простой семантикой или ненужным «контролированием» со стороны элитарных SEO-специалистов.

В какой-то степени некоторые ветераны SEO, возможно, действительно очень слабо объединили значения этих терминов. Это может случиться во всех дисциплинах, когда те, кто обладает знаниями, перебрасываются жаргоном с общим пониманием того, что они имеют в виду. Ничего изначально плохого в этом нет.

Мы также склонны антропоморфизировать поисковые системы и их процессы, потому что интерпретация вещей путем описания их как имеющих знакомые характеристики облегчает понимание. В этом тоже нет ничего плохого.

Но эта неточность, когда речь идет о технических процессах, может сбить с толку и усложнить задачу тем, кто пытается изучить дисциплину SEO.

Можно использовать эти термины небрежно и неточно только до некоторой степени или как стенограмму в разговоре. Тем не менее, всегда лучше знать и понимать точные определения этапов технологии поисковых систем. А это позволит и лучшему пониманию работы фильтров, благодаря которым и происходит ранжирование сайтов при поисковой выдаче.

4 стадии поиска

Включение веб-контента в результаты поиска осуществляется множеством различных процессов. В некотором смысле может быть грубым упрощением сказать, что для этого требуется всего несколько отдельных этапов.

Каждая из четырех стадий, которые я здесь рассматриваю, имеет несколько подпроцессов, которые могут происходить внутри них.

Помимо этого, существуют важные процессы, которые могут быть асинхронными с ними, например:

· Типы защиты от спама.

· Включение элементов в Граф знаний и обновление панелей знаний информацией.

· Обработка оптического распознавания символов в изображениях.

· Преобразование аудио в текст, в аудио и видео файлах.

· Оценка и применение данных PageSpeed.

· И более.

Ниже приведены основные этапы поиска, необходимые для того, чтобы веб-страницы отображались в результатах поиска.

ПОЛЗАНИЕ

Сканирование происходит, когда поисковая система запрашивает веб-страницы с серверов веб-сайтов.

Представьте, что Google, Яндекс и Microsoft Bing сидят за компьютером, вводят или нажимают ссылку на веб-страницу в окне своего браузера.

Таким образом, машины поисковых систем посещают веб-страницы так же, как и каждый из нас. Каждый раз, когда поисковая система посещает веб-страницу, она собирает копию этой страницы и отмечает все ссылки, найденные на этой странице. После того, как поисковая система соберет эту веб-страницу, она перейдет к следующей ссылке в своем списке ссылок, которые еще предстоит посетить.

Это называется «сканированием» или «пауками», что вполне уместно, поскольку сеть метафорически представляет собой гигантскую виртуальную сеть взаимосвязанных ссылок.

Программы сбора данных, используемые поисковыми системами, называются «пауками», «ботами» или «краулерами».

Основной программой сканирования Google является «Googlebot», в Яндекс – YandexBot/3, а у Microsoft Bing – «Bingbot». У каждого есть другие специализированные боты для просмотра рекламы (например, GoogleAdsBot и AdIdxBot), мобильных страниц и многого другого.

Этот этап обработки веб-страниц поисковыми системами кажется простым, но есть много сложностей в том, что происходит, только на этом этапе.

Подумайте о том, сколько может быть систем веб-серверов, работающих под управлением разных операционных систем разных версий, а также различных систем управления контентом (например, WordPress, Wix, Squarespace), а затем уникальных настроек каждого веб-сайта.

Многие проблемы могут помешать роботам поисковых систем, сканировать страницы, что является отличной причиной для изучения деталей, связанных с этим этапом.
<< 1 ... 3 4 5 6 7 8 9 10 11 ... 17 >>
На страницу:
7 из 17