Google не может ранжировать такой скрытый контент в этих разделах. Google считает, что если пользователь сделал запрос, то должен сразу увидеть ответ, не догадываясь, что нужно открыть ещё и соответствующую вкладку.
Вес страницы в этом случае не уменьшается, но следует учитывать, что скрытый текст может быть только дополнительным, и объём текста не учитываются.
Прежде Amazon использовал много вкладок, но теперь они, выводят большую часть контента непосредственно на странице, заставляя пользователя прокручивать и прокручивать, чтобы увидеть содержимое.
В своих справочных документах Google использует клик для расширения, но только для просмотра вопросов. Нажав на сам вопрос, пользователь попадаете на новую страницу с указанным ответом, а не остаётся на той же страницы с ответом под вопросом.
Задумайтесь – требует ли красота этих жертв?
Не забывайте, если человек попадает на ваш сайт из поисковика, то он задал конкретный вопрос, на который хочет получить ответ. У него масса других вопросов, которыми забита голова. Но вот человек попал на ваш сайт и хочет получить ответ на свой вопрос.
Ему не интересны ваши сюрпризы типа найди ответ на этой, страницы, угадай за какой вкладкой спрятан ответ. Именно поэтому Google не учитывает скрытые тексты. Больше того, чем быстрее посетитель увидит ответ на свой вопрос, зайдя на страницу, тем ценнее страница.
56 фактор. Фред
Эксперты команды MOZ, изучив более 700 сайтов, пострадавших от этого обновления, заметили, что 95% из них сайтов имеют две общие черты.
Все сайты кажутся ориентированными на контент, будь то форматы блогов или другой контент, такой как сайты, и все они довольно сильно занимаются размещением рекламы на страницах своих сайтов.
На самом деле, похоже, что многие (не все, но многие) из них были созданы с единственной целью получения дохода от AdSense или других рекламных компаний, и не обязательно принося пользу пользователю.
На сайтах, которые попадают под этот фильтр, также наблюдается падение органического трафика Google на 50% и выше сразу же.
А в некоторых случаях падение трафика доходит до 90% за ночь.
Я должен заметить, что Google официально не подтвердил эти теории или даже что было обновление.
Барри Шварц пишет, что после проверки более 100 различных сайтов:
«Это обновление предназначено для сайтов с низким качеством контента, но приносят доход больший, чем помощь своим пользователям.
Подавляющее большинство URL-адресов, которыми я поделился, показывают веб-сайты одного типа. Контент-сайт, часто в формате блога, но не всегда, с контентом по различным темам, который выглядит написанным для целей ранжирования, а затем содержит рекламные и / или партнёрские ссылки, разбросанные по всей статье. Многие из этих сайтов не являются отраслевыми экспертными сайтами, а скорее имеют контент по широкому кругу тем, которые не добавляют столько ценности, сколько уже написали другие сайты в этой отрасли.
Во многих случаях контент оборачивается вокруг рекламы, где зачастую объявления немного сложно отличить от контента. В других случаях рекламы становится меньше или вообще нет, а скорее выручка за счёт партнёрских моделей, потенциальных клиентов или других возможностей.»
Из этого следует, что создание сайтов с контентом низкого качества, цель которых получение денег от рекламы, не предоставляя полезной информации посетителям невозможно оптимизировать так, чтобы в поисковой выдаче Google.
57 фактор. Автоматически сгенерированный контент
Контент «автоматически сгенерированный» – это контент, созданный программным способом. В тех случаях, когда он предназначен для манипулирования поисковым рейтингом и не помогает пользователям, Google может предпринять отрицательные воздействия с таким контентом. Автоматически сгенерированный контент включает:
· Текст, который не имеет смысла для читателя, но может содержать ключевые слова для поиска.
· Текст переведён с помощью автоматизированного инструмента без проверки человеком без редактуры и корректуры.
· Текст генерируется с помощью автоматизированных процессов, таких как цепочки Маркова (последовательность случайных событий с конечным или счётным числом исходов, характеризующаяся тем свойством, что, говоря нестрого, при фиксированном настоящем будущее независимо от прошлого).
· Текст, созданный с использованием автоматических методов синонимизации или перестановки слов в предложении.
· Текст, сгенерированный из очищающей ленты Atom / RSS или результатов поиска.
· Сшивание или комбинирование контента с разных веб-страниц без добавления достаточного значения.
Google ненавидит авто сгенерированный контент. Если они подозревают, что ваш сайт откачивает контент с других сайтов, это может привести к штрафу или деиндексированию.
58 фактор. Копии частей контента на разных страницах сайта
«Содержимое, которое копируется, но немного отличается от оригинала – отрицательный фактор. Этот тип копирования затрудняет поиск точного соответствия исходного источника. Иногда меняются только несколько слов или меняются целые предложения, или делается модификация «найти и заменять», где одно слово заменяется другим во всем тексте. Эти типы изменений намеренно выполняются, чтобы затруднить поиск исходного источника контента. Мы называем этот контент «скопированным с минимальными изменениями, и как правило не учитываем его при ранжировании».
Руководство по оценке качества поиска Google Март 2017.
Часто на сайтах услуг, которые оказываются в разных городах, создаются страницы с одним и тем же текстом, но меняется только название города.
Повторяющийся контент – это отрицательный фактор для всего сайта. Когда поисковые системы сканируют много URL-адресов с одинаковым (или очень похожим) контентом, это может вызвать ряд проблем с SEO.
1. Пользователи должны пробираться через слишком много дублированного контента, поэтому могут пропустить часть уникального контента.
2. Крупномасштабное дублирование может привести к снижению ранга всего сайта, т.к. один вес страницы будет распределяться на все копии. Например, ремонт смартфонов оказываются в пяти районах города. Создано пять страниц контента, в которых меняется только название района. С точки зрения геозависимости очень здорово, потому что пользователь, набрав «ремонт смартфона в промышленном районе» попадает на страницу, оптимизированную под этот район. Но страниц с мало изменённым текстом – пять, поэтому вес каждой страницы составляет пятую часть.
3. Увеличивает время ранжирования всего сайта за счёт того, что будут индексироваться копии, а не информативные веб страницы. Интернет-магазины часто для увеличения количества товаров делают для каждого размера и / или цвета отдельные страницы. Так ранжируются карточки одного и того же товара в то время, как другой товар ждёт своей очереди.
4. Но даже если контент имеет рейтинг, поисковые системы могут выбрать неправильный URL как «оригинал». Использование canonicalization помогает контролировать дублированный контент.
59 фактор. Дубли или копии страниц на сайте
Дубли или копии – это одна и та же страница сайта, которая открывается по нескольким разным адресам.
Копии страниц чаще всего возникают, когда:
· Движок системы управления содержимым сайта (CMS) автоматически генерирует дубликаты страниц.
Например, http://site.net/press-centre/cat/view/identifier/novosti/ http://site.net/press-centre/novosti/.
· Для Google одна и та же страница, например,
http://site.net/press-centre/novosti/ – со слешем в конце http://site.net/press-centre/novosti – без слеша в конце считается, как 2 разные страницы, т.е. дубли.
· Один и тот же товар представлен в нескольких категориях. Например, костюм может быть в категории костюмы, в категории бренды, и в категории распродажа.
Например, http://site.net/category-1/product-1/ http://site.net/category-2/product-1/ http://site.net/rasprodaza/product-1/.
· При изменении структуры сайта, когда уже существующим страницам присваиваются новые адреса, но при этом сохраняются их дубли со старыми адресами.
Например,http://site.net/catalog/product http://site.net/catalog/podcategory/product.
· Это происходит, когда каждому пользователю, посещающему веб-сайт, назначается другой идентификатор сеанса, который хранится в URL-адресе.
· Версия для печати содержимого также может вызывать повторяющиеся проблемы с содержимым, когда индексируются несколько версий страниц.