Законный вопрос: откуда Google знает, какие синонимы, термины и сопутствующие слова соответствуют не только всей теме, но и конкретному запросу. Не забывайте, что есть искусственный интеллект, со своей первоначальной базой.
И далее в Google индексе сотни миллиардов страниц (а может и больше), и, анализируя эти страницы, искусственный интеллект постоянно пополняет эту базу данных.
Если Google видит, что с набором определенных групп слов станица пользуется у посетителей популярностью, её цитируют, то из таких страниц и выбираются дополнительно LSI-фразы, и пополняют базу данных.
Более сложный процесс ранжирования сайтов, когда длинный запрос (такие запросы называются запросами с длинным хвостом), и никогда прежде не вводился.
Проблема в том, что Google обрабатывает почти четыре миллиарда запросов в день. В 2007 году Google заявил, что до 25 процентов этих запросов никогда раньше не видел. В 2013 году эта цифра снизилась до 15 процентов, о чем сообщал Bloomberg, и Google подтвердил это. А к концу 2021 года таких запросов осталось 13%.
Но 13 процентов из 4 миллиардов – это по-прежнему огромное количество запросов, которые никогда не вводил ни один человек. Это почти пол миллиарда новых запросов в день.
Среди них могут быть сложные запросы, состоящие из нескольких слов, которые также называются «длинными хвостами».
RankBrain разработан, чтобы помочь лучше интерпретировать эти запросы, чтобы найти лучшие страницы для поисковика.
Как утверждает Google, он может улавливать закономерности между, казалось бы, не связанными сложными запросами, чтобы понимать, насколько они на самом деле похожи друг на друга. Это самообучающая программа, в свою очередь, позволяет лучше понять будущие сложные поиски, и их связь с конкретными темами. Самое главное, исходя из того, что Google сообщил нам, он может затем связать эти группы поиска с результатами, которые, по его мнению, понравятся пользователям.
Google не предоставляет примеры групп поиска и не даёт подробных сведений о том, как RankBrain угадывает, какие страницы являются лучшими. Но последнее, вероятно, объясняется тем, что, если он может перевести неоднозначный поиск во что-то более конкретное, он может затем ранжировать и выводить лучшие ответы.
Я сделал такое длинное описание, что бы было понятно, что какой-то прыщавый копирайтер не получит высокой оценки за свою работу после анализа его статьи Google RankBrain, если в ранжировании учувствуют специалисты из области, в которой мальчик написал статью.
Но хорошо подготовленный специалист в своей статье раскроет тему так, что его статья будет высоко позиционироваться по нескольким ключевым фразам. Google RankBrain, как хороший специалист видит уровень написанного текста. Да он не понимает текст, а поэтому прыщавый копирайтер уже не может навешать ему лапшу на уши.
Алгоритм Google BERT
BERT: Сравнительно новый алгоритм Google, который обещает революцию в поисковой выдаче
Google уже стал настолько сложной частью жизни людей, что многие из нас общаются непосредственно с ним.
Пользователи делают запросы: «как мне попасть на рынок» или «когда начнется весна», как будто они естественно разговаривают с человеком. Но стоит помнить: Google состоит из алгоритмов, которые упакованы в фильтры.
И это один из тех алгоритмов – Google BERT – который помогает поисковой системе понять, о чем просят люди, и дает ответы, которые они хотят.
Правильно: боты не люди, но технологии настолько продвинулись вперед, что могут понимать человеческий язык, включая сленг, ошибки, синонимы и языковые выражения, присутствующие в нашей речи, а мы даже не замечаем.
Этот новый поисковый алгоритм был создан Google, чтобы лучше понимать поисковые намерения пользователей и содержание веб-страниц.
Но как это работает? И как это влияет на ваши стратегии SEO?
Давайте все сейчас разберемся:
Что такое Google BERT?
Google BERT – это алгоритм, который улучшает понимание человеческого языка поисковой системой.
Это важно во вселенной поиска, поскольку люди спонтанно выражают себя в поисковых запросах и содержании страниц, а Google работает над тем, чтобы найти правильное соответствие между одним и другим.
BERT – это аббревиатура от Bidirectional Encoder Representations from Transformers (двунаправленных представлений кодировщика от трансформеров). Сбивает с толку? Давайте объясним это лучше!
Чтобы понять, что такое BERT, нам нужно разобраться с некоторыми техническими терминами, хорошо?
Во-первых, BERT – это нейронная сеть.
Вы знаете, что это такое?
Нейронные сети – это компьютерные модели, вдохновленные центральной нервной системой животных, которые могут обучаться и распознавать закономерности. Они являются частью машинного обучения.
В случае BERT нейронная сеть способна изучать формы выражения человеческого языка. Он основан на модели обработки естественного языка (NLP), называемой Transformer, которая понимает отношения между словами в предложении, а не просматривает их по очереди.
BERT – это предобучающая модель обработки естественного языка. Это означает, что набор данных модели обучается в текстовом корпусе (например, в Википедии) и может использоваться для разработки различных систем.
Например, можно разработать алгоритмы, ориентированные на анализ вопросов, ответов или настроений.
Все это находится в области искусственного интеллекта. То есть все делают боты!
После программирования алгоритм непрерывно изучает человеческий язык, обрабатывая миллионы получаемых данных.
Но помимо мира искусственного интеллекта, который больше похож на научную фантастику, важно знать, что BERT понимает весь контекст слова – термины, которые идут до и после, и отношения между ними – что чрезвычайно полезно для понимания содержания сайтов и намерения пользователей при поиске в Google.
Когда был выпущен BERT?
В ноябре 2018 года Google запустила BERT с открытым исходным кодом на платформе GitHub.
С этого момента каждый может использовать предварительно обученные коды и шаблоны BERT для быстрого создания собственной системы.
Сам Google использовал BERT в своей поисковой системе. В октябре 2019 года Google объявил о своем самом большом обновлении за последнее время: внедрении BERT в алгоритм поиска на английском языке.
Google уже принял модели для понимания человеческого языка, но это обновление было объявлено одним из самых значительных скачков в истории поисковых систем.
Изначально BERT был запущен только в США и на английском языке. Но к декабрю 2019 года модель уже была расширена до более чем 70 языков. Таким образом, результаты поиска по всему миру стали более качественными.
Что такое НЛП?
Если кто-то думает, что здесь речь пойдет о нейро-лингвистическом программировании, то нет. Здесь рассматриваем другое НЛП.
Чтобы объяснить, что такое BERT, мы упомянули, что этот алгоритм является моделью обработки естественного языка (NLP).
НЛП – это область искусственного интеллекта, которая сходится с лингвистикой при изучении взаимодействия человека и вычислительных языков. Намерение состоит в том, чтобы заполнить пробелы между одним языком и другим и заставить их общаться.
Этот тип системы существует уже давно, начиная с работы Алана Тьюринга в 1950-х годах.
Но именно в 1980-х годах модели НЛП оставили свои рукописи и были внедрены в искусственный интеллект. С тех пор компьютеры обрабатывают большие объемы данных, что произвело революцию в отношениях между людьми и машинами.
Мы можем не замечать этого в нашей повседневной жизни, но наше вербальное выражение чрезвычайно сложно и разнообразно.
Существует так много языков, синтаксических правил, семантических отношений, сленгов, поговорок, сокращений и ежедневных ошибок, что порой люди едва понимают друг друга!
Это становится еще сложнее для компьютеров, поскольку мы используем для них неструктурированный язык, которому затем нужны системы, чтобы понять его.