Темпы роста искусственного интеллекта поражают. Согласно последнему глобальному отчету Microsoft, менее чем за три года более 1,2 млрд человек начали использовать ИИ. Нейросети активно внедряются в поисковые системы. С их помощью улучшается контекст запросов и предоставляются более точные результаты. Процесс поиска становится персонализированным. Как развивается поиск с нейро? Чего ждать в ближайшем будущем? Как ИИ в поисковых системах влияет на релевантность контента для пользователей и на работу бизнеса? И какие риски стоит учитывать?
Содержание:
Появление Всемирной паутины в 1989 году привело к беспрерывному росту хранилища информации. Это означало, что нужны эффективные механизмы поиска сведений. Так появились поисковые системы.
Работа первых алгоритмов ранжирования (системы, которые выбирают рейтинг мест в результатах поиска с помощью анализа запросов и контента) строилась на ключевых словах и ссылках. Алгоритм PageRank (1998) рассчитывал важность страницы на основе линк-популярности: чем больше ссылок ведут на страницу, тем выше ее рейтинг. Алгоритм Hilltop (2000) основан на специфике работы PageRank, но учитывал также географическое положение и «возраст» документа. Позже алгоритм Brandy (2004) показал новый подход к исследованию ключевых слов: он мог подбирать синонимы запросов.
Если ранние поисковые системы оценивали объем ключевых слов и линк-популярность, то со временем появились фильтры, которые учитывали качество контента, его актуальность и поведенческие факторы. Для этого начали использовать машинное обучение (МО).
Алгоритмы МО анализируют исторические данные о запросах и кликах, что помогает им повысить релевантность результатов для пользователей. В поисковых алгоритмах машинное обучение начали применять в начале 2000-х. Например, система «Матрикснет» в «Яндексе» обучалась на основе образцов, составленных асессорами (специалистами, которые вручную оценивают релевантность поисковой выдачи). Алгоритм применял формулу к списку сайтов, после чего каждый сайт получал числовую оценку, и список упорядочивался по этой оценке.
Внедрение нейросетей в поиск связано с развитием машинного обучения. В «Яндексе» в 2016 году был запущен алгоритм «Палех» на основе нейросетей для ранжирования сайтов. Модель выявляла семантическую близость заголовков веб-страниц и запросов пользователей. Уже в 2017 году было создано обновление «Королёв», там нейросеть применялась не только к заголовкам, но и к текстам. И май 2023 года — анонсирован экспериментальный режим Search Generative Experience (SGE) в «Google». Это генеративный поиск с развёрнутыми AI-ответами и ссылками на источники.
Главная задача SEO-специалиста сделать — такой алгоритм, который будет понимать язык так же, как и человек. И для этого требуется семантический поиск. Он позволяет находить информацию, максимально соответствующую запросу вне зависимости от формулировки. В этом случае анализируются не отдельные слова, а их смысловое значение в контексте.
RankBrain — система машинного обучения, которая анализирует исторические данные поиска, чтобы лучше интерпретировать смысл запросов. А технология QBST используется для определения ключевых слов в поисковом запросе, чтобы лучше понимать его суть. Этот процесс выделения ключевых слов, терминов, называется Term Weighting.
Модель BERT, основанная на трансформаторах, дает новые возможности: она может читать текст в обоих направлениях одновременно. Задача двунаправленности состоит в том, чтобы программа предсказывала, имеют ли два заданных предложения логическую связь между собой, что помогает выявить неточности поискового запроса. Все эти компоненты совместно улучшают релевантность контента.
Алгоритмы поисковых систем формируют работу поиска так, чтобы она приносила максимальную релевантность пользователям. А зачем нужен искусственный интеллект? Разберемся, какие технологии ИИ оказывают влияние на результаты поиска.
Именно BERT обучается двум задачам НЛП: моделированию языка в масках (MLM) и предсказанию следующего предложения (NSP). НЛП (Natural Language Processing) — это направление в машинном обучении, которое направлено на анализ генерирования естественной речи человека. Цель НЛП состоит в том, чтобы понять человеческий язык так, как мы на нем говорим. Например, BERT может предугадывать слова в пробеле.
Для достижения задач НЛП используются трансформеры. Трансформеры — это «простая сетевая архитектура, основанная исключительно на механизмах внимания», пояснили аналитики из лаборатории Google Brain на своем сайте. Отличительная черта трансформеров — возможность работать со всем текстом сразу, а не с отдельными словами по порядку. Это помогает лучше учитывать контекст предложений и словосочетаний.
Ранжирование не может не включать в себя поведенческие факторы человека, потому что именно это помогает повысить понимание запросов и релевантность результатов. Современные алгоритмы способны анализировать множество параметров пользовательского поведения:
Например, Google фиксирует такие поведенческие сигналы: Click-Through Rate, Dwell Time, Pogo-sticking эффект.
Click-Through Rate (CTR) — это отслеживание, как часто пользователи переходят по конкретным сайтам поиска.
Dwell Time — время до возврата в поиск. Это период между кликом по ссылке сайта и возвратом к поисковой выдаче. Если для коротких ответов оптимальный показатель - 15-30 секунд, то для подробных инструкций и объемных текстов - 2-5 минут. Когда пользователь быстро перемещается с сайта на сайт по одному и тому же вопросу, речь идет о pogo-sticking эффекте. Это сигнал того, что пользователь не может найти релевантную информацию.
Таким образом, технологии ИИ направлены на то, чтобы сделать информацию более подходящей для человека, а лучше - для конкретного пользователя. Тогда стоит говорить о персонализации контента.
Персонализация контента через машинное обучение — это процесс, направленный на автоматическую адаптацию элементов сайта или приложения на основе поведенческих факторов, предпочтений и других данных о пользователе. Алгоритмы собирают данные о человеке: геолокация, демографические сведения, история покупок, поведение. Затем происходит анализ данных и сегментация аудитории по небольшим группам со схожими характеристиками. Для каждого пользователя или небольшой группы разрабатываются индивидуальные рекомендации по товарам или маркетинговые рассылки.
Казалось бы, как еще можно сделать поиск удобнее, когда алгоритмы сами предоставляют нам сайты с нужной информацией? Но генеративный поиск не останавливается на этом. Сегодня можно получить ответ на самый обширный вопрос в двух предложениях. Генеративный поиск — это технология, при которой ИИ (Алиса, ChatGPT, Gemini) в ответ на запрос за несколько секунд анализирует тысячи источников информации и формирует ёмкий ответ в поисковой выдаче. Пользователь получает так называемый «answer box». Это короткие и четкие ответы на вопросы, например о погоде, курсе валют и т.д.
Ответ на запрос может быть выдан в разных форматах - сниппетах. Сниппеты — это блоки в поисковике с ответами на запрос пользователя. Они делятся на текстовые ответы, маркированные и нумерованные списки, таблицы, видео и фото. Когда ответ получен, но вопросы остались, нам необязательно возвращаться в поисковик, ведь алгоритмы уже подготовили для нас часто задаваемые вопросы по интересующей нас теме. Это FAQ-сниппеты — расширенные сниппеты в поисковой выдаче, которые отображаются на страницах с микроразметкой FAQ (Frequently Asked Questions).
Панели знаний обычно расположены справа от результатов поиска. Они обобщают информацию об объекте, личности или явлении. Данные могут включать в себя изображения, ключевые факты.
5.1 Изначально поисковые системы ориентировались на ключевые слова. Каждое слово искалось по отдельности. Сейчас же алгоритмы могут выявлять связи между словами и понимать их значение в целом предложении. Это помогает обрабатывать в том числе и голосовые запросы, где речь не всегда будет грамотно выстроена.
Эти возможности создают переход от ключевых слов к намерениям пользователя. Поисковой интент (search intent) — это цель, которая есть у пользователя во время ввода запроса.
Любой продукт должен чем-то регламентироваться, пусть даже формально. Для контента существует оценка важности E-A-T. Руководитель отдела брендинга в digital-агентстве Stik Роман Ковалев приводит интересную аналогию с коктейлем, где «все ингредиенты идеально сочетаются между собой, создавая вкус, который заставляет вас заказать еще одну порцию». И контент-маркетинг создает такой коктейль, где E-A-T - главные ингредиенты.
Экспертиза (E) — это глубокое понимание темы и умение транслировать ее аудитории. Авторитетность (A) или уважение в глазах аудитории - это понятно. Но как ее создать? Создать ее можно только с помощью знаний, а вот усилить помогут ссылки на авторитетные источники, а также отзывы и рекомендации коллег.
И последний ингредиент - доверие (Trustworthiness). Если оно присутствует, то к этому контенту будут возвращаться. Укрепить доверие можно актуальностью и прозрачностью контента: нельзя скрывать ошибки и неудачи, их нужно признавать перед своей аудиторией.
Коммуникационное агентство FAVES Communications провело аналитику по поводу того, насколько информации, сгенерированной нейросетью в поисковой выдаче, достаточно для удовлетворения запроса пользователя. 28,0% опрошенных ответили, что им достаточно ответов нейросети. 23,6% пользователей используют полученную от ИИ основу для дальнейшего поиска информации. Всего лишь 6,6% пользователей категорически отказываются от ответов нейросетей, так как сомневаются в их правильности. Оставшимся 24,7% не приходилось использовать возможности поисковых систем с нейросетью.
Однако скорость получения информации не всегда оправдывает результат. Например, в 2023 году адвокат Стивен Шварц из Нью-Йорка воспользовался ИИ для подготовки к судебному делу. Разбирательсво касалось компании Avianca Airlines и пассажира, получившего травму во время рейса. Стивен Шварц должен был защищать пострадавшего. ИИ предложил несколько прецедентов, но все они оказались вымышленными, поэтому адвокату пришлось признаться в использовании ИИ. Суд назвал этот ресурс недостоверным источником информации.
В Columbia Journalism Review была проанализирована работа нейросетей в поисковых системах и чат-ботах. В исследовании были задействованы ChatGPT Search (от OpenAI), Perplexity, Deepseek Search, Microsoft Copilot, Grok и Gemini от Google. Результаты показали, что нейросети дают неверные ответы на 60% запросов. Perplexity ошиблась в ответах на 37% запросов, а у Grok 3 вовсе процент ошибок достиг 94.
Нейросети помогают быстро проанализировать большие объемы данных. Но чтобы избежать неудачных ситуаций, какая приключилась с адвокатом Стивеном Шварцом, необходимо перепроверять информацию, сгенерированную ИИ.
А что, если я скажу, что у ИИ бывают «галлюцинации»? Да-да, они, действительно, существуют. В научной работе «Why Language Models Hallucinate», опубликованной в сентябре 2025 года компанией OpenAI, доказано, галлюцинации ИИ — это не сбой, а предсказуемый вариант ответа. Почему это происходит? Модель учится анализировать огромные массивы данных, но она не умеет отделять правду от лжи. А все потому, что галлюцинации заложены в процесс обучения языковых моделей, оттого ИИ выбирает похожий вариант на тот, с которым он уже знаком.
Однако есть и альтернативный позитивный взгляд. Специалист поисковой оптимизации OK.ru Сергей Карпухин прокомментировал этот феномен нейросетей: «В генеративных ответах поисковых систем галлюцинации встречаются не часто, поскольку ответы основаны на контенте сайтов, ранжирующихся по данному запросу (не всегда 100% сайтов в ответе находятся в топе, но в данном случае это не так важно)».
Существуют иные риски, связанные с работой нейро в поиске. Так, фальсификация или SEO-poisoning (отравление поисковых систем) — это технология, которая используется мошенниками для продвижения своих вредоносных сайтов. Они используют такие методы как копирование чужого рейтингового сайта или переспам ключевыми, но лишними словами, чтобы так же манипулировать рейтингом. Такой контент может вводить в заблуждение и понижать релевантность.
Снижение охватов различных сайтов, в частности, новостных — одно из естественных последствий внедрения нейросетевых ответов в поисковые сервисы. Аналитики FAVES Communications изучили открытые данные сервиса LiveInternet и выяснили, что суммарное количество просмотров сайтов Рунета в сентябре снизилось на 10,0% по сравнению с тем же периодом 2024 года и на 14,1% по сравнению с январем 2025 года. В категории «Новости и СМИ» зафиксировано снижение на 3,3% и на 17,0% соответственно.
Есть запросы, по которым такого блока ещё нет, но их становится всё меньше. Главная задача поисковиков — удержать пользователя на платформе, а для этого нужно сразу выдать ему готовый, исчерпывающий ответ. В результате в некоторых тематиках пользователи вообще перестают переходить на сайты: они получают всё, что нужно, прямо в нейроблоке.
Чтобы контент лидировал в поисковой ленте, необходимо адаптироваться под прямые ответы и featured snippets. Алгоритмы подбирают наиболее четкий и лаконичный ответ. Как адаптироваться под прямые ответы:
1) давать ответ в первом абзаце текста;
2) избегать длинных вступлений;
3) ориентироваться на формат в зависимости от запроса
Featured snippets (выделенные фрагменты) отличаются от прямых ответов тем, что отвечают на запрос более развернуто, ссылаясь на источники информации. Если автор контента подстроится под систему прямых ответов, то ссылка на его источник попадет на страницу выдачи. Чтобы угодить featured snippets, необходимо все то же самое, а также ответы на часто задаваемые вопросы, которые обычно отображаются в сниппетах: «Как», «Почему», «Каким образом».
Когда мы чем-то заняты, а нам нужно срочно узнать прогноз погоды, адрес ближайшей аптеки или сколько по времени выпекать пирог, мы обращаемся к голосовому помощнику. Существует несколько голосовых помощников, например Siri от Apple, Алиса от Яндекса, Google Ассистент и Alexa от Amazon.
Как сделать так, чтобы именно твой контент был использован голосовым помощником? Для этого существует система оптимизации для голосового поиска. Сергей Карпухин предлагает в своем Rutube-канале несколько критериев адаптации к поисковому роботу. И первое самое главное — это скорость загрузки сайта. Второе - проверка домена. Чем старше доменное имя, тем выше доверие поисковых систем. Третье — подключение SSL-сертификат. Это электронный документ, который защищает передачу данных между браузером и сервером. И последнее - включить микроразметку schema.org. В ней содержатся структурированные данные, которые добавляются в HTML-код сайта. Так поисковый робот понимает, что обозначает каждая часть контента, и предоставляет информацию пользователям. Обычно включает важную информацию: часы работы, адрес, отзывы, способы связи.
Очевидно, что задача поисковых систем — максимально замкнуть трафик внутри себя и без крайней необходимости не делиться им с другими игроками, в том числе с издателями контента, комментирует специалист поисковой оптимизации OK.ru Сергей Карпухин. Касается это не только Яндекса с его Алисой в поиске, но и Google, у которого существует свой AI Overviews. И здесь зарыт краеугольный камень: генеративные ответы в поисковых системах базируются на авторском контенте, а еще и на генеративном контенте, выдающем себя за авторский, который в свою очередь недополучает трафик из поисковых систем, поскольку пользователи могут получить ответ прямо на странице поисковой выдачи. Если авторы получают меньше трафика, то они меньше зарабатывают с рекламы и, в общем, все выглядит как порочный круг. Особо вдумчивые читатели могут поискать судебные дела в США и Европе между авторами контента и Гугл, где первые пытаются запретить Гуглу использовать их контент для генеративных ответов на безвозмездной основе. От решения будет зависеть многое. Мы находимся на этапе активного развития новой технологии, правила работы с которой формируются на наших глазах. В целом же, в ближайшей перспективе мы продолжим наблюдать гибридную поисковую выдачу, состоящую из генеративных ответов и традиционных ссылок на сайты, кликабельность которых неумолимо падает, а следом за ней и трафик», - Сергей Карпухин.
Нейросети значительно упрощают жизнь обычному массовому пользователю, а значит, они продолжат развиваться и дальше. Авторам контента необходимо соблюдать определенные правила, чтобы добиться высоких рейтингов в поисковой ленте, то есть выполнить свою главную задачу - количество переходов на сайт. А пользователи не должны забывать о рисках, с которыми они могут столкнуться, пока мир искусственного интеллекта еще продолжает свое активное развитие и претерпевает значительные изменения.
Автор: Полина Девуцкая
В подписке — дайджест статей и видеолекций, анонсы мероприятий, данные исследований. Обещаем, что будем бережно относиться к вашему времени и присылать материалы раз в месяц.
Спасибо за подписку!
Что-то пошло не так!