Когда Криштиану Роналду запустил YouTube-канал, всего за полтора часа на него подписались 1 млн человек, через сутки подписчиков было уже почти 20 млн, а через неделю – 50 млн. Таких темпов создания контента и вовлечения пользователей не было никогда раньше. Объем доступной информации растет лавинообразно и сориентироваться в ней мы можем только с помощью цифровых навигаторов – инструментов для поиска. Разбираемся, как они трансформируются и эволюционируют.
Софья Приворотская
Главный эксперт Центра стратегической аналитики и больших данных Института статистических исследований и экономики знаний НИУ ВШЭ, кандидат экономических наук
Содержание
Самый привычный для нас способ найти нужную информацию –классические «поисковики» (Google, Yandex и др.). В ответ на запрос пользователя они выдают перечень ссылок, где потенциально может быть релевантная информация. Принцип их работы построен на индексации находящегося в сети контента. Однако такой подход не всегда соответствует современным ожиданиям – мы хотим быстро получать максимально точный и конкретный ответ. Сейчас же зачастую приходится просмотреть десяток предложенных ссылок, содержание которых порой дублируется и искажается из-за рекламного и SMM-контента. Особенно остро эта проблема возникает при поиске информации для профессиональных или исследовательских задач.
Альтернативой в последние годы стали умные чаты и ассистенты. ИИ-сервисы для создания контента только недавно ворвавшиеся в нашу повседневную жизнь уже весьма гармонично вписались в нее. В интуитивно понятном режиме диалога за считанные секунды мы получаем не просто разрозненный набор ссылок (как при обычном поиске), а готовую формулировку ответа. Однако зачастую и этот результат требует дополнительной перепроверки, особенно в части фактологии.
Мировые гиганты, такие как OpenAI, Microsoft и DeepSeek, борются за возможность сделать свои продукты максимально мощными и экономичными. Вместе с тем большие языковые модели или LLM (те, что «под капотом» у инструментов ИИ-генерации) имеют и определенные ограничения. Одно из самых обсуждаемых – «необъяснимость» и невозможность проверить достоверность полученной информации. Что становится особенно критично, когда речь заходит о принятии важных решений на базе этой информации, например в сфере безопасности, здоровья и т.д. Одним из способов преодолеть это ограничение стали нейросетевые модели RAG (Retrieval-Augmented Generation).
RAG совмещает преимущества инструментов генерации и поисковых систем. Механизм работы включает два основных шага: 1) извлечение информации (Retrieval) и 2) генерация ответа (Generation). То есть, получив запрос от пользователя, система на базе RAG сначала ищет релевантные документы и фрагменты текста в базе знаний либо в интернете, а затем генерирует осмысленный ответ, опираясь на найденную информацию. И что самое важное – каждый тезис в полученном ответе подтверждается ссылкой на источник данных. Это минимизирует вероятность галлюцинаций (создания выдуманных фактов), чем не редко «грешат» сгенерированные LLM тексты.
Для пользователя это выглядит очень просто. В привычном формате поисковой строки формулируем интересующий нас вопрос. В ответ – получаем складный текст, каждый тезис которого сопровождается кликабельной ссылкой на источник, где можно подробнее ознакомиться с подтверждающей информацией.
Для большей наглядности приведу пример. Сравним три разных подхода к представлению информации в ответ на запрос «Какие профессии будут востребованы в 2050 году?». Первый вариант – традиционная поисковая система (на примере Яндекс), второй – генерация на базе ChatGPT и третий – RAG-модель сервиса Perplexity. Ключевое отличие последнего сразу бросается в глаза: здесь мы получили текст, напоминающий мини-исследование с ссылками, которые подтверждают его достоверность.
Появление RAG-моделей расширило и трансформировало понимание возможностей поиска в интернете (либо в любой другой базе данных). Преимущества этой архитектуры стимулируют изменения и в альтернативных подходах к обработке информации. Ее элементы уже внедряются и в поисковых системах (например, функция «поиск с нейро» в Яндексе), и в генеративных чатах (например, опция «искать в сети» в GPT-4o). Постепенно все три метода поиска и подачи информации начинают сближаться.
RAG становится незаменимым помощником для умного и гибкого поиска в большом массиве данных. Базой для него может стать как все информационное пространство интернета, так и узкоспециализированная подборка документов, например юридических или медицинских. По этому принципу, к примеру, работает ИИ-ассистент исследователя на базе iFORA, разработанный нашей командой. Используя тщательно отобранную «эталонную» базу источников, он позволяет быстро находить и анализировать актуальные тренды, технологии и прогнозы.
Помогая ориентироваться в обилие окружающей нас информации, ИИ создает прочную основу для анализа и принятия решений. Благодаря этому человек (будь то менеджер, аналитик, врач или руководитель бизнеса) фокусируется на основном – осмыслении результатов и выработке соответствующего им плана действий.
***
Подробнее узнать о том,как внедрять нейросети в повседеневную работу, можно узнать на программах дополнительного профессионального образования «Искусственный интеллект» и программах по обучению работе с анализом данных.
В подписке — дайджест статей и видеолекций, анонсы мероприятий, данные исследований. Обещаем, что будем бережно относиться к вашему времени и присылать материалы раз в месяц.
Спасибо за подписку!
Что-то пошло не так!