Технологии ИИ не только помогают человеку разбираться в информации и выполнять различные задачи, но и начинают оказывать социальное влияние. Мир на пороге, когда текстовые большие языковые модели (LLM) эволюционируют в мультимодальные коммуникационные модели (MCM). В новой колонке кандидат психологических наук Ольга Абрамова рассказывает об исследованиях в области ИИ-коучинга и о том, как люди воспринимают виртуальных наставников.
Ольга Абрамова
Кандидат психологических наук, социальный психолог, антрополог, старший преподаватель Департамента психологии НИУ ВШЭ, коуч со специализацией в инновационном лидерстве в IT, куратор и председатель жюри направления «Психология» во Всероссийском конкурсе исследовательских работ «Высший пилотаж»
Позвольте задать вопрос, от которого веет легким флером антиутопии: что, если бы самый убедительный для вас человек на свете был вашей собственной, слегка усовершенствованной, копией? Тот, кто разделяет ваши взгляды, манеру речи, культурный бэкграунд и гендер?
Смею заверить, это не далекое будущее. Это уже настоящее, которое активно изучают в лабораториях по всему миру, и последние исследования бросают вызов нашим привычным представлениям о лидерстве, доверии и природе влияния.
Пришло время поговорить о том, как искусственный интеллект учится быть не просто умным, но и социально влиятельным.
Недавно вышло исследование, в ходе которого ученые из Мичиганского университета создали виртуальных агентов-коучей, способных вести беседы о здоровье. Представьте: вы надеваете VR-шлем и оказываетесь в уютной гостиной. Напротив вас сидит человек, почти человек. Он улыбается, смотрит на вас, кивает. Вы говорите ему о своих пищевых привычках, он отвечает, задает вопросы, делится «личным» опытом. Это описание реального эксперимента 2025 года, в котором объединили ИИ (LLM - большие языковые модели вроде GPT-4) и аватары, чтобы создать иллюзию живого общения. Речь идет о воплощенных разговорных агентах (Embodied conversational agents (ECA)). Это прото-личности, цифровые хамелеоны, способные принять любую оболочку, создавая иллюзию межличностного контакта.
Классика социальной психологии (теория социальной идентичности, теория схожести) настаивает, что мы охотнее доверяем тем, кто на нас похож. Этот принцип, известный как гомофилия, лег в основу гипотезы: «Если виртуальный коуч будет одного с вами пола, вы станете чаще смотреть на него, выше оцените его и… выберете орехи (здоровое питание) вместо печенья после беседы».
Что же оказалось на деле? Сходство сработало, но не так, как ожидалось. Да, участники замечали, что агент похож на них внешне. Но вот заставило ли это их чаще смотреть на него? Вовсе нет. Мужчины дольше смотрели на женских агентов, а женщины — на мужских. И здоровый перекус чаще выбирали после беседы с агентом противоположного пола. Предположение, что «похожесть = приятность», не подтвердилось.
Кроме того, женщины в среднем оценивали виртуальных коучей как более приятных, вне зависимости от их пола. Это прекрасно вписывается в целый пласт исследований, показывающих, что женщины зачастую более восприимчивы к технологиям и склонны давать им более высокие социальные оценки. Мужчины же проявили большую «строгость». Полезный нюанс для тех, кто проектирует системы, предназначенные для взаимодействия с людьми, — аудитория не едина, ее реакции зависят от ее собственной идентичности.
Участники, общавшиеся с агентом противоположного пола, чуть чаще склонялись к выбору фруктов или орехов (полезного питания). Это наводит на мысль, что в контексте коучинга и мягкого убеждения фактор новизны и притягательности «другого» может быть даже сильнее, чем утешительное чувство идентичности с «похожим на нас».
Эра, когда один и тот же интерфейс, один и тот же бот или одна и та же программа обучения подходили всем, безвозвратно уходит. Будущее за гиперперсонализацией не только контента, но и коммуникатора. Цифровой HR-коуч, учитель или финансовый советник будет подбирать не только слова, но и свою визуальную презентацию, голос и, возможно, даже паттерны невербального поведения, исходя из личностного профиля пользователя. И, как показывает исследование, иногда самым эффективным стилем может оказаться не зеркальное отражение пользователя, а его целенаправленно подобранная «противоположность».
Данное исследование — лишь первый, робкий шаг в новом мире. Мы стоим на пороге, когда текстовые большие языковые модели (LLM) эволюционируют в мультимодальные коммуникационные модели (MCM). Они будут генерировать не только текст, но и тон, мимику, жест, создавая целостный, неотразимо убедительный образ.
Здесь возникает этический вопрос. Если алгоритм, зная глубинные психологические данные человека, может принять облик самого доверительного для него персонажа, — где границы манипуляции? Одно дело, когда текстовый бот сухо советует сменить фонд инвестиций, и совсем другое — когда это делает виртуальная копия или симпатичный пользователю образ. Нам, как обществу, предстоит выработать новые правила игры, чтобы персональное убеждение осталось экологичным.
Стоит ли нам бояться? Пожалуй, нет. Стоит ли быть внимательными и осознанными? Безусловно. Сила искусственного социального влияния — это просто инструмент. Наша задача — научиться им мастерски владеть и установить правила, чтобы им не воспользовался тот, кто не должен.
Редактировала Марина Селина
В подписке — дайджест статей и видеолекций, анонсы мероприятий, данные исследований. Обещаем, что будем бережно относиться к вашему времени и присылать материалы раз в месяц.
Спасибо за подписку!
Что-то пошло не так!