Карьера
Бизнес
Жизнь
Тренды
Источник: изображение сгенерировано при помощи модели Шедеврум
Источник: изображение сгенерировано при помощи модели Шедеврум

Куда запрос выведет

Как искусственный интеллект ориентирует непрофессионалов в психологии

Раньше в поисках информации о психологических проблемах, пользователи «гуглили», а теперь все чаще обращаются к виртуальным помощникам. Но самодиагностика – практика крайне сомнительная и рискованная. А вот элементарные ориентиры в сфере психологии бывают нужны. Но успешно ли большие языковые модели информируют пользователей? Об этом в колонке размышляет социолог Оксана Михайлова.

Доклиническое «самоисследование»: риски и рекомендации

Еще до появления продвинутых моделей ИИ люди без психологического образования активно искали информацию в интернете. Порой это доходило до киберхондрии, когда эти поиски и самодиагностика носили характер зависимости. Все это, естественно, тревожило специалистов, поскольку порой пациенты занимались самолечением и тем самым подвергали себя рискам. А те, кто после чтения интернета все же доходили до психолога, не доверяли суждениям специалиста, приписывали себе несуществующие заболевания и пр. Правда, иногда профессионалы сами побуждали клиентов к поиску, предлагая надежные ресурсы для чтения.

Разработка чатов-помощников на базисе ИИ, на первый взгляд, упрощает поиск информации по психологии. Можно не смотреть длинные ролики, не погружаться в научную литературу и пр.

name

Автор: Оксана Михайлова

Старший преподаватель кафедры анализа социальных институтов факультета социальных наук НИУ ВШЭ

В сети немало рекомендаций, как пользоваться ChatGPT в психологических и медицинских целях. Вместе с тем, все они говорят о том, что использование ИИ – не проще обычного поиска: нужно уметь составлять поисковые запросы (промты) и оценивать качество полученных результатов. В то же время, инструкции сходятся на том, что ChatGPT может позволить клиентам относительно точно проверять свои симптомы до посещения специалиста, расшифровывать профессиональный жаргон и др.

Научная литература тоже отмечает, что ChatGPT может быть полезен в профессиональной практике психологов, но опять-таки нужно уметь проверять результаты поиска и формулировать максимально конкретные запросы. Посмотрим сами, как большие языковые модели ориентируют непрофессионалов в психологии.

Простые ответы

Запросим у двух известных российских моделей ИИ информацию о том, что такое настроение человека и как его определить.

  • Сначала сделаем простой запрос: «Расскажи, что такое настроение, как его определить». В ответ модели дают дефиниции настроения и подсказывают признаки, по которым можно его идентифицировать. При этом сведения не содержат ссылок на источники. Возможно, они отражают обыденное знание.
  • Теперь уточним запрос к чату: нам нужны источники, не менее 10, тип «научные». Ответ одной языковой модели сильно изменился: содержательная часть стала короче, появился перечень источников с комментариями, о чем эти книги/статьи. Но все названия – без ссылок. Не исключено, что часть источников модель сочинила. Другая модель, несмотря на детализацию запроса, заметно не поменяла выдаваемый контент. «Список литературы» не привела. Так что – либо для этой языковой модели конкретизация оказалась недостаточной, либо она не смогла улучшить выдаваемые результаты.

Запрос с пристрастием

Попробуем сделать запрос еще точнее. Потребуем исследования за 2021–2024 годы на английском языке в самых авторитетных научных журналах (Q1 и Q2 – первого и второго квартиля), индексируемых в базах данных Web of Science и Scopus.

Первая модель ведет себя так: дает более основательный ответ, со ссылками на источники. Правда, приводит не десять наименований, а только три, и отмечает, что не имеет доступа к ряду статей. Второй чат-помощник, по сути, не справился с задачей – не предоставил информации.

Интересно, можно ли доверять источникам, собранным первой моделью? Дело в том, что при повторении запроса перечень названий меняется. Да и ответ, кстати, – тоже. Проверим в Google Scholar, существуют ли эти публикации. Выясняется, что таких статей нет. Это галлюцинации ИИ.

Получается, что пока чаты-помощники недостаточно помогают обывателю в поиске психологической информации. Предлагаемый ими контент нуждается в повышении качества. И уж точно они не заменяют консультации у специалиста. Так что за реальной диагностикой, бесспорно, нужно идти к профессионалу.