Раньше в поисках информации о психологических проблемах, пользователи «гуглили», а теперь все чаще обращаются к виртуальным помощникам. Но самодиагностика – практика крайне сомнительная и рискованная. А вот элементарные ориентиры в сфере психологии бывают нужны. Но успешно ли большие языковые модели информируют пользователей? Об этом в колонке размышляет социолог Оксана Михайлова.
Еще до появления продвинутых моделей ИИ люди без психологического образования активно искали информацию в интернете. Порой это доходило до киберхондрии, когда эти поиски и самодиагностика носили характер зависимости. Все это, естественно, тревожило специалистов, поскольку порой пациенты занимались самолечением и тем самым подвергали себя рискам. А те, кто после чтения интернета все же доходили до психолога, не доверяли суждениям специалиста, приписывали себе несуществующие заболевания и пр. Правда, иногда профессионалы сами побуждали клиентов к поиску, предлагая надежные ресурсы для чтения.
Разработка чатов-помощников на базисе ИИ, на первый взгляд, упрощает поиск информации по психологии. Можно не смотреть длинные ролики, не погружаться в научную литературу и пр.
Автор: Оксана Михайлова
Старший преподаватель кафедры анализа социальных институтов факультета социальных наук НИУ ВШЭ
В сети немало рекомендаций, как пользоваться ChatGPT в психологических и медицинских целях. Вместе с тем, все они говорят о том, что использование ИИ – не проще обычного поиска: нужно уметь составлять поисковые запросы (промты) и оценивать качество полученных результатов. В то же время, инструкции сходятся на том, что ChatGPT может позволить клиентам относительно точно проверять свои симптомы до посещения специалиста, расшифровывать профессиональный жаргон и др.
Научная литература тоже отмечает, что ChatGPT может быть полезен в профессиональной практике психологов, но опять-таки нужно уметь проверять результаты поиска и формулировать максимально конкретные запросы. Посмотрим сами, как большие языковые модели ориентируют непрофессионалов в психологии.
Запросим у двух известных российских моделей ИИ информацию о том, что такое настроение человека и как его определить.
Попробуем сделать запрос еще точнее. Потребуем исследования за 2021–2024 годы на английском языке в самых авторитетных научных журналах (Q1 и Q2 – первого и второго квартиля), индексируемых в базах данных Web of Science и Scopus.
Первая модель ведет себя так: дает более основательный ответ, со ссылками на источники. Правда, приводит не десять наименований, а только три, и отмечает, что не имеет доступа к ряду статей. Второй чат-помощник, по сути, не справился с задачей – не предоставил информации.
Интересно, можно ли доверять источникам, собранным первой моделью? Дело в том, что при повторении запроса перечень названий меняется. Да и ответ, кстати, – тоже. Проверим в Google Scholar, существуют ли эти публикации. Выясняется, что таких статей нет. Это галлюцинации ИИ.
Получается, что пока чаты-помощники недостаточно помогают обывателю в поиске психологической информации. Предлагаемый ими контент нуждается в повышении качества. И уж точно они не заменяют консультации у специалиста. Так что за реальной диагностикой, бесспорно, нужно идти к профессионалу.
В подписке — дайджест статей и видеолекций, анонсы мероприятий, данные исследований. Обещаем, что будем бережно относиться к вашему времени и присылать материалы раз в месяц.
Спасибо за подписку!
Что-то пошло не так!