Top.Mail.Ru
Карьера
Бизнес
Жизнь
Тренды
Изображение создано при помощи модели Шедеврум
Изображение создано при помощи модели Шедеврум

Этические проблемы использовании ИИ в финансовой сфере

И пути решения
name

Анастасия Углева

Профессор Школы философии и культурологии, заместитель директора Центра трансфера и управления социально-экономической информацией НИУ ВШЭ

Можно сколь угодно долго спорить о возможностях, которые предоставляет искусственный интеллект (ИИ), и об угрозах, от него исходящих, однако нет сомнений, что его внедрение радикальным образом преобразует многие практики повседневной и профессиональной жизни.

Использование ИИ ставит вопросы, от ответов на которые напрямую зависит построение отношений между пользователями ИИ-сервисов, институциональными заказчиками и разработчиками ИИ-решений. Важно понимать, как будет выстраиваться логика развития отдельной сферы их приложения, трансформироваться уже существующие специальности и какие новые компетенции будут закладываться в профессиональные стандарты. 

Этика – это форма мягкого права. Она призвана не столько ограничить, сколько предупредить о возможных рисках и необходимости их минимизации. Кроме того, рефлексия об этических ограничениях в использовании ИИ позволяет проверить на прочность базовые нравственные принципы и стандарты поведения, которые мы используем в повседневной и профессиональной жизни безотносительно к ИИ.

Где риск неэтичного использования ИИ более высок?

Сфера финансов наряду с медициной и информационно-коммуникационными технологиями (ИКТ) входит в тройку лидеров по использованию ИИ и потому заслуживает пристального внимания. Какие этические коллизии провоцирует активное внедрение ИИ в бизнес-процессах, рыночных практиках финансовых организаций и какие возможны пути для их разрешения?

Принято считать, что внедрение ИИ способствует эффективности предоставляемых услуг, в том числе за счет их персонализации и сокращения времени на выполнение рутинных задач. При этом традиционно ставятся вопросы, связанные, например, с проблемами «черного ящика» (непрозрачность принятия решений – Прим. Ред.), конфиденциальности данных, предвзятости алгоритмов, субъекта ответственности в случае допущения ошибки, делегирования права на принятие решения ИИ-системе вне человеческого контроля, социального рейтингования, инклюзии, надежности и безопасности ИИ-системы и т.д. 

За каждой из этих больших проблем, требующих как этического, так и правового решения, стоит несколько других, не менее важных и взаимосвязанных.

Например, эксперименты, подобные социальному рейтингованию в Китае или введению системы «национальной карты» в Венесуэле, могут иметь прямые последствия для кредитного скоринга и провоцировать как явную, так и скрытую дискриминацию.

Возможность заложить в алгоритмы предвзятость, основанную на критериях такого рода рейтингования, например, потенциальных заемщиков (См. доклад Банка России в 2023 г. «Применение Искусственного интеллекта на финансовом рынке» // Банк России), может вести к нарушению принципов автономии, равенства и справедливости, а также требований закона о сохранности персональных данных и тайны частной жизни.

Какую информацию нужно защитить в первую очередь?

Обучение ИИ-моделей на персональных данных требует активного использования методов анонимизации и шифрования данных, обучения, минимизирующего риск их утечки, а также особого внимания к таким чувствительным данным, как религиозные убеждения, сексуальная ориентация, психическое состояние, медицинские данные человека.

Конечно, в интересах и бизнеса и клиентов всесторонне учитывать индивидуальные особенности последних, поскольку применение ML-скоринга в финансах и ритейле не должно ограничивать отдельные группы населения в доступе к тем или иным финансовым услугам. Но утечка персональных данных недопустима!

При этом важно помнить и о принципе открытости, предполагающем, что при обработке данных и их сборе всегда нужно информировать пользователя об их целях и получать его согласие. Такую необходимость хорошо иллюстрируют нашумевшие случаи несанкционированного использования в том числе в интересах финансовых организаций технологий синтезирования голоса и изображений. Такого рода нарушения способны нанести репутационный вред человеку.

Соблюдение принципа открытости и информированного согласия дает шанс не только избежать неолуддизма (критика влияния научно-технического прогресса на человека и общество – прим. ред.) со стороны клиентов, но и повысить уровень доверия к ИИ-технологиям и к бизнесу в целом.

Это же требование касается и использования чат-ботов. Клиент должен быть проинформирован, что общается не с живым человеком, и о тех функциональных ограничениях, которые определяют цели и задачи конкретного ИИ-сервиса.

Как обеспечить баланс между развитием ИИ и защитой данных?

Прозрачность, подотчетность и недискриминация – три кита «этичности» ИИ в финансовой сфере.

Они определяют требования внимательного отношения к фейковой информации при обработке данных, дообучению ИИ, защите данных, недопущению введения клиента или бизнес-партнера в заблуждение как по поводу качества ИИ-системы, ее надежности и безопасности, так и по поводу ее морального устаревания.

ИИ-система, в которой «зашиты» те или иные предвзятости, а также нет гарантий соблюдения прав субъектов персональных данных, может в том числе в процессе переобучения усиливать эту компоненту и принимать решения, провоцирующие, как минимум, недоверие к ИИ, и как максимум – нежелательные психоэмоциональные реакции пользователей или даже групповые социальные конфликты. Углубление недоверия к ИИ естественным образом препятствует прогрессу, что противоречит задаче достижения технологического лидерства и суверенитета РФ.

Почему важен общественный контроль в сфере ИИ?

Эффективный общественный контроль за внедрением ИИ-сервисов в критически важных областях, в том числе в финансовой сфере, – ключевое условие обеспечения доверия общества к ним. Он предполагает экспертную оценку решений о внедрении ИИ-технологий с точки зрения человекоцентричности и рискоориентированности – основополагающих принципов Кодекса этики в сфере ИИ, принятого в РФ в 2021 году.

Кодекс уже подписали 869 компаний и список постоянно дополняется, причем не только со стороны отечественных компаний, ведомств и академических учреждений, но и зарубежных организаций. Многие из них сейчас создают свои этические комитеты, разрабатывают нормативные документы, декларации ценностей, отражающие задачи не только этического регулирования, но и комплаенса. В большинстве транснациональных компаний эта уже привычная практика.

Стоит отметить и важность создания независимых этических комитетов, в составе которых должны быть представители всех заинтересованных сторон. Это позволит дать объективную оценку целесообразности и социальной приемлемости внедряемых ИИ-технологий в критически значимых сферах, а также будет способствовать реальному диалогу между обществом, государством и бизнесом.

Пока что это только декларация о намерениях. Высокий уровень недоверия общества к ИИ объясняется именно тем, что оно не может принимать решений в области научно-технологического развития, напрямую влияющих на образ жизни граждан, их благосостояние. Это антропологический вызов, и нужны усилия, чтобы в погоне за прибылью и оптимизацией бизнес-процессов не утратить человекоориентированность и разумное требование целесообразности внедрения инноваций.

Общественный надзор предполагает возможность отмены человеком значимых решений, принятых ИИ или с его помощью. То есть никакой, даже очень надежной ИИ-системе, не должно быть делегировано право принимать жизненно важные решения, которые могут иметь необратимые последствия, угрожать жизни человека или снижать ее качество. Комплексная этическая оценка рисков ИИ должна стать органичной частью и процедур добровольной сертификации ИИ. Например, в рамках таких экспертных систем, как Интеллометрика НИУ ВШЭ.

Важно подчеркнуть, что сам ИИ не является субъектом моральных отношений, бывают этичные или неэтичные практики его использования.

Тем не менее даже бесстрастный, этически нейтральный ИИ может провоцировать этически значимые следствия. Поэтому так важно разрабатывать отраслевые этические стандарты, которые должны быть использованы на всех этапах жизненного цикла технологии и учитывать требования прозрачности, открытости, недискриминации, защиты данных и справедливости в обеспечении доступа к качественным финансовым услугам.

Редактировала Мария Семенова