Карьера
Бизнес
Жизнь
Тренды
Злой? Плохой? Хороший!

Злой? Плохой? Хороший!

16 ноября 2023 года в Москве пройдёт «Форум этики в сфере искусственного интеллекта: Поколение GPT. Красные линИИ», одним из докладчиков на нём станет ректор НИУ ВШЭ Никита Анисимов. Тема форума остроактуальная, ведь сегодня развитие искусственного интеллекта (ИИ) — не только технологический прорыв, меняющий современную жизнь, но и в определенном смысле новый виток в эволюции людей. Как развитие технологий соотносится с человеческими ценностями, где граница между волей человека и выбором, навязанным машиной, насколько продвинулась сегодня дискуссия относительно этической стороны развития ИИ — на эти вопросы попытались ответить и исследователи-философы из НИУ ВШЭ Диана Гаспарян, Дмитрий Турко и Елена Бессчетнова в своей новой статье в журнале «Вопросы философии». IQ.HSE ознакомился с их работой и рассказывает, к каким выводам пришли учёные.

В рамках «Форума этики в сфере искусственного интеллекта: Поколение GPT. Красные линИИ» пройдёт сессия «Применение этических принципов в работе исследовательских центров искусственного интеллекта: в чем ответственность ученых за будущее?»

Шесть исследовательских центров в сфере ИИ, созданные на базе ведущих научно-образовательных организаций (Сколтех, Университет Иннополис, Университет ИТМО, НИУ ВШЭ, МФТИ, ИСП РАН) проводят фундаментальные и прикладные исследования, реализуют комплексные проекты совместно с индустриальными партнерами. По поручению Президента их поддержка должна быть продлена до 2030 года, а до конца 2023 года будет поддержано еще не менее 6 отраслевых центров в сфере ИИ.

Вопросы для обсуждения:

 Какие принципы применяются в прикладных и фундаментальных исследованиях, где возникают риски развития неэтичного ИИ?

 Как предотвратить нарушения этики использования ИИ в работе исследовательских центров?

 Является ли объяснимость решений ИИ краеугольным камнем этичности?

Модератор:

 Сергей Наквасин — директор Национального центра развития искусственного интеллекта при Правительстве Российской Федерации

 Спикеры:

 Арутюн Аветисян — директор Института системного программирования им. В.П. Иванникова Российской академии наук

 Никита Анисимов — ректор Национального исследовательского университета «Высшая школа экономики»

 Константин Воронцов — заведующий кафедрой математических методов прогнозирования МГУ им. М.В. Ломоносова

 Михаил Гордин — ректор МГТУ им. Н.Э. Баумана

Место философии в развитии ИИ

Искусственный интеллект (ИИ) меняет современную жизнь настолько быстро, что люди не всегда успевают это замечать. И если некоторое время назад преобладали оптимистические оценки цифрового будущего, то в настоящее время отчетливо осознан сценарий пессимистических прогнозов развития цифровых технологий и ИИ.

Одна из причин пессимизма заключается в том, что человек погружается во всё бо́льшую зависимость от сетевых структур. Это происходит на фоне делегирования искусственному интеллекту повседневных задач. Сохранить контроль над ИИ в подобных условиях — один из вызовов для человечества.

Исследователи ссылаются на Рэймонда Курцвейла, футуролога, изобретателя, автора книги «Сингулярность близко», технического директора в области машинного обучения и обработки естественного языка в Google. Он полагает, что потеря контроля человека над управленческими решениями искусственного интеллекта выйдет далеко за пределы возможных злоупотреблений крупными бенефициарами ИИ.

«Согласно концепции “технологической сингулярности” в эволюционную логику развития ИИ встроен принцип разрыва, после которого человеческий интеллект утратит возможность понимать устройство цифрового интеллекта», — отмечают исследователи.

Они обращают внимание, что, согласно экспертным оценкам, интеллектуальные системы перейдут к сверхинтеллекту менее, чем через 30 лет после разработки высокоуровневого машинного интеллекта. Вероятность того, что это развитие окажется «плохим» или «чрезвычайно плохим» для человечества, составляет примерно один к трём.

Подобные теории обсуждают на разных уровнях — социологическом, правовом, иногда психологическом, и, естественно, в СМИ и кинематографе, которые транслируют вполне конкретные образы. Например, человекоподобный ИИ, который способен уничтожить человечество. Но, по мнению авторов, крайне редко используются возможности философской рефлексии.

Основная ценность систем ИИ в том, что они могут выполнять определенные специализированные задачи не хуже, а зачастую и лучше человека. По мере возрастания данных возможностей, возрастают и страхи, а также представления о возможных угрозах.

«Данная ситуация представляет собой определенный философский интерес, так как страх перед искусственным существом носит сложный, и возможно, сконструированный характер», — пишут авторы. Они отмечают, что сама идея «страха перед ИИ» пока так и не получила философского толкования: «Такие, по-настоящему философские сюжеты, как свобода воли, злонамеренность воли, основания подобной злонамеренности практически не обсуждаются исследователями».

Модификация человека, утрата навыков и свободы выбора

Сегодня технологии окружают человека с самого рождения и фактически встраиваются в антропогенез. Возможность планомерной модификации человеческой природы в ходе систематического взаимодействия с ИИ — один из факторов риска развития искусственного интеллекта, отмечают исследователи.

Риски развития ИИ в настоящее время изучаются на достаточно высоком уровне. Например, в 2005 году в Оксфорде открыли Институт будущего человечества, директором которого стал ведущий философ в области ИИ и экзистенциальных рисков человечества Ник Бостром. А в Кембридже в 2012 году появился Центр по изучению экзистенциальных рисков со сходной исследовательской повесткой.

Ещё в начале 1980-х японский футуролог Ёнэдзи Масуда писал, что прогресс в сфере цифровых технологий трансформирует каждого человека в потребителя данных и технологий вне зависимости от его воли и желания. Сегодня цифровая трансформация явила человека с особым способом потребления. Он уже не представляет своё существование без онлайн-услуг, онлайн-развлечений, общения онлайн, онлайн-образования, телемедицины. Таким образом, современный человек зависим от новых технологий.

«В действительности подобная имплантация потребностей является плохо обратимой, так как не дополняет навыки человека, но преобразует их в определенные формы. Это вызывает сразу два эффекта — стирание прошлых возможностей и потерю определённой части компетенций», — пишут авторы. Казалось бы, подобное характерно для любого развития техники, но учёные отмечают, что возрастание влияний цифровых технологий имеет особые черты и своеобразные появления.

Помимо таких проблем, как ослабление внимания, памяти, изменение в языковых компетенциях, процесс трансформации навыков ведёт к ещё более глобальным последствиям. А именно — формированию у людей определенного набора предпочтений и навязыванию нужного выбора.

Исследователи приводят в пример простую ситуацию, когда ИИ может советовать пользователю, какой фильм посмотреть на основании множества оценок. «Со временем система может менять вкусы пользователя. Отлаженный механизм сформированного лично для нас выбора способствует тому, что пользователь перестает осуществлять самостоятельный поиск и утрачивает навыки независимой оценки материала», — пишут авторы.

Страх конкуренции с ИИ

Несмотря на то, что искусственный интеллект ещё далек от того, чтобы обогнать по уровню своего развития человеческий, человек-эксперт уже сегодня опасается конкуренции с системами ИИ. Такая тенденция имеет все основания на усиление. Учёные отмечают, что, например, если то или иное медицинское или правовое решение вынесено на основании огромной базы репрезентативных выборок, то человек-эксперт принимает решение не возражать машине и не конкурировать с ней.

«Интересно, что это решение человека целиком основано на определенной парадигме знания — позитивизме и эмпиризме сциентистского типа, согласно которому рост числа эмпирических случаев означает рост экспертности и достоверности заключения», — пишут авторы. Однако простое количественное накопление может не привести к росту экспертности. Тем не менее человек-эксперт, заявляя о своём нежелании соперничать с машиной, демонстрирует именно описанную выше логику. Такого рода ситуации, по мнению исследователей, вызывают очень много вопросов относительно проблемы доверия ИИ, а также того, как оно выстраивается на индивидуальном и общественном уровне.

Этические вызовы, или как согласовать ИИ с человеческими ценностями

Важно обеспечить соответствие систем ИИ человеческим ценностям, принятым в том или ином обществе или культуре, считают авторы. «Успешное согласование ценностей должно гарантировать принцип, что общий ИИ не сможет преднамеренно или непреднамеренно выполнять действия, которые отрицательно влияют на людей», — пишут они.

Учёные обращают внимание, что правильно согласованный с ценностями алгоритм ИИ предполагает учёт различных форм неэтичного или неразумного поведения. Инженерные принципы должны быть нацелены на то, чтобы технически не допускать и предотвращать такое поведение.

Правда, перед разработчиками стоит непростая задача. Её, по мнению авторов, затрудняет культурный и религиозный плюрализм, невозможность формирования единого универсального этического кодекса. Сюда же добавляется отсутствие единого языка описания для обсуждения этических аспектов ИИ.

Что такое «хорошее» поведение систем ИИ — ещё предстоит определить. Очевидно, что это должно быть поведение, которое не является несправедливым по отношению к определенным лицам или не дискриминирует определенные группы. Учёные обращают внимание, что для изучения поведения машин необходима глобальная программа научных исследований, которая расширяет дисциплину компьютерных наук и включает в себя идеи из других направлений, в том числе социальных и гуманитарных.

Искусственный интеллект или искусственная интуиция?

Несмотря на обозначенные проблемы, нельзя сказать, что ценности — это то, что остаётся за пределами научных работ, касающихся технологического прогресса. Учёные давно интересуются взаимосвязью между человеческими ценностями и ценностями в разработке технологий. Например, этот интерес направлен на изучение того, как разработка сохраняет расовые, гендерные и прочие иерархии.

Крайне важным философы видят вопрос о том, каким образом определенные способы морального мышления могут внедряться в конкретные способы разработки технологий.

В философском понимании истинная целенаправленная деятельность представляет собой некоторую внутреннюю деятельность. Во-первых, как поясняют авторы, она свободная. Во-вторых, ориентированная на ценности. В-третьих, принимающая во внимание аффекты и эмоции. В-четвёртых, самопрограммируемая, то есть способная к самостоятельной формулировке цели система.

Нравственные принципы, согласно философскому пониманию, не организованы иерархически. Люди часто принимают ценностно значимые решения интуитивно. То есть механизмы таких решений изначально непрозрачны. «В некоторых критических ситуациях люди отказываются от рационального контроля в принципе и предпочитают опираться на внутренние и непрозрачные слои психики, которые функционируют именно потому, что они были отработаны на множестве ситуаций и на множестве примеров научились вырабатывать самые оптимальные алгоритмы решения, и этим напоминают решения, которые принимает машина», — пишут исследователи.

Возможное сходство с ИИ, по их мнению, заключается не в рациональности, а как раз в иррациональности. «И в той степени, в какой мы в опасной ситуации можем начать доверять нашей интуиции и нашему подсознательному, мы можем допускать и возможность опереться на эти машины как на продолжение не нашей рациональности, а нашей интуитивности», — размышляют философы. Это может быть одним из способов работы с ИИ не как с искусственным интеллектом, а как с искусственной интуицией.

Особое внимание в работе обращается на проблему трактовки свободного действия: «Многие исследователи говорят, что непрозрачный алгоритм можно интерпретировать как носителя этического действия, потому что у него есть свое неподконтрольное, неформализуемое программистами процессуальное действие». Но понятие свободы, включенной в действие, не тождественно случайности: «Для философов случайность не тождественна свободе, а квант, хоть и не детерминирован, все же не свободен».

Нужен более обширный этический разговор

Подобные расхождения, как считают исследователи, необходимо прояснять и делать предметом обсуждения. «Ведь то, что для философа интуитивно тривиально, для большинства носителей натуралистической картины мира контринтуитивно, и требуется дополнительное интеллектуальное усилие, чтобы важное с философской точки зрения различие между синтаксисом и семантикой принималось во внимание», — пишут они.

Постановка этических вопросов должна меняться в зависимости от областей взаимодействия, но пока, как отмечают философы, стоит говорить об этической проблематике в рамках взаимодействия человека и машины. Они выделяют три области, где это взаимодействие происходит:

 когда человек использует какие-то средства в качестве помощника для решения задач и удовлетворения потребностей;

 когда системы ИИ используются для контроля за действиями человека;

 когда технологии выступают нормальной социокультурной практикой, причем долгосрочной, перманентной, всесторонней и регламентирующей все стороны жизни человека.

Столь разные сферы требуют разработки разного типа нормативности.

Авторы обращают внимание, что если обычные технологии порождают этические проблемы на стадии использования, то системы ИИ — уже на стадии разработки. Поэтому стандартные приёмы прикладной этики здесь не вполне применимы. «Это видно уже на таких примерах, как беспилотные автомобили, летальное оружие, отбор персонала, анализ данных в маркетинге и др. Алгоритмы могут быть предвзятыми, дискриминационными, бесчеловечными, распространять человеконенавистнические идеи и приводить к негативным последствиям», — пишут исследователи.

Вопрос этичности, по их мнению, здесь стоит ставить с самого начала — по аналогии с биоэтикой. При этом важно не доверять всю деятельность по разработке этических нормативов людям, которые сами разрабатывают алгоритмы.

Включение цифровых технологий в естественные формирующие практики необратимо. И это свидетельствует о необходимости более широких дебатов вокруг этического развития ИИ. Эти дебаты, как считают философы, должны быть сфокусированы на социальной справедливости и человеческом процветании на основе равенства. Но именно этого пока не хватает в соответствующих подходах и концепциях.
IQ
 

Авторы исследования:
Диана Гаспарян, профессор, главный научный сотрудник Школы философии и культурологии факультета гуманитарных наук НИУ ВШЭ
Дмитрий Турко, стажер-исследователь школы философии и культурологии Национального исследовательского университета «Высшая школа экономика» НИУ ВШЭ
Елена Бессчетнова, доцент, старший научный сотрудник НУЛ трансцендентальной философии и Школы философии и культурологии факультета гуманитарных наук НИУ ВШЭ
Автор текста:Селина Марина Владимировна,15 ноября, 2023 г.