Top.Mail.Ru
Карьера
Бизнес
Жизнь
Тренды
Изображение создано при помощи модели Шедеврум
Изображение создано при помощи модели Шедеврум

Многозначен ли искусственный интеллект?

Есть риски, требующие быстрого урегулирования

Быстрое развитие ИИ, подпитываемое конкуренцией среди технологических лидеров и различных лабораторий, дает уникальные возможности. Однако они связаны с рисками, масштаб которых требует их срочного урегулирования, подчеркивает эксперт в этой сфере Игорь Мищенко в третьей статье цикла его работ специально для IQ Media. Первая статья автора – Риски ИИ, о которых не знают пользователи. Вторая – Россия – лидер в работе искусственного интеллекта.

name

Игорь Мищенко

Главный эксперт, частное учреждение «Атомстандарт»

Двойственные последствия бума моделей ИИ

Масштаб разработок в искусственном интеллекте характеризуется динамичным ростом мощности и доступностью актуальных технологий. Уже сейчас многие модели достигли такого уровня, благодаря которому они могут создавать текст, схожий с человеческим, редактировать и переводить его. Есть и модели, которые могут создавать аудиовизуальный контент: видео-, аудиоролики, картинки и пр. Это несет за собой как плюсы, так и минусы. Естественно, развитие креативных индустрий, упрощение их работы будет плюсом. Но не стоит забывать и о возможных рисках – таких, как создание фейков, дезинформации и ее распространения.

Искусственный интеллект может использоваться и в научных открытиях – ускорении разработки лекарств и создании новых материалов для анализа. Благодаря этому медицина будет активно развиваться, как и планирование индивидуального лечения. Вот только, наряду с полезными и спасительными лекарствами, могут быть созданы, наоборот, опасные и вредные препараты или патогенные бактерии.

С помощью ИИ развиваются беспилотный транспорт и робототехника, а, соответственно, безопасность транспорта увеличивается и число аварий может значительно уменьшиться. Ускоряется и развитие промышленности. Но не стоит забывать, что передача полного управления «машине» может привести и к определенным проблемам из-за, к примеру, аварий и сбоев, которые неподвластны человеку.

Эта двойственность является ядром проблемы. С одной стороны, искусственный интеллект открывает пути упрощения работы человека. Но с другой стороны, они могут привести к необратимым последствиям. Мощь, делающая технологии более полезными, одновременно делает их потенциально опасными, особенно если они попадут в руки злоумышленников.

Потенциал развития ИИ рискует превратиться в инструмент ослабления многих сфер жизни. Рассмотрим этот вопрос более детально.

Риски в ключевых сферах и непрозрачность моделей

  • В военной сфере есть риск перехода на полную автономность оружия. Системы могут стать самостоятельными, то есть принимать различные решения без ведома человека. Хотя отнюдь не исключено, что ИИ может ошибаться. Усиливаются и риски атак на технику и внедрения в нее вредоносных программ.
  • В сфере разведки и контроля есть риски слежки, передачи геоданных людей без их согласия (для контроля их перемещений). Раскрываются личные данные, а, соответственно, размываются и границы конфиденциальности, к которой все так стремятся. Да и люди порой сами «отдают» свои данные. А ИИ может сгенерировать специальные «приманки» (скажем, фейковые профили, новости, сообщения) для выманивания информации.
  • В сферах биологии и биобезопасности искусственный интеллект может помочь разработать биологическое оружие. Могут быть созданы опасные бактерии. А системы, которые были созданы для синтеза белков, то есть для благих целей, могут использоваться в злонамеренном ключе.
  • В области финансов ИИ может создать системы, которые будут манипулировать современном рынком и заниматься мошенничеством посредством создания фейковых документов, тем самым обманывая не только людей, но и системы безопасности. Искусственный интеллект также занимается поиском уязвимостей в системах банка, что приводит к хищению денег и нарушению стабильности в работе финансовых систем.

Почему же нельзя предсказать «агрессию» ИИ? Потому что работу моделей искусственного интеллекта попросту невозможно отследить из-за такого свойства, как непрозрачность.

План управления рисками

Представленные вызовы и риски действительно могут реализоваться. Технологии искусственного интеллекта, создаваемые лидирующими компаниями, уже сегодня обладают потенциалом для нанесения непоправимого ущерба во многих сферах, подрыва основ приватности и гражданских свобод через инструменты разведки, создание новых угроз и нарушение стабильности финансовой системы. Получается, что безопасное развитие и применение ИИ в ключевых областях невозможно без продуманного плана управления рисками. А игнорирование этих рисков или запаздывание с регулированием могут привести к необратимым последствиям для мировой безопасности и стабильности.

Для профилактики критических ситуаций требуется срочное развитие контроля и стандартов безопасности, а также этических рамок и юридических запретов.

Редактировала Наталия Платонова