Быстрое развитие ИИ, подпитываемое конкуренцией среди технологических лидеров и различных лабораторий, дает уникальные возможности. Однако они связаны с рисками, масштаб которых требует их срочного урегулирования, подчеркивает эксперт в этой сфере Игорь Мищенко в третьей статье цикла его работ специально для IQ Media. Первая статья автора – Риски ИИ, о которых не знают пользователи. Вторая – Россия – лидер в работе искусственного интеллекта.
Игорь Мищенко
Главный эксперт, частное учреждение «Атомстандарт»
Масштаб разработок в искусственном интеллекте характеризуется динамичным ростом мощности и доступностью актуальных технологий. Уже сейчас многие модели достигли такого уровня, благодаря которому они могут создавать текст, схожий с человеческим, редактировать и переводить его. Есть и модели, которые могут создавать аудиовизуальный контент: видео-, аудиоролики, картинки и пр. Это несет за собой как плюсы, так и минусы. Естественно, развитие креативных индустрий, упрощение их работы будет плюсом. Но не стоит забывать и о возможных рисках – таких, как создание фейков, дезинформации и ее распространения.
Искусственный интеллект может использоваться и в научных открытиях – ускорении разработки лекарств и создании новых материалов для анализа. Благодаря этому медицина будет активно развиваться, как и планирование индивидуального лечения. Вот только, наряду с полезными и спасительными лекарствами, могут быть созданы, наоборот, опасные и вредные препараты или патогенные бактерии.
С помощью ИИ развиваются беспилотный транспорт и робототехника, а, соответственно, безопасность транспорта увеличивается и число аварий может значительно уменьшиться. Ускоряется и развитие промышленности. Но не стоит забывать, что передача полного управления «машине» может привести и к определенным проблемам из-за, к примеру, аварий и сбоев, которые неподвластны человеку.
Эта двойственность является ядром проблемы. С одной стороны, искусственный интеллект открывает пути упрощения работы человека. Но с другой стороны, они могут привести к необратимым последствиям. Мощь, делающая технологии более полезными, одновременно делает их потенциально опасными, особенно если они попадут в руки злоумышленников.
Потенциал развития ИИ рискует превратиться в инструмент ослабления многих сфер жизни. Рассмотрим этот вопрос более детально.
Почему же нельзя предсказать «агрессию» ИИ? Потому что работу моделей искусственного интеллекта попросту невозможно отследить из-за такого свойства, как непрозрачность.
Представленные вызовы и риски действительно могут реализоваться. Технологии искусственного интеллекта, создаваемые лидирующими компаниями, уже сегодня обладают потенциалом для нанесения непоправимого ущерба во многих сферах, подрыва основ приватности и гражданских свобод через инструменты разведки, создание новых угроз и нарушение стабильности финансовой системы. Получается, что безопасное развитие и применение ИИ в ключевых областях невозможно без продуманного плана управления рисками. А игнорирование этих рисков или запаздывание с регулированием могут привести к необратимым последствиям для мировой безопасности и стабильности.
Для профилактики критических ситуаций требуется срочное развитие контроля и стандартов безопасности, а также этических рамок и юридических запретов.
Редактировала Наталия Платонова
В подписке — дайджест статей и видеолекций, анонсы мероприятий, данные исследований. Обещаем, что будем бережно относиться к вашему времени и присылать материалы раз в месяц.
Спасибо за подписку!
Что-то пошло не так!