Top.Mail.Ru
Карьера
Бизнес
Жизнь
Тренды
Изображение создано при модели Шедеврум
Изображение создано при модели Шедеврум

Какое будущее нас ждет?

Многое зависит от путей управления ИИ

Развитие искусственного интеллекта достигло момента, когда его огромный потенциал оказался неотделим от возможных вызовов мировой безопасности и стабильности. Анализ, проведенный исследователями, позволяет сформулировать выводы и наметить контуры будущего, рассуждает Игорь Мищенко в пятой статье цикла его работ специально для IQ Media. Первая статья автора – Риски ИИ, о которых не знают пользователи. Вторая – Россия – лидер в работе искусственного интеллекта. Третья – Многозначен ли искусственный интеллект. Четвертая – Насколько безопасен ИИ?
 

name

Игорь Мищенко

Главный эксперт, частное учреждение «Атомстандарт»

Вызовы и риски

Сейчас развитие ИИ достигло той точки, в которой его огромный потенциал для прогресса стал неотделим от возможных вызовов мировой безопасности и стабильности. Сформулируем важные выводы и очертим контуры неизбежного будущего.

Из-за искусственного интеллекта во многих сферах жизни могут возникнуть масштабные проблемы.

  • В военной сфере могут происходить киберконфликты и нарушение стабильности в целом.  
  • В разведке вероятна тотальная слежка, естественно, без ведома пользователя.
  • В биологии возможно возникновение биологических угроз.
  • В финансовой сфере могут начаться кризисы и будет развиваться мошенничество. 

И эти риски, безусловно, необходимо предотвращать.

(Не)преднамеренные уязвимости

Многие считают, что уязвимости ИИ могут быть созданы разработчиками только специально. Однако так ли это на самом деле? Стоит сказать, что это не всегда так.

Да, наличие таких лазеек напрямую влияет на безопасность, утечку данных и раскрытие конфиденциальности. Но они могут появиться и непреднамеренно – из-за ошибки в самой программе. К тому же, наличие специально внедренных уязвимостей в ИИ официально не подтверждено. Как бы то ни было, закрытость и непрозрачность работы искусственного интеллекта вызывает недоверие и вопросы у пользователей.

Российская модель: жесткое регулирование и безопасность персональных данных

Если говорить об отечественной модели, то она характеризуется жестким регулированием работы технологий и безопасностью персональных данных. Это показывает, что для нашей страны приоритетны, в первую очередь, безопасность граждан и их доверие.

Но Россия сталкивается и со сложностями, связанными с нехваткой кадров и технологических ресурсов. Для того, чтобы российская модель добилась успеха, придется ответить на эти вызовы.

Наша страна активно борется за лидерство в создании глобальной системы ИИ. К тому же, Россия отвергает инициативы стран Запада и продвигает свою модель под эгидой ООН, связанную с многосторонностью, равным участием всех стран и юридическими ограничениями. Через дипломатию в ООН, БРИКС и ШОС, внесение собственных резолюций, поиск союзников в незападном мире и разработку национальных стандартов Россия стремится стать центром силы, способным блокировать западные инициативы и защищать право на собственный путь технологического развития.

Прогноз: конкуренция, фрагментация и императив диалога

Вероятнее всего, будущее глобального управления искусственного интеллекта будет определяться нарастающей конкуренцией между странами и их различными подходами к регулированию.

Не исключено, что уже скоро мы станем свидетелями формирования нескольких конкурирующих блоков – западного, китайского и суверенитето-центричного (во главе с Россией). Каждый блок будет развивать свои стандарты безопасности, этики, защиты данных и сценариев использования искусственного интеллекта. Это противостояние создаст сложности для глобальных компаний и повысит риски их продвижения.

Несмотря на разные подходы в регулировании ИИ, риски все же остаются прежними, особенно в военной сфере, биобезопасности и стабильности глобальных систем. Поэтому странам, пусть и конкурирующим между за собой, необходим поиск точек соприкосновения, чтобы ослабить эти риски. Среди таких точек соприкосновения, например, – прекращение гонки вооружений с помощью ИИ, отказ от использования нейросетей для разработки биологического оружия.

Скорость развития искусственного интеллекта, несомненно, опережает способность регуляторов и политиков адекватно реагировать. Поэтому стоит внедрить непрерывный, независимый и глубокий мониторинг этого прогресса, его социально-экономических последствий и возникающих рисков безопасности. Это становится не просто рекомендацией, а обязанностью для всех ответственных игроков. Требуются также постоянные усилия по прогнозированию, оценке и адаптации политик на основе новых данных.

Путь управления ИИ во многом определит наше будущее

В заключение стоит отметить, что искусственный интеллект – не просто технология. Это зеркало, отражающее ценности, амбиции и геополитические расколы. Путь, который человечество выберет для его управления, – через конфликт или примирение, через универсальные ценности или суверенитет, – определит не только эффективность борьбы с мировыми рисками, но и наше будущее. Странам нужно искать точки соприкосновения для предотвращения угроз, недопущения их проявления в реальном мире для поддержания стабильности.

Редактировала Наталия Платонова