Top.Mail.Ru
Карьера
Бизнес
Жизнь
Тренды
Изображение создано при помощи модели Шедеврум
Изображение создано при помощи модели Шедеврум

Риски ИИ, о которых не знают пользователи

Ответы на скрытые вызовы

ИИ-революция, помимо радости от нововведений, несет в себе определенные риски и вызовы. Об ответах на них размышляет эксперт в этой сфере Игорь Мищенко. Статья – первая в цикле его работ специально для IQ Media. 

name

Игорь Мищенко

 

Главный эксперт, частное учреждение «Атомстандарт»

Риски манипуляций

Искусственный интеллект перестал быть невообразимой мечтой о будущем, а стал тем, благодаря чему наш мир все больше и больше развивается. Происходят  открытия, которые делают так, что мышление ИИ становится схожим с мышлением человека, как в анализе данных, создании контента, так и в более серьезных вопросах, таких, как принятие решений в науке, промышленности и управлении в принципе. Решения, разрабатываемые создателями отрасли, демонстрируют уникальные возможности. К тому же впечатляет и скорость развития: модели,  которые считались открытием год назад, сегодня уже не являются актуальными. И, естественно, этот прогресс несет с собой огромный потенциал для решения мировых проблем – от изменения климата до разработки новых лекарств.

Однако стремительное развитие и внедрение искусственного интеллекта  порождает не менее масштабные и сложные вызовы в области безопасности, этики и мировой стабильности. 

Радость от нововведений все чаще омрачается пониманием настоящих серьезных рисков, особенно при применении ИИ в очень важных и уязвимых сферах.

Военные системы с использованием элементов автономии могут изменить ход конфликтов и повысить риски их обострения. Разведывательные возможности – такие, как массовый анализ данных и автоматизированная слежка – ставят под угрозу приватность и могут быть использованы для манипулирования. В биологии, кроме ускорения открытия спасительных лекарств, могут быть созданы и опасные бактерии. Финансовые системы, управляемые скрытыми системами ИИ, несут риски масштабных манипуляций, мошенничества и системных сбоев.

Наряду с этими рисками есть и более актуальные вопросы безопасности, которые возникают вокруг самой основы ИИ-революции – возможности создавать текст и распознавать его. Широкая доступность и объединение мощных моделей наталкивают на важные вопросы: существуют ли в них уязвимости безопасности? Возможно ли специальное внедрение лазеек или скрытых функций, которые могут быть использованы разработчиками, государствами или злоумышленниками для неразрешенного доступа, манипуляций или сбора данных? Ответы на эти вопросы, несомненно, влияют на доверие к технологиям и их развитию.

Модель контроля ИИ

В условиях этих вызовов подходы разных государств к развитию, регулированию и контролю над искусственным интеллектом становятся ключевым фактором будущего технологий и международной безопасности. Россия активно позиционирует себя как значимого игрока в этой области. Она разрабатывает собственные стратегии и нормативно-правовую базу, фокусируясь на технологическом суверенитете, контроле над возможностями использования ИИ, обработкой и хранением данных. Эти меры показывают то, с какими приоритетами и проблемами сталкивается наша страна.

Более того, Россия не ограничивается только внутренним регулированием. Она открыто заявляет о себе как лидере в формировании системы международного управления искусственным интеллектом. Страна активно продвигает свое видение на мировых площадках, критикуя «западный» уклад и предлагая альтернативные модели регулирования, основанные на принципах независимости и многосторонности под защитой ООН. Понимание этих идей и мер, предлагаемых Россией для утверждения своего лидерства, необходимо для прогнозирования будущего международного управления ИИ.

На фоне мировой гонки искусственного интеллекта и активно растущих опасений о безопасности, Россия формирует собственную модель развития и контроля ИИ. Эта модель характеризуется тем, что зависит от государства, создания собственных технологий и их регулирования, а также немаловажную роль играет политика защиты персональных данных. Суть этой модели и показывает национальные приоритеты нашей страны.

Опережающее создание норм 

Российское руководство однозначно признает искусственный интеллект стратегической технологией,  которая сможет определить будущее  безопасности страны, способности составлять конкуренцию в экономическом плане и качества управления государством. Это утверждено в актуальном документе – «Национальной стратегии развития искусственного интеллекта на период до 2030 года». В наше время из-за западных санкций и ограничений получения новых технологий (таких, как чипы и различные сервисы) главным стало понятие о технологическом суверенитете. Стоит цель создания собственной национальной среды искусственного интеллекта, которая будет максимально независима от решений других стран. Это включает: 

  • разработку отечественных аналогов зарубежных программ ИИ и программ для облегчения его создания,
  • развитие собственной элементной базы и вычислительной техники, 
  • активную замену программного обеспечения и сервисов во всех секторах, (особенно в госсекторе, оборонно-промышленном комплексе и финансах).

Российский подход к регулированию искусственного интеллекта отличается опережающим созданием норм и правил, с акцентом на контроль и снижение рисков, особенно в плане безопасности и суверенитета.

К примеру, Федеральный закон № 152 «О персональных данных» является, можно сказать, краеугольным камнем. Ведь он требует локализации обработки персональных данных граждан РФ на территории России, а это напрямую затрагивает ИИ-системы, работающие с личными данными и их анализом.

Минэкономразвития и Минцифры активно разрабатывают и актуализируют подходы, причем главным для них является классификация искусственного интеллекта по уровню риска, требования к открытости, безопасности, оценке соответствия. В ближайшие годы также ожидается принятие федерального закона об искусственном интеллекте. Для проверки и тестирования ИИ-решений в реальных условиях с ослаблением норм на определенное время, например, в таких сферах, как  здравоохранение, транспорт или финансы, но под строгим контролем и регулированием, был принят Федеральный закон № 258 об экспериментальных правовых режимах в сфере цифровых инноваций. Такой опыт, несомненно, является ключевым инструментом для введения новшеств без нарушения действующих в государстве законов.

Инициативы по регулированию генерирующего контента ИИ выдвигают Роскомнадзор и Минцифры. Они выступают с предложениями по обязательной маркировке контента, созданного искусственным интеллектом, и ограничению использования зарубежных систем в определенных сферах, чтобы предотвратить утечки данных и обеспечить безопасность гражданам. Также рассматривается создание специального каталога разрешенных сценариев применения искусственного интеллекта, где особое внимание уделяется чувствительным областям, таким, как :

  • госуправление (перевод оказания услуг в цифровой формат, производство аналитики и поддержка решений; но стоит отметить, что все эти технологии требуют надежности и конфиденциальности), 
  • оборона и безопасность (распознавание образов, повышение защиты и безопасности, введение автономных систем; в данной структуре регулирование должно быть более закрытым и жестким), 
  • правосудие (риск предвзятости требует крайней осторожности, использование  искусственного интеллекта для вынесения решений напрямую, скорее всего, будет запрещено или сильно ограничено). 

Если  же говорить о «неэтичных» или «опасных» сценариях, то они, естественно, будут в скором времени запрещены.

Стоит добавить, что требование, указанное в 152-ФЗ, является обязательным. Это значит, что ИИ-системы, обрабатывающие персональные данные россиян, должны работать внутри страны, и это касается как обучения, так и работы на основе имеющихся данных. Также пока ощущается острая нехватка качественных, объемных и актуальных данных на русском языке для обучения новых моделей. Идут попытки создания государственного и корпоративного набора данных, но вопросы об их качестве, легальности сбора и доступа до сих пор остаются открытыми. Существуют инициативы по созданию национального фонда данных для исследователей и разработчиков.

Передача данных за границу вовсе крайне ограничена, особенно для персональных данных и тех данных, которые признаны значимыми для безопасности. Для того, чтобы их раскрыть, по мнению Роскомнадзора, требуется согласие владельца данных.

Если говорить о безопасности систем искусственного интеллекта, то есть регуляторы (по типу ФСТЭК, ФСБ), которые разрабатывают требования к кибербезопасности ИИ-систем, включая защиту от неразрешенного доступа, раскрытия конфиденциальности и моделей, обеспечивающих отказоустойчивость. 

Внедрение ИИ в реальный сектор

Россия уделяет внимание быстрому внедрению искусственного интеллекта в реальный сектор экономики и госуправления, и чаще всего это происходит через национальные проекты и госзаказы. Приоритетными отраслями являются: 

  • госуправление (создание «цифровых профилей» граждан, чат-ботов для госуслуг и анализ данных для прогнозирования будущего, а также для управления  различными территориями и ресурсами);
  • оборона (введение задач распознавания целей, автономных платформ, киберзащита и анализ разведданных);
  • здравоохранение (возможность анализа медицинских изображений, поддержка диагностики, разработка нужных лекарств и управление ресурсами медицинских учреждений);
  • транспорт (внедрение беспилотных технологий, повышение их эффективности и управление маршрутами); 
  • промышленность (выявление неисправностей, улучшение работы производства и повышение внимания к качеству).

Национальная программа «Цифровая экономика РФ», национальные проекты («Производительность труда»), а также финансирование через институты развития  и госкорпорации являются основными для внедрения технологий искусственного интеллекта.

Специфика уникальной модели развития ИИ

Несмотря на то, что Россия показывает хорошие результаты, ее путь развития ИИ все же сталкивается с некоторыми проблемами. Из-за технологического отставания от других стран происходит замедление развития. Нехватка специалистов, нужного оборудования  и данных мешает созданию новых технологий, обходящих другие страны.

Россия создает уникальную модель развития искусственного интеллекта, которая основана на принципах государственного контроля и строгого регулирования, особенно в области данных и безопасности. Акцент на собственных технологиях и внедрении их в государственные сектора является ответом на международные вызовы и позволяет обеспечить безопасность своим гражданам.

Однако путь к технологическому суверенитету в ИИ непрост и связан с базовыми трудностями и рисками. Для их преодоления нужно снизить технологическое отставание, решить проблему с разработчиками и исследователями, а также обеспечить их ресурсами и качественными данными.