Регистрация Восстановление пароля
Cover Image

Госдеп остался недоволен положениями готовящегося закона ЕС об ИИ и переписал их

  
 6 Октябрь 2023    Аналитика

В рамках «сотрудничества и унификации общих ценностей» Госдеп США переписал европейцам ряд положений готовящегося закона об искусственном интеллекте (ИИ), утверждая, что в случае, если правки не будут учтены, конкурентоспособность компаний из ЕС, создающих ИИ-системы, понизится, сообщает Bloomberg со ссылкой на собственные источники.

В мае, напомним, Европарламент согласовал новые положения законопроекта об искусственном интеллекте (AI Act).

Документ содержит положение о том, что создатели генеративных базовых моделей, таких как ChatGPT, будут должны выполнять дополнительные требования для обеспечения прозрачности — указывать факт создания контента при помощи ИИ, разрабатывать модель применения ИИ таким образом, чтобы не допустить генерацию незаконного контента, а также публиковать сведения о защищённых авторскими правами данных, использованных при обучении ИИ-систем.

Госдеп США в этой связи предупредил ЕС, что закон негативно скажется на деятельности небольших компаний, для которых издержки, связанные с выполнением новых норм, будут ощутимее по сравнению с крупными компаниями. В этом случае, полагают американцы, эти небольшие компании уйдут из Европы на другие рынки (читай – в США). Более того, Госдеп предупредил EC о том, что принятие законопроекта грозит Евросоюзу потерей рабочих мест и инвестиций.

В ряде положений AI Act, по мнению американских чиновников, содержатся «расплывчатые и не имеющие устоявшихся определений термины». Кроме того, Госдепу не понравилось, что Европарламент сконцентрировался на вопросе разработки моделей ИИ, т.е. на том, как и на каких данных обучают ИИ-системы. США вместо этого хотели бы, чтобы «ЕС использовал подход, фокусирующийся на рисках, связанных с тем, как эти модели используются на деле».

Разница европейского и американского подходов к контролю ИИ-систем

В этом контексте американский подход состоит в следующем: неважно, как ИИ-систему сделали, важно, как она работает.

Недостаток такого подхода состоит в том, что ИИ – не алгоритмическая система, залезть к ней «под капот», что проконтролировать работу, невозможно. Контролировать ИИ-систему «изнутри» полностью, очевидно, вообще нельзя.

Контроль состава данных для обучения ИИ-систем, как это определено законом ЕС, даёт больше понимания о том, чего следует ожидать от ИИ-системы, и позволяет избежать рисков на стадии проектирования.

Возражения США, которые решило высказать внешнеполитическое ведомство этой страны, связаны не с опасениями того, что компании – разработчики ИИ-систем поедут в американскую юрисдикцию. Такая перспектива США должна, наоборот, радовать. Дело в другом. Законодательство ЕС создаёт препятствия для бесконтрольного применения ИИ-систем, и это может стать проблемой для американских поставщиков ИИ-сервисов.

Во многом аналогичная ситуация имела место в связи с «безопасной гаванью». Этим термином обозначалось разрешение американским IT-компаниям получать и хранить у себя принадлежащие европейцам данные, в том числе персональные.

Предположение о том, что американцы используют эти данные для обучения ИИ-систем, не выглядит фантастическим. Это только один, в данном случае гипотетический, пример того, почему США возражают против требований ЕС публиковать сведения о том, как ИИ-системы обучались.

См. также:

  • Стратегия Совета Европы в отношении искусственного интеллекта >>>
  • США и ЕС подписали соглашение о сотрудничестве в области технологий искусственного интеллекта >>>