Об этом сообщает РБК со ссылкой на пять источников, которые знакомы с инициативой.
В частности, законопроект предлагает создать классификацию систем ИИ по уровню потенциального риска – «с неприемлемым, высоким, ограниченным и минимальным уровнем риска». Авторы инициативы предлагают запретить в стране «разработку и эксплуатацию систем ИИ, относящихся к категории с неприемлемым уровнем риска, то есть создающих угрозу безопасности личности, общества и государства, а также нарушающих основополагающие права и свободы человека и гражданина». Системы с высоким уровнем риска применяют в здравоохранении, транспорте, финансах, правоохранительной деятельности и других сферах. В этом случае предлагается введение обязательной госрегистрации и сертификации. При ограниченном уровне риска необходимы системы внутреннего контроля качества и добровольная сертификация, указано в документе.
Также законопроект предусматривает введение требований к маркировке систем ИИ. Она должна быть «явной, недвусмысленной и легко идентифицируемой». Исключение – ИИ «в закрытых технологических процессах, для внутренней автоматизации организаций» и некоторых других.
Ранее сообщалось о том, что Китай утвердил новые правила для маркировки контента, сгенерированного нейросетями. С 1 сентября такие материалы должны будут содержать скрытые метки в метаданных.
Источник: rbc.ru