Законопроект о регулировании искусственного интеллекта, который готовится правительством РФ к внесению в Госдуму, претерпел значительные изменения по сравнению с версией, опубликованной ранее для общественного обсуждения, выяснила "Российская газета", ознакомившись с текущей версией документа. Среди принципиальных новшеств - уточнены требования к суверенным и национальным моделям, они стали более сбалансированными. Кроме того, из документа убраны пункты, которые трактовались экспертами как потенциально ведущие к запрету в России иностранных нейросетей. Скорректированы и требования по маркировке генеративного контента.
Законопроект, который разрабатывает Минцифры под кураторством профильного вице-премьера Дмитрия Григоренко, должен задать понятную правую рамку для развития технологии. Документ впервые закрепляет в законодательстве понятие "искусственный интеллект" (ИИ) и ряд смежных с ним терминов. При этом требования к системам ИИ зависят от степени их влияния на жизнь человека и общество. Кроме того, он вводит в оборот такие понятия, как суверенная, национальная и доверенная модели искусственного интеллекта.
В ходе доработки, отмечают собеседники "РГ", близкие к разработке документа, шла активная работа по сбору и обобщению позиции бизнеса, использующего ИИ в своей работе. Обмен мнениями проходит на площадке АНО "Цифровая экономика", координирующей этот процесс. Как результат - обновленная версия заметно отличается от того, с чего начиналась дискуссия, в сторону более реалистичного регулирования.
"Видим в законопроекте потенциал стать полезным инструментом для развития и применения ИИ. Регулирующие органы открыты к диалогу с отраслью - это позволяет дорабатывать проект документа, выстраивая долгосрочные правила с учетом баланса интересов заинтересованных сторон. Рассчитываем, что при дальнейшей работе этот баланс будет сохранен", - комментируют работу над документом в пресс-службе "Яндекса".
Ключевая новация, заметная по документу, заключается в изменении и уточнении требований к национальным и суверенным моделям ИИ. Если ранее требовалась полная локализация - чтобы модель была создана исключительно гражданами России, на российской территории и из данных российского происхождения, то теперь достаточно, чтобы разработчик был российским юрлицом и сам определял и изменял существенные характеристики. Таким образом, фокус переносится с "происхождения модели" на контроль над ключевой технологией.
"Разработчиком является российское юридическое лицо; существенные характеристики модели искусственного интеллекта, определенные Правительством Российской Федерации, в том числе ее структура, программное обеспечение и настраиваемые параметры, определяются и изменяются российским юридическим лицом, являющимся разработчиком данной модели", - говорится в обновленной ст 7.
"Критерии для отечественных ИИ-моделей не должны быть дополнительными ограничениями для разработчиков таких моделей, с учетом огромной международной конкуренции и наличия открытых моделей на рынке, на это и было направлено большинство замечаний бизнеса, которые были учтены в ходе работы над законопроектом", - отмечают в Ассоциации больших данных.
Документ впервые закрепляет в законодательстве понятие "искусственный интеллект" и ряд смежных с ним терминов.
Скорректирована и ст. 8, которая ранее требовала, чтобы все модели, используемые в государственных системах и критической инфраструктуре, были включены в реестр доверенных моделей. Эксперты опасались, что эта мера могла стать своеобразным "бутылочным горлышком", затормаживающим развитие ИИ в стране.
"Реестр доверенных моделей из восьмой статьи перестал быть угрозой для всей индустрии. В предыдущей редакции он читался как будущий контроль над любой ИИ-системой в стране. Теперь в нем прописаны только большие фундаментальные модели и только в значимых объектах критической инфраструктуры и государственных информационных системах, что выводит из-под угрозы коммерческую часть рынка", - говорит Алексей Парфун, руководитель, сооснователь Ai influence, вице-президент АКАР.
Собеседники отмечают более четкое разделение использования ИИ в госсекторе и использования ИИ в коммерческих целях, что должно снять избыточную регуляторную нагрузку с бизнеса. Ранее Правительство подтверждало возможность бизнеса для своих внутренних задач использовать любые модели ИИ. Договоренность нашла свое подтверждение и в обновленной редакции законопроекта, при этом уточненные критерии гарантируют практическую применимость и возможность подтверждения статуса модели ИИ.
Что касается доверенных моделей, то к ним будут относиться модели искусственного интеллекта, имеющие подтверждение соответствия требованиям по информационной безопасности, установленным ФСТЭК России и ФСБ России, и включенные в соответствующий реестр.
Скорректировано требование оказывать услуги без использования ИИ при наличии такого запроса. Теперь оно направлено только на госорганы и приравненными к ним структуры. Это требование не распространяется на коммерческие организации, подтверждает собеседник "РГ", близкий к разработке законопроекта. "При этом правительством могут быть определены критерии, в соответствии с которыми продавцы, исполнители услуг, а также иные лица, которые осуществляют действия, порождающие юридические последствия, с использованием технологий искусственного интеллекта без участия человека, обязаны информировать об этом потребителей и иных лиц", - поясняет он.
Обращает на себя внимание то, что из документа исключен подпункт "г" пункта 10.3, отсылающий к обязанностям организаторов распространения информации. Речь шла о том, что ИИ-сервисы с суточной аудиторией более 500 тыс. человек обяжут хранить на территории РФ информацию о пользователях в течение трех лет. Кроме того, исключены пункты об ограничениях трансграничной передачи данных ИИ. Именно на основе этих пунктов экспертами строились гипотезы о возможном запрете в России иностранных моделей, таких как ChatGPT или Claude.
Урегулирован ряд вопросов, касающихся ответственности разработчиков моделей за результаты их использования. Ранее в документе говорилось о том, что разработчики должны предусматривать такие последствия. "Статья 11 закрывает вопрос, который меня беспокоил больше всего. Если пользователь использует сервис против закона, а владелец выполнил все требования, - владелец не несет ответственности", - говорит Алексей Парфун.
Скорректирована и норма, затрагивающая вопросы использования публичных данных для обучения нейросетей. Эти вопросы вызывают ожесточенную дискуссию. С одной стороны, разработчики нейросетей обеспокоены тем, что они могут лишиться возможности обучать свои модели на открытых данных, с другой - создатели "открытых данных" в целом ряде обращений к авторам законопроекта выражали обеспокоенность тем, что "права правообладателей контента приносятся в жертву так называемой свободе обучения", что, по их мнению, может негативно сказаться на издательском бизнесе и доходах авторов контента.
"Обновленная статья 13 - хорошая новость, о которой мало говорят: обучение на публичных данных не является нарушением авторских прав. Это снимает один из главных правовых рисков для всей российской ИИ-индустрии", - поясняет Парфун.
Еще один большой блок касается маркировки контента, созданного нейросетями. Речь в первую очередь идет о дипфейках, но и о любом другом генеративном контенте, размещенном в Сети. Как видно из обновленной ст. 12, из нее исчезло требование о том, что маркировка такого контента должна размещаться в формате, "воспринимаемом человеком и машиночитаемом формате". В новой версии речь идет только о машиночитаемой маркировке.
"Международная практика двигается к созданию стандартов машиночитаемой маркировки такого контента, но до определения универсальных правил еще достаточно далеко. Поэтому случаи установления машиночитаемой маркировки ИИ-контента будут дополнительно определены правительством", - поясняет собеседник "РГ".
Источники на рынке пояснили, что речь пойдет об автоматическом обмене данными, когда площадки, где такой контент размещается, будут считывать маркировку и затем размещать ее для информирования пользователей. При этом предполагается, что процесс выявления дипфейков, не маркированных соответствующим образом, будет идти параллельно.
"Статья 12 о маркировке синтетического контента написана рамочно, деталей будем ждать в подзаконных актах. Для тех, кто работает с генеративным ИИ и виртуальными персонажами, это создает неопределенность", - говорит Алексей Парфун.
В то же время в документе появились и новации. Так в ст. 7, которая значительно упрощена в том, что касается определения "национальности" модели, появился пункт 2.3, гласящий, что суверенные и национальные модели должны "пройти подтверждение соответствия законодательству Российской Федерации и традиционным духовно-нравственным ценностям".
"Это не юридический критерий. Как именно правительство будет проверять модель на соответствие "коллективизму" и "приоритету духовного над материальным" - вопрос без ответа", - комментирует свою обеспокоенность этим пунктом Парфун.
Собеседник "РГ", участвующий в разработке документа, пояснил, что критерии будут сформированы в соответствии с указом президента РФ от 09.11.2022 N 809. Работа по формированию их перечня совместно с экспертным сообществом еще предстоит.
Ожидается, что финальная версия законопроекта будет внесена в Госдуму до окончания весенней сессии.