В России разработали проект законодательного регулирования искусственного интеллекта. Инициативой занимается профильная рабочая группа, в которую входят юристы, представители консалтинговых компаний и участников рынка, развивающих ИИ.
Как пишет РБК, документ, представленный в виде законопроекта «О регулировании систем искусственного интеллекта (ИИ) в России», обсуждался на заседаниях рабочих групп в Госдуме, в Деловой России, а также на отраслевых дискуссионных площадках.
В пояснительной записке к проекту отмечается, что он создан для реализации Национальной стратегии развития ИИ до 2030 года (была утверждена в феврале 2024 года).
Законопроект предлагает ввести понятия искусственного интеллекта, технологий ИИ, систем ИИ, ввести требования к маркировке систем ИИ, а также ввести классификацию систем ИИ по уровню потенциального риска (системы с неприемлемым, высоким, ограниченным и минимальным уровнем риска). Согласно документу, предлагается ввести ответственность за причинение вреда жизни, здоровью или имуществу для лиц, участвующих в разработке и эксплуатации систем искусственного интеллекта.
Для определения, кому принадлежат права на результат интеллектуальной деятельности, созданный с использованием ИИ, предлагается ориентироваться на то, был ли существенный творческий вклад человека (определял ли человек параметры и критерии создания результата, делал ли творческий отбор и доработку, принимал ли творческие решения в процессе создания). Если такой вклад был, то исключительное право на результат должно принадлежать этому человеку, если не было, то оператору системы ИИ (действует в течение 50 лет).
Если документ будет принят в текущем виде, операторы и разработчики систем ИИ должны будут выполнить его требования в течение года после вступления в силу законопроекта. Системы ИИ с высоким уровнем риска, которые были созданы до принятия проекта, должны будут пройти обязательную сертификацию в течение двух лет.