В ближайшие годы в России появится Цифровой кодекс — свод законов, норм и правил, регулирующих развитие искусственного интеллекта, в котором будет прописана и ответственность разработчиков ИИ, рассказала на круглом столе в пресс-центре «Парламентской газеты» первый заместитель председателя комитета Совета Федерации по конституционному законодательству и государственному строительству Ирина Рукавишникова. Как сообщает издание, участники круглого стола рассказали, что в новом кодексе должны быть закреплены принципы разделения цифровых систем на опасные и безопасные, а также обязательная маркировка контента, сгенерированного нейросетями.

По сути, перед нами сейчас стоит задача сформировать некую принципиально новую отрасль, которая могла бы называться цифровым правом. <...> Начнем мы, я думаю, с ответственности разработчиков искусственного интеллекта. Пока что эта сфера у нас не охвачена, — пояснила сенатор.

Как отметил директор Национального центра развития искусственного интеллекта при правительстве РФ Сергей Наквасин, в то время как страна находится в одном шаге от массового внедрения интеллектуальных цифровых систем во все сферы общественной и даже политической жизни, сегодня до сих пор нет четкого определения самого понятия «искусственный интеллект» и не выработаны правовые механизмы применения интеллектуальных систем.

В ближайшие два-три года средний уровень внедрения вырастет до 50%. Если заранее не решить ряд вопросов нормативного регулирования, в том числе не выработать нормы и механизмы противодействия возможным рискам и угрозам, то, конечно, мы можем в этот период столкнуться с очень серьезными проблемами, — предупредил Наквасин.

Участники обсуждения подчеркнули, что концепция развития искусственного интеллекта появилась в России несколько лет назад, однако в связи со стремительным развитием технологий работа по ее реализации нуждается в серьезном ускорении.

Ранее представители целого ряда технологических корпораций и ведущих университетов мира разместили совместное заявление, в котором указывается на высокую опасность искусственного интеллекта для человечества. Перспективы его развития они сравнили с пандемией или даже ядерной войной.