Власти Евросоюза накануне опубликовали первый проект Практического кодекса для моделей искусственного интеллекта общего назначения (AGI), также известных как «сильный ИИ» и «ИИ уровня человека». В документе, который будет окончательно доработан к маю будущего года, изложены руководящие принципы управления рисками, приводится план по соблюдению нормативных требований, описываются возможности для компаний избежать крупных штрафов.

ЕС опубликовал проект правил, по которым будет существовать ИИ уровня человека

Европейский «Закон об ИИ» вступил в силу 1 августа, и в нём оставлена возможность закрепить правила в отношении ИИ общего назначения в будущем. Этот проект документа — первая попытка прояснить, что ожидается от передовых моделей; заинтересованным сторонам даётся время направить отзывы и предложить доработки до того, как нормы вступят в силу.

К моделям ИИ общего назначения причисляются системы, обученные с общей вычислительной мощностью более 10²⁵ флопс. Под действие документа попадут, как ожидается, компании OpenAI, Google, Meta✴, Anthropic и Mistral — этот список может вырасти.

Кодекс охватывает несколько аспектов деятельности разработчиков ИИ общего назначения: прозрачность, соблюдение авторских прав, оценку рисков, а также снижение технических и управленческих рисков. Разработчикам ИИ надлежит раскрывать информацию о веб-сканерах, которые использовались для обучения моделей — это важно для обладателей авторских прав и создателей контента. Оценка рисков включает в себя меры по предотвращению киберпреступлений, включения в обучающие массивы дискриминационных материалов и потери контроля над ИИ.

Разработчики ИИ, как ожидается, сформулируют «Рамочную структуру принципов безопасности» (Safety and Security Framework — SSF). Этот документ поможет структурировать политики сдерживания угроз и смягчить их пропорционально индивидуальным системным рискам. Предложенные ЕС нормативы также охватывают технические области, в том числе защиту данных моделей, обеспечение отказоустойчивого контроля доступа и постоянную переоценку их эффективности. Раздел, описывающий механизмы взаимодействия с органами власти, предусматривает реализацию подотчётности силами самих разработчиков: требуется постоянная оценка рисков и при необходимости привлечение сторонних экспертов. Нарушение «Закона об ИИ» грозит серьёзным штрафом в размере до €35 млн или до 7 % глобальной годовой прибыли в зависимости от того, что больше. Стороны, которых касается законопроект, могут присылать отзывы до 28 ноября; документ будет окончательно доработан к 1 мая 2025 года.

От admin

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *