В среду законодатели Европейского союза окончательно одобрили закон об искусственном интеллекте, принятый 27 странами блока. Правила окончательно вступят в силу весной 2027 года, однако часть их будет применяться уже осенью этого года. Это первый в мире подобный закон, принятый государствами.
Закон поддержали 523 голосами «за» при 46 голосах «против» и 49 воздержавшихся. Авторы закона предполагают, что другие страны смогут воспользоваться их опытом для регулирования быстро развивающихся технологий.
«Закон об искусственном интеллекте подтолкнул будущее ИИ в направлении, ориентированном на человека, в направлении, где люди контролируют технологию, и где она — технология — помогает нам использовать новые открытия, экономический рост, общественный прогресс и раскрывать человеческий потенциал», — сказал перед голосованием Драгош Тудораке, румынский законодатель, который является соавтором законопроекта.
Принятый Европарламентом закон подлежит финальной юридическо-лингвистической экспертизе и, как ожидается, будет окончательно утвержден до завершения текущей сессии законодательного органа. Он был внесен на рассмотрение в Европарламент в апреле 2021 года, а работа над ним велась с 2018 года.
Что будет регулировать закон
В течение полугода страны Европейского союза должны ввести в действие запрет на практики, которые закон прямо обозначает как запрещенные. Среди них — технологии, которые позволяют компаниям манипулировать мнением и решениями пользователя, в том числе из-за его возраста, состояния здоровья или экономической ситуации. Также запрещены продукты, в которых пользователей категоризируют в соответствии с их биометрией, и продукты, которые заявляют о возможности предсказывать поведение людей, в частности вероятность совершения ими преступлений, исходя из их «профайлинга» — то есть компьютерной модели поведения, основанной на их прошлом поведении и других характеристиках. Таким образом, фактически закон запрещает «социальный рейтинг» граждан.
В течение первого полугода действия закона должны быть запрещены для продажи системы, использующие распознавание лиц, которые были созданы с помощью массового скрейпинга фотографий людей в интернете либо с помощью данных камер наблюдения. В число запрещенных попали также технологии, позволяющие распознавать эмоции людей — однако только в общественных местах. К примеру, распознавание эмоций для медицинских целей или из соображений безопасности остается разрешенным.
Если компании, зарегистрированные в ЕС, будут уличены в нарушении закона, им грозит штраф до 35 миллионов евро или до 7% глобального годового оборота.
Под регулирование попадают в первую очередь модели, на обучение которых ушло более 10^25 FLOPs. Таким образом, в эту категорию попадут модели как минимум уровня GPT-3.5 от OpenAI, LLaMA от Meta AI, PaLM и Gemini от Google и многие другие. Разработчики моделей ИИ общего назначения — от европейских стартапов до OpenAI и Google — должны будут предоставлять подробный обзор текстов, изображений, видео и других данных в интернете, которые используются для обучения систем, а также соблюдать законодательство ЕС об авторском праве.
Сгенерированные искусственным интеллектом поддельные изображения, видео или аудио существующих людей, мест или событий должны быть помечены как искусственно созданные. Особому контролю подвергаются самые крупные и мощные модели ИИ, представляющие «системный риск», к которым относятся GPT4 от OpenAI и Gemini от Google. В частности, их будут проверять на предвзятость и уважение основных прав человека.
Закон об искусственном интеллекте изначально задумывался как свод правил для безопасности потребителей, применяющий «риск-ориентированный подход» к продуктам или услугам, использующим искусственный интеллект. Чем более рискованным является приложение ИИ, тем более тщательному контролю оно будет подвергаться. Предполагается, что подавляющее большинство систем искусственного интеллекта будут иметь низкий уровень риска, например, системы рекомендаций по содержанию или спам-фильтры.
К системам с высоким уровнем риска, например, в медицинских устройствах или критически важных объектах инфраструктуры, таких как водопроводные или электрические сети, предъявляются более жесткие требования, например, использование высококачественных данных и предоставление пользователям четкой информации.
В ЕС заявили, что обеспокоены тем, что мощные системы ИИ могут «стать причиной серьезных аварий или быть использованы для далеко идущих кибератак». Они также опасаются, что генеративный ИИ может распространить «вредные предубеждения» во многих приложениях, что повлияет на многих людей.
Компании, предоставляющие такие системы, должны будут оценивать и снижать риски, сообщать о любых серьезных инцидентах, таких как сбои в работе, повлекшие чью-то смерть или серьезный ущерб здоровью или имуществу, принимать меры кибербезопасности, а также раскрывать информацию о том, сколько энергии потребляют их модели.
Исключения для правоохранительных органов
Несмотря на принципиальный запрет для правоохранительных органов в отношении использования систем биометрической идентификации (СБИ), им будет позволено прибегать к соответствующим методам в исчерпывающе перечисленных и узко определенных ситуациях. Так, применение СБИ в режиме реального времени может производиться только при соблюдении строгих мер безопасности, например, только с ограничением по времени или географическому охвату и лишь на основании специального предварительного судебного или административного разрешения. Такое использование может включать, например, целенаправленный поиск безвестно отсутствующих лиц или предотвращение террористических актов. В то же время, использование таких систем постфактум рассматривается как действие, сопряженное с высоким уровнем риска, для осуществления соответствующей деятельности требуется получение судебного постановления в рамках конкретного уголовного дела.
Законодательство в других странах
Принятый Европарламентом закон — первый в мире в своем роде. Однако регулирование систем, которые называют «искусственным интеллектом», обсуждается в разных странах. К примеру, в России председатель комитета Госдумы по информационной политике Александр Хинштейн неоднократно поднимал вопрос о закреплении в законодательстве понятия «дипфейк» (генерации фейковых видео и изображений с помощью нейросетей). В парламенте США в январе 2024 года также начали обсуждать принятие закона, запрещающего генерацию фейковых фото и видео. Если он будет принят, наказание могут получить граждане, которые генерируют искусственные изображения или голоса настоящих людей без их согласия.