Фото — Solen Feyissa
Верхняя палата парламента Калифорнии приняла законопроект, регулирующий применение технологий искусственного интеллекта. Компании-разработчики таких технологий будут обязаны проверять свои модели на угрозы, связанные с хакерскими атаками, разработкой биологического оружия и нападением на критическую инфраструктуру. Хотя закон охватывает только юрисдикцию Калифорнии, его принятие важно, так как крупнейшие компании, подпадающие под него, — в частности OpenAI, Meta, Alphabet (Google) — зарегистрированы именно в этом штате. Кроме того, калифорнийские законы в этой сфере рассматриваются как эталон регулирования во всей стране.
Калифорнийский закон обязывает разработчиков таких моделей тестировать их на безопасность до того, как они будут представлены для публичного использования. В частности, предполагается тестирование на кибербезопасность, наличие опасных возможностей моделей и возможность их использования во вред кому-либо. Также компании должны будут отслеживать те же аспекты уже после того, как сделают какую-либо модель публичной. Сотрудники компаний будут подпадать под закон о «защите осведомителей» в случае, если они сделают публичной какую-то общественно значимую инсайдерскую информацию о компании.
Подходящие по критериям модели ИИ могут получить ограниченное освобождение от вышеперечисленных требований, если смогут продемонстрировать, что модель не может быть использована для:
- управления химическим, биологическим, радиологическим или ядерным оружием таким образом, который приведет к массовым жертвам;
- нанесения ущерба на сумму по крайней мере в пятьсот миллионов долларов посредством одной или нескольких кибератак на критическую инфраструктуру;
- нанесения моделью искусственного интеллекта ущерба на сумму по крайней мере в пятьсот миллионов долларов посредством действий, которые со стороны человека могли бы быть признаны уголовным преступлением;
- других угроз общественной безопасности, сравнимых по тяжести с перечисленными.
В случае, если компания-разработчик какой-либо «чрезвычайно мощной модели» принесет вред жителям штата Калифорния или нанесет урон общественной безопасности, генеральный прокурор штата сможет принять меры в отношении такой компании и подать на нее жалобу в суд. Кроме того, штат учредит консультативный совет, который должен будет поддерживать разработку безопасных и надежных моделей искусственного интеллекта с открытым исходным кодом.
Под закон подпадают модели, на обучение которых ушло более 10^26 FLOPs либо стоимость обучения которых составила более 100 млн долларов. Это сравнимо с принятым ранее в ЕС первым в мире законом, регулирующим подобные технологии. Таким образом, в эту категорию попадут модели как минимум уровня GPT-3.5 от OpenAI, LLaMA от Meta AI, PaLM и Gemini от Google и многие другие.
Принятый парламентом Калифорнии законопроект — один из многих, находящихся на рассмотрении сенаторов. Его внес представитель демократической партии Скотт Винера. Проект закона поддержали два самых цитируемых исследователя «искусственного интеллекта» в истории: «крестные отцы ИИ» Джеффри Хинтон и Йошуа Бенгио.
«Сорок лет назад, когда я обучал первую версию алгоритмов ИИ, лежащих в основе таких инструментов, как ChatGPT, никто — включая меня самого — не мог предположить, насколько далеко продвинется ИИ. Мощные системы искусственного интеллекта открывают невероятные перспективы, но риски также очень реальны, и к ним следует относиться очень серьезно», — сказал о законопроекте профессор Хинтон.
Против законопроекта Винера выступали компании Meta и Google. Они считают, что он препятствует инновациям, пишет Politico. Менее крупные участники рынка также указывают на то, что в конечном итоге регулирование приведет к тому, что никто не сможет конкурировать с OpenAI. «Независимо от того, какие были намерения [у законодателей], в конечном итоге всё сведется к тому, что другим компаниям станет сложнее конкурировать с OpenAI», — заявил Брайан Чау, исполнительный директор «Альянса за будущее» — группы активистов, которые пытаются не допустить чрезмерного регулирования технологий со стороны американских законотворцев.