
Генеральный директор Anthropic Дарио Амадеи. Фото: inkl
Компания Anthropic — разработчик ИИ-модели Claude — объявила о пересмотре своей ключевой политики безопасности и отказалась от одного из главных принципов: обязательства приостанавливать обучение более мощных систем, если их возможности начинают опережать механизмы контроля. Об этом компания сообщает в своем блоге.
Ранее действовавшая «Политика ответственного масштабирования» предусматривала, что при появлении моделей, которые компания не способна надежно контролировать, их дальнейшее обучение должно быть поставлено на паузу. В новой версии политики этот пункт исключен. Вместо жестких обязательств вводится так называемая «Дорожная карта безопасности» — набор публичных целей, выполнение которых компания намерена оценивать самостоятельно. В Anthropic подчеркивают, что теперь речь идет не о твердых «красных линиях», а о гибкой системе, которая может меняться.
В компании объяснили пересмотр подхода тем, что изначальная стратегия была рассчитана на формирование «гонки вверх» в индустрии — когда игроки усиливают меры безопасности, а не ослабляют их. Однако, как признали в Anthropic, этого не произошло. Более того, односторонняя пауза в развитии, по их мнению, могла бы привести к тому, что менее осторожные разработчики продолжат наращивать мощности, что «сделает мир менее безопасным».
Объявление о смягчении политики совпало по времени с конфликтом между Anthropic и Пентагоном. Как ранее сообщала Financial Times, министр обороны США Пит Хегсет потребовал от компании разрешить использование ее моделей во всех военных операциях, включая автономные боевые системы и засекреченные проекты. В противном случае Anthropic грозит потеря контракта на $200 млн и включение в перечень поставщиков, представляющих «риск для цепочки поставок», с возможным задействованием Закона об оборонном производстве.
По данным СМИ, компания отказалась смягчать ограничения, касающиеся применения ИИ для автономного летального оружия и систем массовой внутренней слежки. В Anthropic заявляли, что нынешние модели недостаточно надежны для самостоятельного принятия смертоносных решений, а правовые рамки использования ИИ в сфере массового наблюдения фактически отсутствуют.
Anthropic позиционировала себя как компанию, делающую ставку на безопасность. В феврале она опубликовала отчет о рисках своей последней модели Claude Opus 4.6, где допускала теоретическую возможность саботажа — от внедрения уязвимостей в код до попыток манипулирования обучающими данными и копирования собственных весов на внешние серверы. При этом компания подчеркивала, что вероятность таких сценариев «очень низкая, но не незначительная», и описывала многоуровневую систему внутреннего контроля.
На фоне усиления конкуренции с OpenAI, Google и xAI Илона Маска за военные и корпоративные контракты Anthropic фактически отказывается от прежнего жесткого механизма самоприостановки. В компании утверждают, что обновленная политика остается «самой строгой с точки зрения публичной подотчетности и прозрачности», однако теперь она не содержит обязательства о принудительной паузе в развитии более мощных систем.