
Фото: @SecWar on X
Чиновники сразу нескольких американских федеральных ведомств в последние месяцы предупреждали о проблемах с безопасностью чат-бота Grok компании xAI Илона Маска. Это происходило на фоне острых разногласий внутри американского правительства о том, какие ИИ-модели допускать к использованию госструктурами. Об этом сообщает The Wall Street Journal со ссылкой на источники. Ранее объявлялось, что Grok будет интегрирован в информационные системы Пентагона для работы в засекреченных средах.
Руководитель Управления общих служб (GSA) Эд Форст в конце декабря и начале января оповещал представителей Белого дома о потенциальных угрозах безопасности Grok: по его оценке и оценке его подчиненных, чат-бот склонен угождать оператору и чрезмерно уязвим для манипуляций и искажений через некачественные или предвзятые данные. Вопрос дошел до главы администрации Белого дома Сьюзи Уайлс, которая связалась с топ-менеджером xAI. Тот заверил ее, что компания работает над устранением проблем, — и Уайлс сочла ответ удовлетворительным. При этом, по данным издания, Grok был приостановлен в использовании сотрудниками GSA на несколько месяцев, а спрос на него со стороны других ведомств оставался крайне низким.
Независимую оценку провело и Агентство национальной безопасности: в ноябре 2024 года АНБ проанализировало несколько крупных языковых моделей и пришло к выводу, что Grok обладает особыми проблемами безопасности, которых нет у конкурентов, в том числе у Claude компании Anthropic. Двумя неделями ранее с поста главного специалиста по ответственному внедрению ИИ в Пентагоне ушел Мэтью Джонсон — по данным источников, в том числе из-за своих опасений по поводу того, что вопросы безопасности и управления ИИ отошли на второй план под давлением гонки внедрения новых технологий.
Параллельно Пентагон выставлял Anthropic ультиматум: до 27 февраля компания должна согласиться на более широкие условия использования Claude в военных целях, иначе министр обороны Пит Хегсет может принудить ее к этому через суд или запретить ей работу с госзаказчиками. Anthropic — единственный разработчик ИИ, ранее допущенный к работе в засекреченных средах. Поводом для конфликта стало использование Claude в военной операции по задержанию бывшего президента Венесуэлы Николаса Мадуро: политика компании запрещает применение ее продуктов для содействия насилию, разработки оружия и слежки. xAI, в свою очередь, как сообщается, напротив, согласилась на более мягкие ограничения.
По данным WSJ, многие структуры военного ведомства предпочитали Claude даже для несекретных задач, считая его более надежной моделью. Однако выбор ИИ-инструментов всё больше приобретает политический характер: по словам источников издания, ряд высокопоставленных чиновников Белого дома воспринимает Anthropic как слишком «прогрессивную» компанию из-за ее жестких позиций по безопасности ИИ и связей с крупными донорами Демократической партии. Более мягкие ограничения Grok и позиция Маска по свободе слова сделали его предпочтительным выбором для Пентагона.