Расследования
Репортажи
Аналитика
RADIOInsider

USD

75.44

EUR

88.27

OIL

97.22

Поддержите нас

607

 

 

 

 

 

Новости

Хакер похитил $200 тысяч в криптовалюте, спрятав команду для ИИ-бота Grok в сообщении на азбуке Морзе

Фото: NurPhoto via Getty Images

Фото: NurPhoto via Getty Images

Хакер вывел криптовалюту на сумму около $200 тысяч с кошелька, связанного с ИИ-ассистентом Grok, используя уязвимость в цепочке взаимодействия ИИ-агентов, пишет Cryptoslate.

Атака была построена на технике prompt injection (встраивание промпта) с применением азбуки Морзе. Злоумышленник опубликовал в Twitter (X) пост с зашифрованным текстом, который Grok расшифровал и воспроизвел в своем ответе в виде команды на перевод средств с тегом @bankrbot. Bankrbot воспринял публичный ответ Grok как исполняемую инструкцию и перевел 3 млрд токенов DRB на блокчейне Base на неавторизованный кошелек.

Инцидент стал возможным из-за особенности платформы: Bankr автоматически создает кошельки в Twitter (X) для каждого взаимодействующего с ней аккаунта, в том числе для Grok. По словам разработчика 0xDeployer, кошелек контролирует тот, кто управляет соответствующим аккаунтом Twitter (X), а не сотрудники Bankr или xAI (создателя Grok). Ещe до атаки злоумышленник обнаружил, что кошелек Grok содержит NFT-токен членства в Bankr Club — своего рода «пропуск», дающий расширенные права на переводы внутри платформы. Именно это открыло возможность для последующей кражи.

0xDeployer сообщил, что 80% выведенных средств уже возвращено, судьба оставшихся 20% будет обсуждаться с сообществом DRB — их могут зачесть хакеру как неофициальное вознаграждение за обнаружение уязвимости. После инцидента Bankr добавил запрет на исполнение команд из ответов аккаунта Grok и рекомендовал операторам агентских кошельков включить доступные средства защиты — белые списки IP, разрешительные API-ключи и отключение исполнения команд из ответов в Twitter (X).

Ранее в Bankr существовал запрет на обработку ответов Grok, призванный предотвращать prompt injection-атаки с участием языковых моделей, однако защита не была перенесена в последнюю версию агента.

Ранее The Insider рассказывал о соцсети для ИИ-агентов Moltbook, в которой исследователи безопасности обнаружили уязвимость, позволявшую внедрять команды напрямую в сессии агентов через prompt injection — злоумышленники могли загружать вредоносные «навыки» и перехватывать управление агентами.

Нам очень нужна ваша помощь

Подпишитесь на регулярные пожертвования

Подпишитесь на нашу еженедельную Email-рассылку