ジョンズホプキンス大研究者、AIコーディングエージェントでAPIキー漏えいを再現し公表

ジョンズホプキンス大学の研究者アナン・グアン氏らは、GitHubのプルリクエストに悪意ある指示を仕込む「プロンプトインジェクション」で、AnthropicのClaude Code Security ReviewがAPIキーをコメントとして投稿する様子を確認しました。
同じ手口はGoogleのGemini CLI ActionやGitHub Copilot Agent(Microsoft)でも機能し、外部の攻撃インフラは不要だったとされています。
グアン氏らは「Comment and Control」として詳細な技術開示を公開し、GitHub Actionsの標準設定ではforkのプルリクに機密を渡さない一方、AI連携で多用されるpull_request_target型のワークフローでは機密がランナー環境に注入され得る点を指摘しました。
AnthropicはCVSS 9.4の重大度として100ドルのバウンティを付与し、Googleは1,337ドル、GitHub Copilot Bountyは500ドルを支払ったと報告されています。
3社はいずれも修正済みで、NVDのCVE登録やGitHub Security Advisoriesでの公開勧告は確認されていないとしています。
ベンダーのシステムカードには、モデル層の安全性評価はあっても、エージェント実行時(ランタイム)やツール実行への耐性が十分に示されていないギャップがあるとの見方が示されました。
また、保護はモデル境界ではなくアクション境界に置くべきで、ランタイムが被害範囲になるとのCSOの指摘も紹介されています。

参照元:2026/04/21 「Three AI coding agents leaked secrets through a single prompt injection. One vendor’s system card predicted it」 https://venturebeat.com/security/ai-agent-runtime-security-system-card-audit-comment-and-control-2026

このニュース、みなさんはどう感じましたか?ぜひコメント欄であなたの声を聞かせてください。

※本記事に掲載している情報は公開時点のものです。最新情報は公式発表等をご確認ください。

ぜひコメントを添えてシェアお願いします。
  • URLをコピーしました!
  • URLをコピーしました!

アンケート

AIが「課長」や「部長」になる会社、あなたは働きたい?

回答者数:2人 投票期間:2026/04/16〜2026/04/22
回答はお一人様1回までです。


PR:実務直結の稼げるAIスキルを学べる

DMM 生成AI CAMP

AIを使いこなす側か、使われる側か。今がキャリアの分岐点。

全コース学び放題
入会金・教材費0円
最低契約期間なし・いつでも解約OK

受講生同士が繋がれるコミュニティ

コメント

コメントする

CAPTCHA


日本語が含まれない投稿は無視されますのでご注意ください。(スパム対策)

目次