要約
Anthropic社は、同社の生成AIモデル「Claude」が米軍に導入された後に操作されることはないと、裁判所への提出書類で明言しました。この声明は、トランプ政権からの戦争中のAIツールへの干渉の可能性に対する反応として発表されました。Anthropicの公共部門責任者は、同社が技術を停止したり、機能を変更したりする能力を持っていないと強調しています。
この問題は、国防に関連するAI技術の使用制限や安全性に関する重要な議論を反映しています。米国防総省はAnthropicをサプライチェーンリスクと見なし、同社のソフトウェアを利用しない方針を示しています。この影響で、顧客が契約をキャンセルする事態も発生しています。
重要なポイントは、Anthropicが軍事的な意思決定に対する拒否権を持たないことを保証している点です。また、同社はAIの使用が人間の監視なしに致命的な攻撃に使用されないよう配慮しています。今後、米国防総省はAnthropicのリスクを軽減するため、第三者クラウドサービスプロバイダーと連携して運用を継続する意向を示しています。
関連記事
(関連記事はまだありません)
元記事: https://www.wired.com/story/anthropic-denies-sabotage-ai-tools-war-claude/
公開日: Sat, 21 Mar 2026 00:03:20 +0000
この記事はAIアシスト編集により作成されています。
📰 元記事: 元記事を読む