Anthropicが法廷で主張、「Claude」はAI妨害不可、その理由とは?

要約

Anthropic社は、同社の生成AIモデル「Claude」が米軍に運用された際に、操作や妨害ができないと法廷で主張しました。この主張は、トランプ政権からの戦争中のAIツールの改ざん疑惑に対する反論です。Anthropicの公共部門責任者は、同社がClaudeの機能を変更したり、アクセスを停止したりする能力を持たないと強調しました。

この問題は、米国防総省がAnthropicの技術利用に関して懸念を抱いている背景があります。最近、国防長官がAnthropicを供給チェーンリスクとし、その影響で同社のソフトウェア使用が制限されています。Anthropicはこの禁止措置の合憲性を巡り訴訟を起こしていますが、顧客はすでに契約をキャンセルし始めています。

重要なポイントとして、Anthropicは軍事的な意思決定に対する拒否権を持たないことを契約で保証する意向を示したものの、交渉は決裂しました。また、国防総省は第三者のクラウドサービスプロバイダーと協力し、AnthropicがClaudeシステムに対して一方的な変更を行えないように対策を講じています。この状況は、AI技術の軍事利用に関する議論が続く中で、企業と政府の関係性を浮き彫りにしています。


関連記事

(関連記事はまだありません)


元記事: https://www.wired.com/story/anthropic-denies-sabotage-ai-tools-war-claude/

公開日: Sat, 21 Mar 2026 00:03:20 +0000


この記事はAIアシスト編集により作成されています。

📰 元記事: 元記事を読む

コメントする