2026年2月27日、トランプ政権が全米連邦機関に対してAnthropicのAI「Claude(クロード)」の使用を禁止したとNPRなどが報じました。一方でOpenAIとGoogleは政府との協力関係を維持・拡大しています。「なぜClaudeだけが弾かれたのか」「GeminiやChatGPTはどうなのか」── 3社の姿勢の違いを整理します。
OpenAI・Google・Anthropicの「軍事利用方針」比較
今回の問題を理解するには、主要3社がAIの軍事・政府利用についてどういう立場をとってきたかを押さえる必要があります。
| 企業 | 軍事利用の方針 | 政府との関係 |
|---|---|---|
| OpenAI(ChatGPT) | 2024年1月、利用規約から「軍事・戦争目的」の禁止条項を静かに削除 | 2024年12月、国防総省と新契約。戦場AIドローン企業Andurilとも提携 |
| Google(Gemini) | 2018年のProject Maven問題で一度撤退するも、その後は軍民両用に柔軟化 | Vertex AI Government Cloudで連邦機関での利用を継続。使用禁止の対象外 |
| Anthropic(Claude) | 自律兵器・大量監視への使用を明確に禁止したまま維持 | $200M規模の軍事契約で転用要求を拒否→全契約解除・使用禁止 |
OpenAIは2024年1月、「military and warfare(軍事・戦争)」という禁止表現を利用規約から静かに削除しました。The Interceptなどがこの変更を指摘しましたが、一般にはほぼ注目されませんでした。GoogleもGeminiを通じた政府・軍への提供を続けており、今回の使用禁止対象からは外れています。
Anthropicは何を拒否したのか
報道によると、国防総省はAnthropicに対し最大2億ドル(約300億円)規模の契約を提示。条件としてClaudeをAI自律兵器システムおよび大規模な市民監視プログラムに転用することを求めたとされます。
Anthropicはこれを拒否。「自律的な殺傷能力を持つ兵器への使用」と「人々の大規模監視・プロファイリング」を禁じた同社のポリシーを曲げませんでした。国防総省はAnthropicを「サプライチェーンリスク」と宣言し、全契約を解除。Anthropicは提訴を検討しています。
「Claudeは危険なAIなのか」という誤解について
「使用禁止」という言葉から「Claudeは危険なAIなのでは」と感じる人もいるかもしれません。しかし実態は逆です。
今回の禁止は「Claudeが危険だから」ではなく、「AnthropicがAIを兵器に使わせることを拒否したから」に他なりません。Claudeは依然として一般ユーザー・ビジネス向けに世界中で利用でき、日本での利用を含め何も変わっていません。
皮肉なことに、今回「危険」と見なされたのは「安全性に妥協しなかった企業」でした。AI企業が倫理指針を守り続けることのコストが、かつてなく可視化された一件です。



コメント