「安全なAI」は国家に負けるのか──OpenAIとAnthropicを分けた、ペンタゴンとの交渉の全貌

「人類のためのAIを作る」と宣言してきた2社が、軍との関係をめぐって正反対の結末を迎えました。

2026年2月27日、米国防総省(通称:ペンタゴン)との契約交渉が決裂したAnthropicは、トランプ大統領の命令によって全連邦機関からの使用を禁じられ、国防総省から「サプライチェーンリスク(供給網上のリスク)」に指定されました。

同じ日の数時間後、OpenAIが国防総省との新たな契約締結を発表しました。

この1週間の出来事は、AIの倫理と国家安全保障が激しく衝突した歴史的な事件として、業界に深い爪痕を残しています。

「どちらが正しかったのか」という問いに、簡単な答えはありません。

しかし、2社の選択の背景にある思想の違い、そして今後のAI利用に対する影響を理解することは、私たちユーザーにとって不可欠なことです。

この記事では、交渉の経緯、契約内容の違い、そして今後のAI倫理への影響について、できる限り誠実に整理してお伝えします。


スポンサーリンク

そもそもAnthropicとペンタゴンの関係とは?

Image_02

Anthropicは2021年に、OpenAIの元研究者たちが「AIの安全性」を最優先に掲げて創業した会社です。

「安全なAIの開発」を企業理念の中心に置いており、Claudeはその理念を体現するモデルとして開発されてきました。

しかし実態は、いわゆる「反軍事企業」ではありませんでした。

Anthropicはむしろ、主要AIラボの中で最も早く、2024年6月の時点で米国政府の機密ネットワーク上にClaudeを展開した企業でした。

2025年7月には国防総省と最大2億ドル(約300億円)の契約を締結し、国防分野で広く使われていました。

当初の契約には、Claudeを「米国市民の大規模監視」と「完全自律型兵器の制御」に使用することを禁じる条項が明記されており、国防総省はこの条件を受け入れていました。

問題は、2026年1月にヘゲス国防長官が全国防省AI契約を「合法的なすべての目的」に使えるよう改訂する方針を示したことから始まります。

(参照:Axios


決裂までの1週間──何が起きたのか

2026年2月下旬、Anthropicと国防総省の交渉は最終局面に入りました。

ペンタゴンが求めたのは、Claudeを「すべての合法的な目的に制限なく使える」という文言の追加でした。

Anthropicが拒否したのは、この中に含まれうる2つの具体的な用途でした。

1つ目:米国市民の大規模監視

AIを活用すれば、位置情報・ウェブ閲覧履歴・金融データなどを大規模かつ自動的に集積・分析できます。

Anthropicは、これが令状なしの監視に悪用される可能性を懸念していました。

2つ目:完全自律型兵器の制御

人間が介在せずAIが自律的にターゲットを選定・攻撃する兵器システムへの利用です。

Anthropicは「現在のフロンティアAIはこの用途に使うには信頼性が不十分」として拒否しました。

(参照:NPR


2月25日、Dario Amodei(ダリオ・アモダイ)CEOはヘゲス国防長官と直接会談しました。

会談後もペンタゴンは最終期限を「2月27日午後5時01分」と設定し、Anthropicに要求への合意を迫りました。

2月27日午後3時47分、Anthropicが期限を迎える前に、トランプ大統領がTruth Socialに「すべての連邦機関はAnthropicの技術を直ちに使用停止せよ」と投稿しました。

さらにヘゲス長官は、Anthropicを「国家安全保障上のサプライチェーンリスク」に指定すると宣言しました。

この指定は通常、中国のHuaweiなど外国の敵対勢力に対して用いられる措置です。

アメリカ国内の企業に適用されたのは、史上初めてのことでした。

(参照:Axios


Amodei CEOは声明の中でこう述べました。

「私たちは誠実に合意に達しようとしました。しかし、良心に従えば彼らの要求には応じられません」

ペンタゴンからの脅しが私たちの立場を変えることはありません──。

そして、その数時間後、ライバルのOpenAIが国防総省との新契約を発表しました。


OpenAIは「裏切り者」なのか──契約内容を徹底比較

Image_03

OpenAIのSam Altman(サム・アルトマン)CEOは、2月27日の朝の時点で、Anthropicと同じレッドライン(越えてはならない一線)を持っていると公言していました。

ところが同日の夜、OpenAIは国防総省との契約締結を発表しました。

この一連の流れは、AI業界と一般ユーザーに大きな衝撃を与えました。

Claudeは翌日、米国App Storeで1位を獲得しました。

「QuitGPT」運動では150万人以上がChatGPT解約の意思を示し、OpenAIのオフィス前には「あなたのレッドラインはどこにあるの?」と記したメッセージが書かれました。

(参照:TechCrunch


では実際に、OpenAIの契約とAnthropicが求めていた条件は何が違ったのでしょうか。

以下の表に整理しました。

Image_04

OpenAIの契約には、表面上は3つのレッドラインが含まれています。

① 米国市民の大規模監視には使用しない
② 完全自律型兵器システムの誘導には使用しない
③ 人間の承認を要する高リスクな意思決定には使用しない

これはAnthropicの主張と実質的に同じように見えます。

しかし批評家が指摘するのは、OpenAIの契約が「米国の法律に準拠したすべての目的」を許容しており、その法解釈を国防総省自身が行う点です。

MITテクノロジーレビューは「Anthropicは道義的なアプローチを取り、多くの支持者を得たが失敗した。OpenAIは実用的・法的なアプローチを取り、ペンタゴンに対してより軟化している」と指摘しています。

(参照:MIT Technology Review


契約の大きな違いは「誰が運用の安全性を保証するか」にあります。

Anthropicは契約文言による明示的な禁止事項を求めました。

OpenAIは自社のセーフティスタック(安全管理技術) と既存の法律への依存を選びました。

これは根本的な哲学の違いです。

「法律が許すならAIを使っていい」という立場と、「たとえ法的には問題なくても、AIが倫理的に問題のある用途に使われるべきでない」という立場の対立です。

(参照:OpenAI


さらに、Altman CEO自身も後に「急ぎすぎた」と認めました。

「私たちは状況を収拾しようとしたが、それは機会主義的で杜撰に見えた」

この発言の翌日、OpenAI社内でも社員の間に不満が広がっていることが報じられました。

「Anthropicが立場を貫いたことを尊重している。OpenAIのやり方に失望している」と匿名で語った社員もいました。

(参照:CNN


サプライチェーンリスク指定の法的問題

Image_05

「サプライチェーンリスク」指定は、連邦調達供給チェーン安全法(FASCSA)に基づく措置です。

これは通常、外国の敵対勢力、たとえば中国のHuaweiやZTEのような企業を対象とするものです。

Anthropicはアメリカ国内の企業です。シンガポール、UAE、カタールの政府系ファンドなどが出資者に含まれますが、これは多くのシリコンバレー企業と変わりません。

Lawfare(法律・安全保障専門メディア)の分析によれば、ヘゲス長官の指定は「議会が授権した権限の範囲を超えており、法廷で生き残る可能性は低い」と評しています。

また、「Anthropicの2つの制限が、実際に政府の任務に影響を与えたことは一度もない」という事実も、指定の法的根拠を弱める要素とされています。

(参照:Lawfare


Anthropic側の反論も注目されています。

Amodei CEOは「この指定は法的に根拠がない。裁判所で争う以外に選択肢はない」と述べました。

また指定の実際の影響範囲についても、ヘゲス長官の発言より狭いことが明らかになっています。

マイクロソフト、Google、Amazonはそれぞれ「国防省関連以外の業務ではAnthropicとの関係を継続できる」と表明しました。

(参照:CNN Business


ユーザーへの影響──今後のAI選択をどう考えるか

Image_06

この事件は、私たちがAIサービスを選ぶ際の判断基準を根本から問い直します。

ビジネスユーザーの方へ

国防省との関係に直接関係しない企業ユーザーであれば、Anthropic製品への影響は限定的です。

AWS、Google Cloud、Azureなどのプラットフォーム経由でのClaude利用は継続できます。

ただし、米国政府機関や防衛関連の契約を持つ企業は、サプライチェーンリスク指定の影響を個別に確認する必要があります。

一般ユーザーの方へ

この事件でClaude(Anthropic)とChatGPT(OpenAI)の「倫理的な立場」の違いが鮮明になりました。

どちらが「正しい」かは、あなた自身の価値観によります。

「国家安全保障に協力することが重要」と考えるなら、OpenAIの実用主義的アプローチを評価するかもしれません。

「AIがどんな目的に使われるか、そのルールを企業が守るべき」と考えるなら、Anthropicの姿勢に共感するかもしれません。

どちらの立場も、それぞれに真剣な根拠を持っています。

(参照:Built In


今後の展望──交渉は続いているか

Image_07

2026年3月8日現在、状況は流動的です。

フィナンシャル・タイムズは、Anthropicとペンタゴンが再び交渉のテーブルについていると報じました。

Amodei CEOが国防次官のEmil Michael氏と直接対話を続けているとされますが、国防総省側は「現在交渉は存在しない」と否定しています。

ペンタゴンは引き続きClaudeをイランへの軍事作戦支援に使用しており、6か月の移行期間が設けられています。

OpenAI社内でも批判の声は続いており、OpenAIとGoogle両社の社員数百人が連名で「国防省のAnthropicに対する指定を撤回せよ」とする声明を発表しています。

共和党のThom Tillis上院議員は「この公開対立は子供じみている」と批判し、民主党のKirsten Gillibrand議員は「この指定は近視眼的で自滅的、敵国への贈り物だ」と述べました。

(参照:CNBC


「AIの倫理」と「国家安全保障」の対立は、この事件で決着がついたわけではありません。

むしろ、ここから本格的な議論が始まったといえます。

Anthropicが守ろうとした「2つのレッドライン」は、今後すべてのAI企業と政府の関係において、重要な先例となるでしょう。

私たちユーザーも、AIをどう「信頼」するかを、改めて考え直す機会を与えられています。

今後の動向を引き続き注目していきましょう。


参照先

コメント

タイトルとURLをコピーしました