Startup Portfolio
防衛AIの利用条件を巡る法廷闘争で勝利した生成AI基盤のAnthropic、Trump政権による「供給網リスク」指定の差し止め命令を獲得
Anthropicは、Trump政権との法廷闘争で重要な前進を得ました。California北部地区連邦地裁のRita F. Lin判事は、Anthropicを「supply-chain risk」と指定した政府の措置について差し止めを命じ、Trump政権に対してこの指定の撤回と、連邦政府機関にAnthropicとの関係を断つよう求めた命令の停止を命じました。裁判所は、こうした措置がAnthropicの言論の自由を侵害している可能性が高いと判断しました。今回の対立は、国防総省におけるAnthropicのAI利用条件を巡って生じました。報道によると、Anthropicは自社モデルClaudeについて、自律型兵器や大規模監視への利用を認めないなど一定の制限を設けようとしましたが、政府側はこれに反発しました。その後、国防総省はAnthropicを通常は外国主体向けに使われるような「supply-chain risk」に指定し、Trump大統領は連邦機関に対してAnthropicとの関係を断つよう命じました。Anthropicはこれを受けて提訴しました。
Lin判事は審理の中で、政府の対応はAnthropicを「cripple」しようとする試みに見えると指摘したと報じられています。実際、裁判所文書でも、政府記録にはAnthropicが報道を通じて政府の契約姿勢を批判したことが指定理由として反映されていたことが示されており、裁判所はAnthropicが批判的発言を行ったことへの報復として扱われた可能性を重く見ています。Anthropicは判決後、裁判所が迅速に対応し、自社に法的根拠がある可能性を認めたことに感謝すると表明しました。そのうえで、この訴訟はAnthropic、自社顧客、パートナーを守るために必要だったとしつつ、今後も安全で信頼できるAIを通じて政府と建設的に協力していく姿勢を示しました。
この判決は、生成AI企業が政府案件に参加する際、どこまで利用制限や安全原則を主張できるのかを占う重要な先例になり得ます。特に、国家安全保障分野でAIの利用が広がる中で、企業側の安全ポリシーと政府の運用要求が衝突した場合、単なる契約問題にとどまらず、言論の自由や報復的規制の問題へ発展する可能性があることを浮き彫りにしました。今回の差し止めは暫定的な判断ですが、Anthropicにとってはブランド毀損と事業機会喪失を防ぐ大きな意味を持つ勝利となりました。
Anthropicについて
Anthropicは、生成AIモデルClaudeを開発する米国のAI企業です。安全性と信頼性を重視したAI開発を掲げており、企業や政府向けにもAIソリューションを提供しています。2026年3月には、国防総省との対立を巡って「Department of War」と題する声明を公表し、自社が国家安全保障上の供給網リスクに指定されたことに法的異議を唱えていました。
関連ニュース








Anthropic に興味がありますか?
最新ニュース

カナダで賃貸支払いでクレジットカードのリワードを獲得できるサービスを提供する"Chexy"がSeries Aで$14M CADを調達
2026/03/31

動画生成AIから中核事業への資源再集中を進める生成AIプラットフォームのOpenAI、Sora終了の背景に採算と優先順位の見直し
2026/03/31

欧州のデータ主権と先端AI活用を両立するソブリンクラウド基盤のevroc、Deteconと提携して本番導入を加速
2026/03/31

グローバルな契約製造・サプライチェーンソリューション B2B製造テクノロジーのZetwerk、秘密裏に上場申請書類を提出
2026/03/31

極超音速再突入と自律航法を高度化する宇宙インフラテクノロジーのVarda、W-6を打ち上げ
2026/03/31
