Startup Portfolio
Pentagonが、AI活用で「キルチェーン」の効率化を推進:Anthropic等と新たな軍事パートナーシップ
アメリカ国防総省(Pentagon)は、OpenAIやAnthropicなどのAI開発企業との提携を通じ、AIを活用した効率的な「キルチェーン」の構築を進めています。キルチェーンとは、脅威を特定し追跡、排除する軍事プロセスのことで、センサーや武器システムを駆使した複雑な手順を含みます。PentagonのChief Digital and AI OfficerであるRadha Plumb氏によると、AIは現在、キルチェーンの計画や戦略立案段階で有用性を発揮しており、指揮官が迅速かつ正確に判断を下す支援を行っています。
AIの軍事利用は近年議論を呼んでいますが、PentagonはAIが人命を危険にさらすことのない用途に限定していると主張しています。例えば、AIは脅威のシナリオ分析や異なる対応策の比較を支援し、指揮官が利用可能なツールを最大限に活用するためのサポートを行っています。しかし、AIの利用方針はAI開発企業ごとに異なり、例えばAnthropicは「人命に危害を与えるシステムの開発や改変」を禁止しています。このような制約の中、AnthropicのCEOであるDario Amodei氏は「AIを軍事や情報機関で使用することを完全に否定するのは現実的ではありませんが、無制限に使用することも同様に問題です。責任を持って中間の道を模索しています」と述べています。
AI企業と軍事機関の提携は近年加速しており、MetaはLockheed Martinと、AnthropicはPalantirと提携し、OpenAIもAndurilとの協力関係を築きました。こうした取り組みにより、AIは防衛の分野での有用性を実証しつつありますが、完全に自律的な兵器システムへの懸念も存在しています。PentagonのPlumb氏は、完全自律型兵器(ヒトが介在しない兵器システム)の運用を否定し、「倫理と信頼性の観点から、武器の使用に関する決定には常に人間が関与します」と強調しています。また、彼女は「AIシステムは人間と機械の協力によるもので、完全に独立した意思決定を行うものではありません」と述べ、AIが現場での人間の判断を補完する役割を担うことを示しました。
軍事AIの利用には賛否両論があります。例えば、2023年にはAmazonやGoogleの従業員が軍事契約への抗議活動を行いましたが、AI開発者コミュニティの反応は比較的穏やかです。一部のAI研究者は、AIの軍事利用を排除するのではなく、政府と直接協力して責任ある活用を促進すべきだと主張しています。AIの導入が進む中、Pentagonは技術の発展を活用しつつ、倫理的な課題を慎重に扱う必要があります。AIの軍事利用が拡大するにつれ、企業と政府機関は、安全性と責任を両立させた新しい枠組みを構築することが求められています。
Anthropicについて
Anthropicは、倫理的かつ安全なAIシステムの開発を目指すAI企業です。最新の生成AI技術を通じて、多岐にわたる用途でAIの可能性を探求しており、その中には軍事や情報機関向けの活用も含まれます。同社は、責任あるAI利用を推進するため、企業や政府機関と協力しています。