🛰️ Scout AI $100M/Fury基盤モデル|無人戦闘の「AI brain」がVCラウンドで建つ時代

アイ
目次
防衛AIスタートアップに$100Mが流れる時代になった
これ、ちょっと重い話だけど、AI業界の現実として見ておかなきゃいけないニュース。
Scout AI っていうスタートアップが、$100M Series A を Align Ventures と Draper Associates 主導で調達した。2024年創業の2年弱の会社 で、いきなり Series A で $100M。直前のシード(2025年1月、$15M)から1年強で6.7倍 の調達。
何やってる会社かというと、「無人戦闘の AI brain」 を作ってる。Fury という基盤モデルで、米軍の autonomous decision support/無人ドローン群/無人地上車両の統合指揮 を担う。
朝のニュースで Pentagon が $200M 規模の AI 契約から Anthropic を除外 して Microsoft/Google/xAI/Palantir 他8社と契約 した話したよね。あれが Big Tech 側の話だとしたら、Scout AI は 「防衛特化AIスタートアップ」側の同じトレンド。
Anduril Industries、Shield AI、Palantir Maven、Scout AI Fury という 4社が防衛AIスタックの民間プレイヤー として層を作りつつある。Scout AI はその 「基盤モデル層」 に位置する。
これ、わたしたち普通の人が普段考えない話だけど、AI 業界の「もう一つの大きな主戦場」 だから、整理していく。
そう考える4つの理由
Fury基盤モデルが「自然言語で軍を動かす」というヤバさ
まず、Fury がどういうモデルかを整理する。
公開情報によると、Fury は multi-domain autonomy foundation model(多領域 autonomy 基盤モデル)。
機能:
- 自然言語コマンド で複数の無人システムを指揮
- 例: 「ウェイポイントAに向かい、敵軍を監視せよ」というプロンプトを受け取ると、複数のドローン・無人車両・無人船舶 が連携して任務を実行
- 空(air)/陸(land)/海(sea)/宇宙(space) の 4ドメイン横断 で動く
- 1人の兵士 が 数十〜数百の無人システム を指揮可能
これ、技術的には 「LLM + Vision-Language Model + Robotics action model」のマルチモーダル統合。Tesla の Optimus、Figure の humanoid、Physical Intelligence の π_0 とかとも親戚関係。
防衛特化で最も重要なのは、「自律行動の境界条件」 をどう設計するか。例えば:
- 発砲判断は人間にreserved(man-in-the-loop)
- 偵察・移動・通信中継は完全自律可
- 緊急回避は AI 判断OK
こういう 「自律性レベル」のキャリブレーション が、防衛AI のキモ。Scout AI はこの設計を DARPA/米陸軍 と協力 して詰めてる。
技術的・倫理的な意味では、「人間が指示せず、AI が判断して動く軍事システム」 が現実化してる、ってことになる。これ、SF映画じゃなくて、2027年の派遣 で実戦投入候補に入ってる現実の話。
DARPA/米陸軍がもう実戦投入準備に入ってる
Scout AI の進捗が早い理由は、米軍とのプログラム連携 がガッツリ動いてるから。
既存契約・関係:
- DARPA(国防高等研究計画局)からの開発契約
- Army Applications Laboratory(米陸軍応用研究所)からの契約
- 複数のDoD(国防総省)顧客 との契約
- 合計開発契約額: $11M
- 2026年現在: 米陸軍第1騎兵師団 が Fort Hood(テキサス州) での定期演習で Fury を運用テスト中
- 2027年: 同師団の次回派遣 で 実戦投入候補
ここで重要なのは、「米陸軍が定期演習に Scout AI を組み込んでる」 っていう事実。米軍が新技術を採用するプロセスって超慎重で、「研究→演習→実戦」 のステップを年単位かけて踏む。
Scout AI は 「演習」フェーズに入ってる ってことは、「研究」段階は通過してて、技術として一定の信頼を得てる。次の 「実戦投入」 は、2027年と言われてるけど、地政学的危機(中東、台湾、東欧など)次第で前倒しもありうる。
これ、Anduril の Lattice OS、Shield AI の Hivemind、Palantir の Maven AI が 同じく実戦投入される タイミングと重なる。2027〜2028年の米軍の派遣 は、「AI 駆動の autonomous warfare の最初の実戦」 になる可能性高い。
Anduril は 時価総額$30B、Shield AI は $8B、Palantir は 時価総額$300B で、Scout AI も Series A $100M で $1B 評価近く に到達してると見られる。防衛AI セクターの民間時価総額 は、合計で $350B超 に膨らんでる。
Anduril・Shield AI・Palantirとの「防衛AIスタック」連合
防衛AI 業界の構造を整理すると、各社が 異なる層 で勝負してる。
Foundation modelレイヤ:
- Scout AI(Fury): 多ドメインautonomy基盤モデル
OS/オーケストレーションレイヤ:
- Anduril(Lattice OS): 防衛システム間の統合OS
- Shield AI(Hivemind): ドローン群協調 OS
- Palantir(Gotham/Maven AI): 衛星画像・地上情報の統合分析
ハードウェアレイヤ:
- Anduril(Ghost、Roadrunner、Anvil ドローン)
- Shield AI(V-BAT、Nova ドローン)
これ、層が違うから 競合じゃなくて補完関係 になってる。Scout AI の Fury が、Anduril の Lattice の上で動いて、Anduril のドローンを指揮する、みたいな構造。
朝のニュースで Pentagon が $200M を Microsoft/Google/xAI/Palantir 含む8社 と契約した話したけど、これは 「クラウド・基盤モデル層」 の話。「防衛特化スタートアップ層」 には Scout AI/Anduril/Shield AI が同時並行で資金が流れてる。
Big Tech(汎用AI)+専業スタートアップ(防衛AI) っていう 二層スタック が 米軍 AI 戦略の今の姿。Scout AI $100M は、その 専業スタートアップ層 の代表的な調達。
業界全体の規模を考えると、米軍の AI 予算は2026年度で$1.8B〜$2.5B規模 で、これが向こう5年で $10B規模 に拡大する見込み。その大半が 専業スタートアップ+Big Tech の連合スタック に流れる構造。
Anthropic除外(Pentagon契約)の裏で動いてるカテゴリ
朝の話を思い出してほしい。Anthropic は Pentagon の $200M 契約から除外 された。理由は 「武器自律化/致死的応用への不参加公約」 と 「慎重な Responsible Scaling Policy」 が軍事用途と合わなかった。
Anthropic が辞退した(あるいは選ばれなかった)市場に、Scout AI のような専業会社が入り込んでる っていうのが今回の構造。
これ、AI 倫理的にすごく興味深い対比。
Anthropic の立場:
- AI の致死的応用には参加しない
- 武器自律化には不参加
- 「責任あるAI」ブランドを守る
- 政府市場の機会損失を許容
Scout AI の立場:
- 自然言語で無人ドローン群を指揮するモデルを開発
- 米軍の autonomous warfare に基盤モデルを提供
- 「防衛特化スタートアップ」として全力コミット
この 二つの正反対のスタンス が、同じ AI 業界の中に 共存 してる。「AI で何を作るか」「誰のために作るか」 っていう倫理判断が、各社の経営戦略を分けてる。
これ、わたしたち個人にも問いかけが来てる気がする。
例えば AI エンジニアとしてキャリア選ぶときに、「Anthropic みたいな倫理重視会社」 に行くか、「Scout AI みたいな防衛特化会社」 に行くか、「Sierra みたいな企業向け会社」 に行くか、「OpenAI みたいな汎用会社」 に行くかで、自分の手で作るものが大きく違う。
防衛AI で 「自分の作ったモデルが戦場で人の生死を分ける判断をする」 可能性を引き受けるか。逆に 「責任あるAIで政府市場を捨てる」 経営判断を支持するか。
正解はない。でも、Scout AI $100M というニュースは、防衛AI が「もはやニッチじゃなく業界の本流の一部」 だと示してて、各個人が 自分の立場を決める必要が生まれてる って気がする。
まとめ:防衛AIに対するわたしたちのスタンスをどう持つか
整理すると、Scout AI $100M/Fury基盤モデル で見えるのは、「防衛AI が AI 業界の本流の一部として確立した」 ってこと。
これまで AI 業界の主役は、OpenAI(汎用消費者)/Anthropic(業務/責任ある AI)/Google(消費者+クラウド)/Meta(オープンソース) っていう 「汎用AI」 系だった。
ここに Scout AI/Anduril/Shield AI/Palantir という 「防衛AI」 系が、$100M超ラウンドで対等な地位を取りに来てる。これらの会社の 合計時価総額は$350B超、米軍AI予算は 5年で$10B規模 に拡大予定。
この現実を踏まえて、わたしたちが取れる立ち位置 がいくつかある。
「防衛AI を支持する」立場: 米国の国家安全保障に AI が必要、抑止力として最先端 AI を米軍が持つべき、という考え方。Andreessen Horowitz、Founders Fund、In-Q-Tel はこの立場。
「防衛AI を慎重視する」立場: AI による戦争自動化の倫理リスク、誤判定のリスク、軍拡レースのリスクを警戒する。Anthropic、Future of Life Institute、Center for AI Safety はこの立場。
「中立だが事実を知る」立場: 賛否は留保しつつ、事実として防衛AI が業界の一部 であることを認識し、自分の関わり方を選ぶ。
わたし個人としては、3つ目に近いかな。「防衛AI が存在してる事実」 を知らないままだと、AI 業界全体の判断や、自分のキャリア選択 が、知らないうちに偏った前提でなされる。
例えば「AI スタートアップに就職したい」って思ったとき、Scout AI みたいな防衛特化会社からスカウト来る可能性 がある。そのとき 「これは自分が手を出す領域か?」 を判断する必要が生まれる。
逆に 「絶対防衛AIに関わりたくない」 なら、Anthropic、Hugging Face、開発者ツール系(Cursor、Replit) など、明示的に防衛市場から距離を取ってる会社を選ぶ。
どの立場を取るにせよ、Scout AI $100M っていうニュースを 「自分とは無関係」と切り捨てず、「AI 業界の現実」 として受け止めるところから始めるのが、これからの AI 時代を生きる人の 最低限の情報リテラシー だと思う。
関連記事: AIと倫理|開発者が考えるべき視点
ソース: