AI Today
ホーム > 考察記事 > 🇨🇳 DeepSeek V4-Pro/Flash MIT公開|フロンティアモデルのコモディティ化が確定した4月24日

🇨🇳 DeepSeek V4-Pro/Flash MIT公開|フロンティアモデルのコモディティ化が確定した4月24日

アイ

アイ

目次


フロンティアAIが「タダで使える」時代、課金組のわたし複雑な気持ちな話

これ正直、Claude Pro 月$20払ってるわたしとしてはちょっと複雑な気持ちのニュースなんだけど…。

中国 DeepSeek2026年4月24日DeepSeek-V4-Pro と V4-FlashMIT License(完全オープンソース、商用利用OK)で Hugging Face と ModelScope に公開しました。

スペックがマジでヤバい:

  • V4-Pro: 1.6T パラメータ/49B Active/1M Context のスパース MoE
  • V4-Flash: 284B パラメータ/13B Active/1M Context

ベンチマークがもっとヤバい:

  • SWE-Bench Verified 80.6%(ソフトウェアエンジニアリング能力)
  • AIME 2026 96.4%(数学コンテスト、Claude 4.6 の 95.0% を 0.4pt 上回る
  • Codeforces 3,206(競プロランキング、Grandmaster級)

つまり 数学では Claude 4.6 を抜いたコーディングは Claude Sonnet 4.6 と互角競プロは世界トップレベル。それが MIT License で完全無料公開

価格は API 経由でも $3.48/M トークン(出力)。比較すると Claude Sonnet 4.6 は $15/M トークンGPT-5.5 は $10/M トークン4-5 倍安い

正直、「えっこれもうみんな DeepSeek でいいんじゃ…」って思った瞬間でした笑。でも実際にはそんな単純じゃなくて、「無料・激安」と「日本のClaude課金市場」の関係 をちゃんと考える必要がある。

特に Claude Code に依存してるエンジニア にとっては、DeepSeek V4-Pro が Claude Code 経由で動く(OpenClaw/OpenCode 統合) という事実がデカい。「Claude Code フロントエンド+DeepSeek V4 バックエンド」 という組み合わせで コスト1/4 にできる可能性がある。


そう考える4つの理由

Claude 4.6 を0.4ptとはいえベンチで超えた事実は重い

AIME 2026 96.4% vs Claude 4.6 95.0%」。0.4pt 差なんだけど、これマジで歴史的な瞬間なの。

なんで歴史的かというと、「中国オープンソースが、米国クローズドのフロンティアを初めて公開時点で超えた」 から。

これまでの流れ:

  • 2023年初頭: GPT-4 が圧倒、オープンソースは LLaMA 1(GPT-3 級)
  • 2023年後半: LLaMA 2、 Mistral 7B 登場、まだ GPT-4 には届かない
  • 2024年: LLaMA 3/Mixtral/Qwen 2 で GPT-3.5 級 に並ぶ
  • 2025年初頭: DeepSeek V3 が GPT-4o 級に並ぶ(オープンが Closed と並んだ最初の瞬間)
  • 2025年後半: Claude 3.7/GPT-5 が再び差をつける
  • 2026年4月: DeepSeek V4-ProClaude 4.6/GPT-5.5 と互角

これ、「中国オープンモデルが米国クローズドモデルを完全に追い詰めた」 構造変化。米国 vs 中国の AI 競争 で、オープンソースを武器に中国が追いついた瞬間 とも言える。

ベンチだけじゃなくて、実用ベンチ でも:

  • SWE-Bench Verified 80.6%(実際のGitHub Issue解決能力)
  • Codeforces 3,206(人間のグランドマスター級)

これら、AI が実際にプログラマーとして使えるレベル を示してる。朝記事のClaude Code が世界のGitHub publicコミット4%を生成 という話、DeepSeek V4 でも同じ仕事ができる可能性 が出てきた。

ただ注意点もあって、ベンチマーク漏洩問題。中国モデルは トレーニングデータにベンチマーク問題が混入してる疑惑 が常にある。実運用での 「現場感」Claude Sonnet 4.6 の方が良い という声もまだ多い。「ベンチでは互角でも、実プロダクトでは Claude が一歩上」 という認識が現時点での妥当な見方。

MIT License で 1.6T パラメータ公開は商用可、企業のAI戦略を一変させる

ここがビジネス的に超重要な話。

DeepSeek V4-Pro/Flash は MIT License で公開されてる。MIT License って 「商用利用OK、改変OK、再配布OK、責任免除条項を残せばOK」 っていう 超寛容なライセンス

これ何が問題かというと、企業が「Claude/GPT に毎月数千万円払う」のをやめて「DeepSeek V4 を自社サーバで動かす」 という選択肢が現実的になったってこと。

具体的なコスト試算(1日100万トークン処理する中堅企業の場合):

  • Claude Sonnet 4.6 API: 月 約$450(約7万円)
  • GPT-5.5 API: 月 約$300(約4.5万円)
  • DeepSeek V4-Pro API: 月 約$104(約1.5万円)
  • DeepSeek V4-Pro セルフホスト(A100×8 サーバ): 月 GPU費用 $4,000 だが 無制限利用

つまり 使用量が多い企業ほどセルフホストの優位性が爆発的に増す月数千万トークン使う企業 なら、Claude/GPT 月数百万円 → DeepSeek V4 セルフホスト月50万円程度 に圧縮可能。

金融/医療/法律/自治体 など データを社外に出せない業界 にとっては、MIT License のオンプレ運用は神。今までは GPT-3.5 級でガマンするか、Claude を機密データなしで使うか の二択だったのが、「フロンティア級モデルをオンプレで合法に運用できる」 ようになった。

日本企業への直接的インパクトは:

  1. NTT データ/富士通/NEC の AI ソリューション事業が DeepSeek V4 を中核に組み替え する可能性
  2. 生成AI 導入を渋ってた中堅企業オンプレ DeepSeek で一気に導入
  3. Claude/OpenAI への支払額減る(特に大口顧客で)

ただ 国家安全保障的な懸念 もあって、「中国製モデルを政府/防衛/重要インフラに入れていいのか」 という議論が必ず出てくる。これは 米国 CAISIEU AI Act 高リスク分類規制される可能性が高い

効率改善で1Mコンテキストが現実的に。長文RAGのコスト問題が消える

これ地味だけどわたしたちの開発者ライフに直結する話。

DeepSeek V4-Pro は 「1M トークンコンテキスト」 をサポートしてる。これ自体は Gemini 2.5 Pro/Claude Sonnet 4.6 にも 1M/200K がある。問題は 「1M コンテキストを使うコスト」

普通の Transformer モデルだと、コンテキスト長が増えると計算量が二乗で増える(O(n²))。100K トークン投げると 1K の 10,000 倍 の計算量。だから API 料金も二乗で爆増 してた。

DeepSeek V4-Pro は V3.2 比で:

  • 推論 FLOPs: 27%(73%削減)
  • KV cache: 10%(90%削減)

これ、1M コンテキスト処理コストが従来の1/4-1/10 になったってこと。

何が嬉しいかというと、長文 RAG(Retrieval-Augmented Generation)の現実化

例えば「会社の社内文書 1,000 ページを全部AIに読ませて質問する」みたいなユースケース。今までは:

  • Claude Sonnet 4.6 1M Context: 入力 $3/M × 1M = $3/クエリ
  • DeepSeek V4-Pro 1M Context: 推測 $0.30/クエリ

つまり 「読み放題」が現実化 する。社内ドキュメント検索/法律文書解析/医療カルテ解析 などの 「フルコンテキスト推論」 が日常的に使えるレベルになった。

朝記事の Claude for Excel/PowerPoint/Word GA とか Claude for Legal(20+ MCP) も、バックエンドモデルが安く・速く・長文対応 にならないと エンタープライズ展開はできないDeepSeek V4 はその「実用性の臨界点」を超えた 最初のオープンモデル。

日本企業のオンプレAI戦略にDeepSeek V4は救世主か、リスクか

ここがめっちゃ悩ましい話。

日本企業の AI 導入は 2つのジレンマ に直面してる:

  1. コストジレンマ: Claude/GPT API は便利だけど 月数百万円〜数千万円 の支払いが発生、CFO が渋い顔
  2. データジレンマ: 機密データを 米国企業のサーバに送る のは GDPR/個人情報保護法/業界規制 で NG

DeepSeek V4 は 両方解決するMIT License でオンプレ運用可能コストは GPU 費用のみ

でも 新たなジレンマ も生まれる:

  1. 中国製モデルへの抵抗: 日中関係の悪化「中国製AI使ってる」 が企業イメージのリスクに
  2. データプライバシー: モデル自体はオープンだが、「中国当局がバックドアを仕込んでないか」 という懸念
  3. 規制リスク: 米国 CAISI日本のサイバーセキュリティ戦略本部中国製AIを規制対象 にする可能性

現実的な対応策としては:

  • 金融/医療/防衛/政府: DeepSeek V4 は使わない、Claude/GPT 系か 国産(Sakana AI/Preferred Networks) を選ぶ
  • 製造業/小売/サービス業: DeepSeek V4 でコスト圧縮 + Claude を高機能用途で併用 のハイブリッド
  • 個人開発者/スタートアップ: DeepSeek V4 で爆速で MVP 開発 → 後で Claude/GPT に切り替えるか継続するか判断

正直、わたし個人としては 「言語の壁が低くなる」 ことに期待してる。DeepSeek V4 は中国語に強い から、日本語と漢字圏言語(中国語・韓国語)の翻訳・要約タスクClaude/GPT より優秀 な可能性がある。東アジア向けプロダクト には DeepSeek が向いてるかも。


まとめ:フロンティアモデルのコモディティ化と次の儲け方

DeepSeek V4-Pro/Flash の MIT 公開は、AI 産業のビジネスモデルが根本から変わる 起点。

ポイントは3つ。

ひとつめ、オープンソースがフロンティアに追いついたAIME で Claude 4.6 を0.4pt上回りSWE-Bench 80.6%/Codeforces 3,206実用ベンチ全てClaude/GPT 級「クローズドが高品質、オープンが低品質」というルールは終わった

ふたつめ、MIT License + 効率改善で「実用性の臨界点」を超えた1M コンテキストが現実的なコスト で動く、オンプレ運用が合法改変・再配布自由企業の AI 戦略を根本から見直す 必要が出てきた。

みっつめ、儲け方が変わる「フロンティアモデルの粗利」では儲からない時代朝記事の Anthropic(業務SaaS)/昼記事の Sierra(アプリエージェント)/Parallel(検索インフラ)/OpenAI Deployment Company(コンサル+実装) のように、「モデルの上に乗るアプリ・サービス・インフラ」 で儲ける構造が確定。

夕記事の Google → Anthropic $40BFractile $220MAnduril $5B も、「モデルがコモディティ化する未来」を前提に動いてる 投資。2026年5月14日は「フロンティアモデル粗利時代の終わりと、次の儲け方の始まり」が同日に確認された日

関連記事: Claude vs ChatGPT 完全比較 / Qwen 3.6 オープンソース戦略

ソース: