🔥 Etched Sohu $5B評価|Transformer専用ASICがNVIDIA独占を崩しに行く

アイ
目次
NVIDIAの独占、いつまで続くのって話だった
NVIDIAがGPU市場80%以上を握ってる状態って、AIに関わる人なら誰でも知ってると思うんだけど、これに正面から挑むスタートアップが本気で資金を集め始めた。
Etchedっていう会社が1月に**$500M調達、累計約$1B、評価額$5Bになった。投資家はStripes**主導で、Peter Thiel、Positive Sum、Ribbit Capital、Balaji Srinivasanが入ってる。
SiliconANGLEでは、Etchedと Cerebras Systems の両社がNVIDIAをターゲットに大型調達したって書いてある。Cerebras(後述)はIPO進行中で、Etchedは本格商用化フェーズへ。
正直、わたし最初は「NVIDIAに勝てるわけないでしょ」って思ってた。あんな垂直統合(GPU+CUDA+ライブラリ+ネットワーク)でやってるところに、専用チップ出してもエコシステム整備が追いつかない予想だったから。
でも、Sohuの設計思想を見て考えが変わった。これ、「全部のAIモデルに対応する」のを諦めて、「Transformerだけ最速で動かす」ASICなんだよね。発想が一段階違う。
そう考える4つの理由
Sohuの「20倍」主張は本当か、それとも誇張か
Etchedが主張してる性能、ヤバい。
Tom's Hardwareによると、SohuはH100 GPUの20倍の速度・コストを主張してる。具体的にはLlama 70Bで約500,000 tokens/秒、8チップ構成でH100 160基相当の処理能力。
これ本当だとしたら、データセンター規模が1/20になる。例えば現在H100を1,000基使ってるAIサービスが、Sohu 50基で済む。電力・場所・コスト全部1/20。
ただ、わたしは慎重に見てる。なぜなら、2026年3月時点で顧客出荷前、独立ベンチマークなしだから。ai2.workでも、性能主張はEtchedの社内テスト由来で、第三者検証はまだ無いって明記されてる。
世間ではEtchedの性能主張を「NVIDIA終わった」って煽る記事がたくさん出てるけど、わたしは「実機ベンチマークが出るまでは半信半疑」のスタンスが正解だと思う。AIチップ業界、過去にも「H100超え」って言って実は遅かったケースが何度もある。
ただ、Transformer専用ASICっていう設計思想自体は理にかなってる。なぜなら、現代のLLMはほぼ全部Transformerアーキテクチャで、行列演算の同じパターンを繰り返してる。これを汎用GPUで処理するのは確かに非効率で、専用ハードウェアで「ハードコード」すれば10倍くらいの速度向上は理論上可能。
$500M調達でTSMC 4nm容量を取りに行ったのが本気度の証
ハードウェアスタートアップで一番難しいのって、ファブ容量の確保なんだよね。
TSMCの4nmプロセスって、AppleとNVIDIAとAMDがほぼ全部押さえてて、新規スタートアップが入る隙間がほぼゼロ。それを$500Mの資金力でファブ容量を強引に確保しに行ったのが今回の調達。
Awesome Agentsによると、SohuはTSMCの4nmプロセスとHBM(High Bandwidth Memory)を採用。HBMもサプライ厳しいから、こっちも資金で押さえる必要がある。
ai2.workによると、$500Mの使い道はTSMC 4nmファブ容量確保、コンパイラ/SDK開発、エンタープライズ営業構築の3つ。
これ、ハードウェアスタートアップの典型的な「生死を分ける支出」なんだよね。チップ設計だけならお金そんなに要らないけど、量産フェーズに入ると、ファブ容量とSDKエコシステム整備で何百億円単位で資金が要る。
世間では「Etchedの$500Mって規模感不明」って言う人もいるけど、わたしは「ちゃんと量産フェーズに進める最低限の資金を確保した」って読んでる。これがなかったら、Etchedは設計だけ立派で世に出ない「ヴェイパーウェア」になる可能性高かった。
ちなみに、累計$1Bってのは、Anthropic以外のAIスタートアップではかなり上位クラス。Cerebras(IPO中)、SambaNova、Groq、Tenstorrentと並ぶ。
「Transformer専用」は最強の賭けか、最大のリスクか
Sohuの設計思想は「Transformerアーキテクチャの行列演算パターンをハードコード」する。
これ、ピンとくる人にはピンとくると思うんだけど、**「Transformer以外のアーキテクチャは流行らない」**っていう極端な前提に賭けてる。
具体的にリスクを考えると、もしMamba(State Space Modelの一種)、RWKV(RNNとTransformerのハイブリッド)、Diffusion model for language(画像生成と同じ仕組みでテキスト生成)みたいな非Transformer系が広がると、Sohuは一気に陳腐化する。
でも、現状を見ると、LLMはほぼ100% Transformer。OpenAI(GPT系)、Anthropic(Claude)、Google(Gemini)、Meta(Llama)、xAI(Grok)、DeepSeek、全部Transformer。
The Decoder的な世界モデル系もTransformerベース、Sora / Veo / RunwayもTransformer。マルチモーダルも基本Transformer。
世間では「Transformer以外のアーキテクチャがそろそろ出てくる」って予想する研究者もいるけど、商用化フェーズではTransformerが圧倒的に枯れてて、トレーニング・推論ノウハウも蓄積されてる。5年スパンならTransformer一強が続く可能性が高いと、わたしは見てる。
だからこういうことは考えておいた方がいいよね。Sohuみたいな専用ASICが商用化されると、推論コストが1/10〜1/20になる可能性がある。これが現実化すると、AIサービスの価格構造が一気に変わる。ChatGPT Plusの$20/月とか、Claude Pro $20/月が、もっと安くなるかもしれない。あるいは同じ価格でもっと頻繁に推論できるようになる。
Cerebras / Groq / Tenstorrent との群雄割拠で勝者は限定される
NVIDIA独占に挑むスタートアップ、Etched以外にもたくさんある。
Cerebras Systemsは2026年にIPO進行中、Wafer-Scale Engineっていう「ウェーハ1枚まるごとチップ」アプローチで知られる。学習・推論両対応で、Etchedより汎用性が高い。
Groqは LPU(Language Processing Unit)で、Llama推論で1秒あたり数百トークンを実証済み。$2.8Bの調達済みで、Etchedより先行してる側面がある。
Tenstorrent Galaxy(Jim Keller氏率いる)は、RISC-Vベースのオープン設計で、Etchedとは違う方向性。
SambaNovaは学習+推論両対応の専用システム、エンプラ向けに $10K単位の月額契約モデル。
The AI Worldによると、Etchedの優位は「Transformer専用に振り切った効率性」。汎用性を捨てた代わりに性能・コストで圧倒する戦略。
世間では「Cerebras vs Etched どっちが勝つ?」って議論があるけど、わたしは「用途別に勝者が分かれる」って見てる。エンプラ学習はCerebras、エンプラ推論はEtched、リアルタイム推論はGroq、オープンソース重視はTenstorrent、みたいな棲み分け。
NVIDIA独占を「ガラガラ崩す」ってよりは、5社くらいで20%ずつシェアを取る形で多極化していく流れが現実的だと思う。それでもNVIDIAのシェアが80%→50%に落ちるなら、価格交渉力がバランスして、AIサービスのコストが全体的に下がる。
まとめ:NVIDIA独占崩壊の最初のクラックが入った
Etched Sohuの$5B評価とNVIDIAへの正面挑戦は、NVIDIA独占構造に最初のクラック(亀裂)が入った瞬間だなって思う。
$500M調達でTSMC 4nm容量を取りに行く資金確保、Transformer専用ASICっていう極端だけど現状最適な設計選択、20倍の性能・コスト主張(要検証)、累計$1Bでハードウェアスタートアップ上位クラスの体力。これ全部、NVIDIAに正面から挑む準備が整った状態。
ただ、リスクもデカい。2026年3月時点で出荷前っていう一番大事なポイントが残ってて、独立ベンチマークが出るのは早くても2026年後半〜2027年頭。それまでは「主張ベース」の話。Mamba / RWKV / Diffusionが流行ったら陳腐化リスクもある。
わたしたち利用者側は、Sohuみたいな専用ASICが普及することで、AI推論コストが1/10〜1/20になる未来を織り込んで動いた方がいい。具体的には、ChatGPT / Claude / Gemini が「月額$5〜10」とか「完全無料」になる時代が来る可能性が高い。今高いと思って使ってないAIツールも、1〜2年後にはお手頃になるかもしれない。
そして、エンプラAIに関わる人は、**「NVIDIA以外の選択肢」**を意識しておくのが大事。Cerebras(学習)/ Etched(Transformer推論)/ Groq(リアルタイム推論)/ Tenstorrent(RISC-V系)と用途別に選択肢が増えるから、自社のワークロードに合うチップを選べる時代が来る。
「NVIDIAしかない」だった時代は終わって、「用途別に最適チップを選ぶ」時代の入口に来た。Etched Sohu $5Bはその扉を開ける鍵だと思う。
関連記事: AIインフラ完全ガイド / AI推論コスト解説
ソース:
- AI chip unicorns Etched.ai and Cerebras Systems — SiliconANGLE
- Sohu AI chip claimed to run models 20x faster — Tom's Hardware
- Etched's $500M Sohu Chip Takes Aim at Nvidia — The AI World
- Etched Sohu — Awesome Agents
- Etched's $500 Million Raise — AI 2 Work
あわせて読みたい:
- Microsoft×Helion核融合DC|AIが「電力会社」を作り変える
- Reka AI $1Bユニコーン|独立系マルチモーダル
- Sakana AI×Google|日本AI主権の旗が立つ瞬間
- AIデータセンター電力危機2026
よくある質問
- Sohuの性能主張は本当に信用できる?
- Etchedの主張ではLlama 70Bで約500,000 tokens/秒、H100比10〜20倍のスループット/ワット、8チップでH100 約160基相当。ただし2026年3月時点で顧客出荷前で独立ベンチマークがなく、性能数値は社内テスト由来です。第三者検証は早くても2026年後半〜2027年頭の見込みで、それまでは「主張ベース」の段階と理解した方がいいです。
- Transformer専用ASICのリスクは?
- 「Transformer以外のアーキテクチャは流行らない」という極端な前提への賭けです。Mamba(State Space Model)、RWKV(RNNハイブリッド)、Diffusion for languageなど非Transformer系が広がれば一気に陳腐化するリスクがあります。ただし現状LLMはほぼ100% Transformer(GPT/Claude/Gemini/Llama/Grok/DeepSeek全て)で、商用化フェーズでは枯れているため5年スパンではTransformer一強が続く可能性が高いです。
- NVIDIAの独占は崩れるの?
- 完全に崩れるよりは「多極化」する見込みです。Cerebras(学習、IPO進行中)、Etched(Transformer推論)、Groq(リアルタイム推論、$2.8B調達)、Tenstorrent(RISC-V系オープン設計)、SambaNova(学習+推論)と5社で20%ずつ程度のシェアを取り合う形が現実的。NVIDIAのシェアが80%→50%程度に落ちれば、価格交渉力のバランスで全体のAIコストが下がる効果が期待できます。
- $500M調達は何に使われる?
- 用途は3つ:(1)TSMC 4nmファブ容量確保(AppleとNVIDIAとAMDが押さえる4nmで新規枠を取るには大量資金が必須)、(2)コンパイラ/SDK開発(NVIDIAのCUDAに対抗するソフトウェア生態系構築)、(3)エンタープライズ営業構築。ハードウェアスタートアップの「生死を分ける支出」で、累計$1Bは Anthropic以外では上位クラスの体力です。
- 利用者にとってのインパクトは?
- 専用ASIC普及でAI推論コストが1/10〜1/20になる可能性。ChatGPT Plus/Claude Pro/Gemini Advancedの$20/月が$5〜10/月になるか、同じ価格でより頻繁に推論できるようになります。エンプラAIに関わる人はNVIDIA以外の選択肢(Cerebras=学習、Etched=Transformer推論、Groq=リアルタイム、Tenstorrent=オープン)を意識しておくと、自社ワークロードに合うチップを選定できる時代が来ます。