AI半導体市場という機械を解剖すると、動力源は意外な場所にある。
NVIDIAの2026年Q1市場シェアは82%。AMDは8%、Google TPUが4%、AmazonのTrainiumが3%。残りの競合を全部足しても18%だ。この非対称な支配は、H200の演算性能やメモリ帯域幅から来ているのではない。CUDAエコシステムという、20年かけて積み上げたソフトウェアの護城河が本体だ。
機械の構造はこうなっている。
研究者がCUDAを学ぶ。PyTorchがCUDAに最適化される。企業のMLエンジニアがCUDA前提のコードを書く。代替チップへの乗り換えには、この全層を書き直すコストが発生する。スペックがどれだけ優れていても、AMDのROCmやIntelのoneAPIは「使われないエコシステム」という壁を越えられていない。
スペック上はAMD MI350XがNVIDIA B200と同等以上の性能を持つ。だが実ワークロードでの性能はROCmの成熟度に依存し、現時点では理論値の70〜80%程度しか出ない。これがシェア8%の理由だ。
この機械を止める力は3つしかない。それぞれに確率を付ける。
シナリオ1:台湾地政学リスク(30%)
NVIDIA・AMD・Google・Appleのチップは全てTSMCの台湾工場で製造される。台湾有事シナリオでは供給が一時的に完全停止する。この場合、サムスン(韓国)や将来のIntel Foundryへの緊急移行が起きるが、歩留まり差と性能差でリカバリーに2〜3年かかる。勝者はどのメーカーでもなく「在庫を持っていた者」になる。
シナリオ2:標準化によるCUDA離れ(20%)
米国防総省・学術機関が中心となってAIコンピューティングの標準APIを策定し、PyTorchがそれに対応した場合、エコシステムの壁が崩れる。Googleが推進するOpenXLAやMLIRがその候補だが、現時点では産業界の採用が遅い。5年以内に実現する確率は20%とみる。
シナリオ3:Big Techによるカスタムチップ内製(50%)
GoogleのTPU、AmazonのTrainium、MetaのMTIA——自社ワークロードに特化した専用チップはNVIDIA汎用GPUより効率が高い場合がある。Big Tech各社のカスタムチップ内製比率が2028年までに30%を超える可能性は高い。ただしこれはNVIDIAの「外販市場」へのインパクトであり、NVIDIAの売上を直接削るのではなく成長率を鈍化させる形で現れる。
現在位置はどこか。2026年Q1時点では、NVIDIAの支配は揺るいでいない。Big Techの設備投資総額の約60%がAI半導体・データセンター関連に集中し、その大部分がNVIDIAに流れている。
ただし1つだけ注目すべきシグナルがある。Metaの2025年のカスタムチップ展開率と、MicrosoftがAzureに搭載するAMD MI300Xの比率だ。これが四半期ごとに増えていくなら、シナリオ3の進行を示している。
NVIDIAへの投資に反対する理由はない。だが「NVIDIAの独占が崩れ始めるシグナル」を何にするかを先に決めておくことが、この機械を理解するということだ。
引用元・参考リンク
免責事項 — 当記事は情報提供を目的としており、特定の金融商品の売買を推奨するものではありません。投資判断はご自身の責任で行ってください。