AIブームの「本当の主役」は誰か
ChatGPT、Gemini、Claude——AI企業の競争が加速するなか、投資家や技術者の間で注目を集めているのがNVIDIAだ。
NVIDIAの株価は2023年以降、数倍規模で上昇し、時価総額は一時、世界トップクラスに達した。「AIブームの勝者はNVIDIA」というストーリーは広く知られている。
しかし、現場を深く見ている人たちのあいだでは、少し違う見方が広まっている。
「AIを動かしているのはGPUだけじゃない。メモリとパッケージがなければ、GPUはただの鉄の塊だ」——と。
AIチップの世界では今、NVIDIA(GPU)、SK hynix・Micron(HBM)、TSMC(パッケージ)の三者が一体となった構造が形成されている。この「三位一体」の仕組みを理解しないと、AIブームの本質は見えてこない。
NVIDIAの役割——「エンジン」としてのGPU
まずNVIDIAの役割から整理しよう。
GPUとは、もともと画像処理を高速に行うための半導体だった。画像処理は「同じ演算を大量に並列で行う」という性質を持っており、これがAIの学習・推論とも相性が良かった。
AIモデルの学習は、行列の掛け算を延々と繰り返すような処理だ。GPUはこの並列演算を圧倒的な速さでこなせる。CPUが「少数精鋭の連続処理」なら、GPUは「大人数の並列処理」——この違いがAI開発の速度を決定的に変えた。
NVIDIAが圧倒的な地位を持つのは、GPUの性能だけでなく、「CUDA(クーダ)」と呼ばれるソフトウェア基盤を長年かけて整備してきたからでもある。研究者・エンジニアがNVIDIAのGPUを前提にコードを書き続けた結果、乗り換えコストが非常に高くなっている。ハードウェアの優位性とソフトウェアの囲い込みが、NVIDIAの「堀(モート)」を形成している。
しかしここで重要な問いが生まれる。「GPUの計算能力を最大限に引き出すには、何が必要か?」
答えは——データを絶え間なく供給し続けるメモリだ。
HBMの役割——「燃料タンク」としての高帯域メモリ
AIの学習では、GPUが巨大なデータを何度も読み書きしながら計算を進める。このとき問題になるのが「メモリ帯域」——1秒間にどれだけのデータを転送できるか、という指標だ。
GPUがいくら高速に計算できても、データの供給が追いつかなければ意味がない。これが「compute constrained(計算力不足)」ではなく「memory constrained(メモリ帯域不足)」と呼ばれる問題だ。
従来のDRAMをGPUの横に置いても、データの転送速度(帯域)がボトルネックになってしまう。これを解決したのが
HBM(High Bandwidth Memory:高帯域メモリ)だ。
HBMの仕組みはシンプルに言えば「メモリチップを縦に積み上げて(スタック)、GPUのすぐ隣に置く」というものだ。縦に重ねることで接続の数(配線数)が爆発的に増え、転送速度が従来のDRAMの数倍〜十数倍に達する。GPUという「エンジン」に対して、HBMは「太いパイプで燃料を送り続ける燃料タンク」の役割を果たす。
現在、NVIDIAのH100・H200・B100といった最新AIチップには、必ずHBMが搭載されている。HBMなしにはAIチップは成立しない——これが現在の業界の共通認識だ。
TSMCの役割——「基盤と接続」を担うパッケージング技術
GPUとHBMが揃っても、もう一つの問題が残る。「GPUとHBMをどう物理的につなぐか」だ。
2つの異なるチップを1つのパッケージ(基板)の上に密着して配置し、超高速で信号をやり取りできるようにする技術——これが
インターポーザであり、TSMCが持つ
CoWoS(Chip-on-Wafer-on-Substrate)と呼ばれるパッケージング技術だ。
CoWoSを簡単に説明すると、「GPU(計算)とHBM(メモリ)を、高密度な配線が敷かれた中継板(インターポーザ)の上に並べて貼り付け、極めて短い距離で超高速通信させる」技術だ。この中継板を作れるのは現在ほぼTSMCだけであり、しかも製造には高度な技術と時間が必要なため、供給が追いつかない状況が続いている。
GPUがエンジン、HBMが燃料タンクなら、CoWoSとインターポーザは「エンジンと燃料タンクを接続する精密な配管システム」と言える。この配管が詰まれば、どれだけ高性能なエンジンと燃料を用意しても機能しない。
なぜAIは「需要不足」ではなく「供給不足」なのか
通常の産業では、需要が落ちれば在庫が積み上がり、価格が下がる。しかしAI半導体の世界では今、まったく逆の状況が起きている。
Google、Microsoft、Meta、Amazon——世界のビッグテックが、AIインフラへの設備投資を競うように増やしている。2025年時点で、主要各社の資本支出(CAPEX)は年間合計で数千億ドル規模に達しており、その多くがAIチップとデータセンターに向けられている。
需要側は「とにかく計算資源が欲しい」という状態だ。計算力が増えるほどAIの性能が上がり、サービスの質が上がり、売上が増える。だからビッグテックはGPUを買い続ける。
問題は供給側だ。NVIDIAがGPUを増産しようとしても、TSMCのCoWoS製造能力が足りない。HBMを増産しようとしても、製造装置(EUV露光機など)の調達に時間がかかる。
つまりAI半導体の世界では「作れば作っただけ売れる。しかし作れない」という供給制約が続いている。この構造が、NVIDIA・TSMC・HBMメーカー(SK hynix・Micron)に対して「圧倒的な価格交渉力」を与えている。
SK hynixはなぜ再評価されたのか
ここでメモリ産業の話をしよう。
かつてメモリ半導体は「コモディティ(汎用品)」と見なされていた。DRAMは誰でも作れる商品であり、景気に連動して価格が乱高下する「嫌われ株」の代表格だった。好況期に増産→不況期に在庫過剰→大赤字、というサイクルを繰り返してきた。
しかしHBMの登場で、この構造が根底から変わった。
HBMは通常のDRAMとは製造プロセスがまったく異なる。チップを縦に積み上げ(3D stacking)、TSV(Through-Silicon Via:シリコン貫通電極)と呼ばれる微細な穴で電気的につなぐ技術が必要だ。これは高度な製造技術であり、歩留まり(製品として使えるチップの割合)を上げるのに長い時間がかかる。
現在、HBMの量産ができているのは実質的にSK hynix、Micron、Samsungの3社だけだ。その中でも先行しているのはSK hynixで、NVIDIA H100・H200向けのHBM3・HBM3Eをほぼ独占的に供給している。
SK hynixが「コモディティメモリメーカー」から「AI半導体のキープレイヤー」に変わった理由は、HBMへの早期投資と技術的なリードにある。過去との最大の違いは、「誰でも作れない」という参入障壁だ。
HBMの参入障壁と寡占構造
なぜHBMはそう簡単に参入できないのか。
第一の障壁は
製造技術の複雑さだ。HBMはDRAMチップを4枚〜12枚以上積み上げ、縦方向に通した微細な配線(TSV)で接続する。チップ1枚の製造精度だけでなく、積み重ねたときの熱膨張や接合の安定性まで管理する必要がある。歩留まりを商業レベルまで上げるには、数年単位の技術蓄積が必要だ。
第二の障壁は
AIチップメーカーとの共同開発だ。HBMはGPUの設計と密接に連携して開発される。NVIDIAがGPUを設計するとき、搭載するHBMのスペックを前提にする。後からHBMメーカーに参入しても、既存の設計サイクルに割り込むのは難しい。
第三の障壁は
設備投資の規模だ。HBMの量産には先端DRAMの製造ラインに加え、積層・接合のための特殊装置が必要であり、工場建設に数千億円規模の投資がかかる。需要があっても、供給を増やすまでに2〜3年かかる。
このため、HBMは「競争が緩やかな寡占市場」として機能しており、価格下落圧力が通常のDRAMより大幅に低い。
なぜHBMは置き換えられないのか
「いずれ別の技術がHBMを代替するのではないか」という疑問は自然だ。
現時点で有力な代替候補として挙げられるのが
CXL(Compute Express Link)と呼ばれる接続規格だ。CXLはGPUとメモリをより広い範囲でネットワーク化する技術であり、長期的には大規模メモリプールを実現できる可能性がある。
しかしCXLは「広帯域・大容量」の方向であり、HBMが解決しようとしている「GPU直近の超低遅延・超高帯域」という要件を完全には代替できない。両者は補完関係にあると見るのが現時点では正確だ。
また、新技術が登場してもその製造基盤を持つのは結局SK hynix・Micron・Samsungであり、HBMで築いた技術的な優位が次世代メモリにも引き継がれる可能性が高い。
今後のボトルネック——HBMかパッケージか
AIインフラの需要が増え続けるなか、次のボトルネックはどこに来るのか。
現時点では「
CoWoSパッケージング能力」が最大のボトルネックとされている。TSMCがCoWoSの生産能力を急拡大しているものの、需要の増加速度に追いつけていない。CoWoSを使えるチップ数が、AIチップ全体の生産量の上限を決めてしまっている。
一方で、HBMも次世代(HBM4・HBM4E)への移行が始まりつつあり、より高帯域・大容量化が進む。HBMのスタック枚数が増えるにつれ、製造難易度と単価がさらに上がる。これはHBMメーカーにとってASP(平均販売価格)の上昇を意味する。
整理すると:
-
短期ボトルネック:TSMCのCoWoSパッケージング能力
-
中期ボトルネック:HBMの次世代品(HBM4)の量産歩留まり
-
長期課題:電力・冷却インフラ(データセンター側)
三位一体の構造が示すもの
ここまでの議論をまとめよう。
AIを動かすには「GPU(計算)× HBM(メモリ)× CoWoS/インターポーザ(接続)」の三位一体が不可欠だ。
| 役割 |
担当 |
たとえ |
| 計算 |
NVIDIA GPU |
エンジン |
| 記憶・供給 |
SK hynix/Micron HBM |
燃料タンク |
| 接続・統合 |
TSMC CoWoS |
精密配管システム |
この三者がそろわない限り、AIチップは完成しない。そしてこの三者はいずれも、代替が容易ではない参入障壁を持っている。
ビッグテックの設備投資という「川上」からの需要が確定しているなかで、この三者の供給制約が続く限り、価格交渉力と収益性は高い水準が維持されやすい。
「AIブームの恩恵はNVIDIAだけが享受している」という見方は、構造の一部しか見ていない。メモリとパッケージという「縁の下の力持ち」が、AI半導体市場を支えている。その事実を理解したうえで業界を見ると、見え方が大きく変わってくるはずだ。