AI競争の主戦場が、ソフトウェアからハードウェアへと移っている。
ChatGPTの登場でLLM(大規模言語モデル)の能力が注目されたが、今やモデルの性能と同じくらい「それを動かすチップ」が競争力を左右する時代になった。NVIDIAのH100が品不足になり、各社がこぞって独自チップ開発に走る——この動きの中心にGoogleがいる。
なぜGoogleは複数のチップメーカーと組み、しかもその役割を使い分けているのか。技術的な構造から読み解いていく。
なぜ「推論チップ」が主役になっているのか
AI開発のサイクルは大きく二つに分かれる。モデルを学習(トレーニング)する段階と、学習済みモデルを使って答えを出す推論(インファレンス)段階だ。
これまでトレーニングが注目を集めてきた。膨大なGPUクラスターで数週間から数ヶ月かけてモデルを鍛える——その計算量と費用が議論の的だった。しかし現実のビジネスコストで見ると、推論のほうが圧倒的に比重が大きい。
ChatGPTが1億人に使われるとき、その1億回の応答処理を支えるのが推論だ。トレーニングは数回で終わるが、推論は24時間365日動き続ける。AWSやGoogleのクラウドコストの大半は推論が占めるという試算もある。
この「推論の大量処理を低コストで」というニーズが、汎用GPUではなく専用ASICへの注目を加速させた。
GoogleのTPU戦略:なぜ自社チップを持つのか
Googleは2016年からTPU(Tensor Processing Unit)という独自AIチップを開発してきた。現在はTPU v5まで進化しており、Google CloudのAIインフラの中核を担っている。
汎用GPUへの依存を断ち切る
NVIDIAのGPUは汎用性が高く、あらゆるAI処理に使える。しかし、その汎用性はコストにも跳ね返る。汎用設計には「使わない回路」が含まれ、消費電力や面積の面で非効率が生じる。
TPUはGoogleのワークロードに特化した設計だ。行列演算(Transformerの中心処理)を極限まで最適化し、汎用性を捨てて効率を取った。自社クラウドで大量に使うからこそ、専用設計の投資対効果が成り立つ。
サプライヤー分散:Broadcom一極からの脱却
TPUの製造・パッケージングでは長年Broadcomが主要パートナーだった。しかしGoogleはMarvell、さらにMediaTekを加え、複数ベンダー体制に移行しつつある。
その理由は三つだ。
① 供給リスクの分散:特定ベンダーへの集中は、そのベンダーの製造トラブルや地政学リスクが直接影響する。
② コスト交渉力:競合するサプライヤーがいなければ、価格交渉でGoogleは弱い立場に置かれる。
③ 技術の選択肢確保:Broadcom、Marvell、MediaTekはそれぞれ異なる強みを持つ。ニーズに応じて最適なパートナーを選べる体制を維持することが、長期的な競争力につながる。
各社の役割:技術的に何が違うのか
Broadcom:TPUの主要パートナー、大規模ASICの王者
BroadcomはGoogleとの関係が最も長く、最も深い。TPUの大規模ASIC設計において、Broadcomの能力は現時点で代替が難しい。
ASIC設計能力:数千億トランジスタを含む大規模チップを、歩留まりよく製造できる技術力は業界最高水準だ。TPUのような「一品もの大規模チップ」を量産できるのは、Broadcomの最大の強みといえる。
HBM統合と先進パッケージ:現代のAIチップは、演算チップ(ダイ)と高帯域幅メモリ(HBM: High Bandwidth Memory)を一つのパッケージに収める。Broadcomは「3.5D」と呼ばれる先進実装技術でHBMを統合する能力を持つ。チップとメモリを近接させることで、データ転送速度を最大化し、エネルギー損失を最小化する。
データセンターネットワーク:AIクラスターは数千〜数万チップが協調して動く。それを結ぶネットワーク機器(スイッチ、ファブリック)もBroadcomの主力製品だ。推論処理は「演算」だけでなく「チップ間通信」も含めたシステムで成り立っており、そのインフラを握っていることがBroadcomの立場を強固にしている。
Marvell:推論時代のカスタム設計者
MarvellはBroadcomに比べてやや地味な印象を持たれがちだが、推論チップ時代において固有の強みを持つ。
カスタムASICとインフラ統合:Marvellの強みは、顧客の要求仕様に合わせた高度なカスタム設計能力だ。汎用品ではなく「あなたのワークロードに最適化したチップ」を作ることができる。推論は学習と異なり、特定の処理パターンが繰り返されることが多い。その繰り返しパターンに最適化したASICは、汎用GPUより高い効率を実現できる。
HBM効率化とメモリ最適化:推論の速度を制限する最大のボトルネックはメモリ帯域だ。どれだけ演算チップが速くても、データをメモリから読み出せなければ演算が止まる。Marvellはメモリ制御回路の設計で強みを持ち、HBMの使い方を最適化する技術に長けている。
CPOとChiplet設計:CPO(Co-Packaged Optics:光接続の直接統合)は、チップと光通信を一つのパッケージに収める技術だ。電気信号より光のほうがデータを長距離・低電力で伝送できる。AIクラスター規模が拡大するにつれ、ラック内・ラック間の通信に光が必要になる。Marvellはこの分野に早期から投資しており、次世代AIインフラの通信設計で先行している。
Chipletは複数の小さなダイ(チップの断片)を組み合わせて一つの機能チップを作る技術だ。巨大な一枚チップを作るより、小さいチップを組み合わせるほうが歩留まりが上がり、異なるプロセスノードを混在させることができる。Marvellはこの設計手法にも積極的で、柔軟なカスタム対応を可能にしている。
MediaTek:低消費電力設計のスペシャリスト
MediaTekはスマートフォン向けSoC(System on Chip)で世界トップシェアを持つ台湾企業だ。AIインフラの文脈では後発だが、Googleが取り込んだ理由がある。
モバイル由来の低消費電力設計:スマホチップは「電池が続く範囲でいかに性能を出すか」という制約の中で設計される。この効率化ノウハウは、電力コストが経営を直撃するデータセンターにとって価値がある。
Googleが追加した理由:表面的にはサプライヤー分散の一環だが、もう一つの見方がある。Googleは「エッジ推論」——クラウドではなくデバイス側でAI処理を行う——にも注力している。スマホやIoT機器での推論チップ設計において、MediaTekは最も経験豊富なパートナーの一つだ。クラウドとエッジを両方カバーするパートナーポートフォリオを構築する意図が読み取れる。
AIチップの技術構造:演算だけでは勝てない
AIチップの性能を決める要素を整理すると、単純に「演算速度が速いチップを作ればよい」ではないことがわかる。
AIシステムのボトルネック
├── 演算(FLOPS)
│ └── ASIC・GPU の得意分野
├── メモリ帯域(HBM)
│ └── データを読み書きできる速さ
│ → ここが詰まると演算が止まる
├── チップ間通信(ネットワーク)
│ └── 複数チップの協調動作
│ → NVLinkやInfiniBandに相当
└── 電力・発熱
└── データセンターの物理制約
→ 電力あたりの性能が競争力を決める
NVIDIAのH100が強いのは、演算性能だけでなくこれらすべてを統合したシステムとして完成度が高いからだ。NVLink(チップ間通信)、HBM3(高帯域幅メモリ)、TensorRTによるソフトウェア最適化——すべてが噛み合っている。
GoogleのTPUはこれをGoogleのワークロードに特化した形で実現しようとしており、各社がそれぞれのボトルネック解消に役割分担している構造だ。
NVIDIAとの比較:なぜGoogleは独自路線をとるのか
NVIDIAのGPUは「汎用性」が最大の強みだ。同じH100でLLMの学習もできるし、画像生成もできるし、ゲームエンジンの物理演算にも使える。エコシステム(CUDA、各種ライブラリ)が圧倒的に充実しており、AIエンジニアにとってNVIDIAは「最初に選ぶ選択肢」だ。
しかしGoogleが独自路線を取る理由は明確だ。
コスト:H100は1枚30万〜40万円程度。Googleのデータセンターには数十万枚規模が必要で、NVIDIAへの依存は巨額のコストとベンダー固定を意味する。
最適化の深度:汎用品では実現できないGoogleワークロード固有の最適化がある。TPUはTransformerのアテンション計算を極限まで高速化するよう設計されており、汎用GPUより電力効率が高い場合がある。
サプライチェーンの自律性:AI覇権の核心はチップ供給に依存する。NVIDIAへの全面依存は戦略的リスクだ。
一方でGoogleはNVIDIAのGPUも購入・利用している。完全に排除する戦略ではなく、「自社チップでカバーできる部分は自社で、残りはNVIDIAで」というハイブリッドな現実解だ。
今後の展開:推論チップ競争の激化
現在の動向を見ると、いくつかの方向性が見えてくる。
推論特化チップの台頭:学習に比べ推論は処理パターンが単純なため、特化設計の効果が出やすい。Googleのように大規模に推論を行うプレイヤーが独自チップを持つことの価値は今後さらに高まる。
サプライヤー分散の加速:米中対立・台湾リスク・製造拠点の地理的集中——これらを背景に、どの大手クラウド企業もサプライヤーを増やす方向にある。MarvellやMediaTekにとってはチャンスの時代だ。
CPO・光接続の普及:AIクラスターが数万チップ規模になると、電気信号ではデータセンター内の通信が成立しなくなる。光接続の直接統合が本格化し、Marvellのような企業の役割が拡大する。
勝つのはどの構造か:仮説を言えば、「演算チップ+メモリ帯域+通信を一体で最適化できる企業」が勝者に近い。NVIDIAはその完成度が現時点で最も高い。GoogleはTPU+Broadcom/Marvell/MediaTekという分業体制で追う。Amazonのトレーニウム・インファレンシア、MetaのMTIAも同様の方向性だ。
クラウド各社が独自チップに向かう一方、NVIDIAは圧倒的なソフトウェアエコシステム(CUDA)の堀を持つ。この堀を崩せるかどうかが、2030年に向けた最大の問いだ。
一言でまとめると
GoogleはTPUを核に、Broadcomで大規模ASIC・ネットワーク、MarvellでカスタムASIC・光通信、MediaTekで低消費電力・エッジを担わせる「役割分業型チップエコシステム」を構築しており、NVIDIAへの依存脱却と推論コスト削減の両立を目指している。AIチップ戦争の本質は演算速度ではなく、メモリ・通信・電力を含むシステム全体の最適化にある。





