2023年以降、AI投資はNVIDIAのGPUという一点に集中してきた。H100・H200の供給不足、データセンターの建設ラッシュ、NVIDIAの時価総額3兆ドル超えという現象がその証左だ。しかし2025年に入り、状況が変わりつつある。GPUの供給制約が緩和に向かう一方で、「GPUを動かし続けるためのインフラ」が次のボトルネックとして浮上している。電力、ネットワーク、メモリ、そしてソフトウェアのレイヤーに、AI投資の重心が移動しようとしている。
本記事ではAIインフラのボトルネックがどのように変化しているかを整理し、次に投資が加熱する5つの領域と有力企業を、投資・ビジネス両面の視点から解説する。
なぜ今「GPUの次」が重要なのか
AIブームの第一フェーズはGPUの確保競争だった。ChatGPT登場以降、大規模言語モデル(LLM)の学習・推論に必要な演算能力の確保がすべての優先事項になり、NVIDIA H100は発売直後から数ヶ月待ちになった。この時期はGPUを持っているだけでビジネスが成立した。
だが現在、この状況に変化の兆しがある。NVIDIAのBlackwellアーキテクチャが量産フェーズに入り、AMDのMI300Xも実力が認知されてきた。Googleは自社TPUをさらに進化させ、AmazonはTrainiumシリーズを強化している。演算能力の調達難易度は相対的に低下しつつある。
それに代わって浮上しているのが「演算以外のボトルネック」だ。GPUを10,000枚並べても、それを動かす電力がなければ動かない。GPU間を結ぶネットワークが遅ければ大規模モデルのトレーニングは詰まる。データを高速に供給するメモリが不足すれば演算ユニットは遊休する。AIの「競争の軸」は演算チップ単体から、インフラスタック全体へと拡張されている。
ボトルネックの変化:GPU中心から電力・通信・メモリへ
大規模AIクラスターで実際に何が制約になっているかを数字で確認する。NVIDIA H100 1枚の消費電力は最大700W。これを10,000枚集積すると7MWになる。大規模データセンターではGPUクラスター1棟あたり50〜100MWの電力が必要とされており、米国の中規模都市の電力消費に相当する規模だ。IEA(国際エネルギー機関)の試算では、データセンターの世界消費電力は2026年までに倍増する見込みだ。
ネットワーク側では、10,000台のGPUを1つのジョブとして協調動作させるために、GPU間の通信帯域と遅延が直接スループットを左右する。NVIDIAのNVLinkは単一ノード内での高速接続を実現するが、ラック間・棟間をつなぐインターコネクトにはInfiniBandや400G/800Gイーサネットが使われており、この部分のコストと性能がクラスター全体の効率を決める。
メモリ帯域幅の制約も深刻だ。大規模モデルの推論では、パラメータをGPUメモリに読み込む速度がスループットのボトルネックになる。HBM(High Bandwidth Memory)はGPUダイに近接実装された積層型メモリであり、DDR系メモリの10倍以上の帯域幅を持つ。しかしH100に搭載されるHBM3の生産能力はSK Hynix・Samsung・Micronの3社しか担えず、GPU需要の増加に対してHBMが供給制約になっている。
次に投資が加熱する5つの領域
① 電力・電源インフラ
AIデータセンターの急増は電力グリッドへの負荷を急増させており、送配電設備・変電所・UPS(無停電電源装置)・冷却システムへの需要が爆発的に伸びている。特に米国・欧州では既存の電力インフラが老朽化しており、アップグレードが追いつかない状態だ。
ボトルネックは大きく二つある。一つは電力の調達自体であり、再生可能エネルギーの供給増速が課題だ。MicrosoftはAI電力確保のためにスリーマイル島原子力発電所の再稼働に出資した(2023年)。もう一つは電力変換・配電機器であり、高電圧直流給電(HVDC)システムや液冷対応の電源ユニットの需要が急拡大している。
有力企業として注目されるのは、電力管理機器大手のVertiv(VRT)・Eaton(ETN)・Emerson、原子力を含む電力生成側のConstellation Energy(CEG)・Vistra(VST)、変圧器・送電設備のHTアメリカ・ABBなどだ。
② ネットワーク(インターコネクト)
大規模AIクラスターにおけるGPU間・サーバー間・データセンター間の通信性能は、トレーニング効率と推論スループットを直接左右する。この領域ではInfiniBandとイーサネットの二つの技術が競合しており、どちらが主流になるかで恩恵を受ける企業が変わる。
現在NVIDIAのAIクラスターではInfiniBand(Mellanox買収により内製化)が主流だが、MicrosoftやMetaはスケールとコストの観点から大規模イーサネット構成に移行しつつある。400G・800Gの超高速イーサネット対応スイッチ・NICの需要が急増しており、これを製造するBroadcom(AVGO)・Arista Networks(ANET)・Marvell Technology(MRVL)が注目されている。
特にBroadcomはAI向けカスタムASIC(Google TPU・Meta Manta RayなどのAIアクセラレータ)の製造受託も担っており、GPU以外のAIチップサプライチェーンでの存在感が急速に高まっている。
③ メモリ(HBM)
HBM(High Bandwidth Memory)はAIアクセラレータの性能を決定的に左右するコンポーネントだ。通常のDRAMがCPU/GPUとは別の基板に搭載されるのに対し、HBMはGPUダイと同一パッケージ内に積層実装され、帯域幅はHBM3Eで3TB/s以上に達する。
供給側はSK Hynix・Samsung Electronics・Micron Technologyの3社に集約されており、寡占市場だ。SK HynixはNVIDIA向けHBMの主要サプライヤーとして先行しており、HBM3E・HBM4の量産競争でリードを保っている。SamsungはHBM品質問題でNVIDIA認定に遅れがあったが、2025年以降の供給体制を整えつつある。MicronはHBM3Eで市場参入を果たし、後発ながら競争力を高めている。
HBMの製造には極めて高い技術難度と専用の製造装置が必要であり、新規参入が困難な参入障壁がある。AI需要が続く限り、この3社の供給能力が業界全体の上限を規定する構造は当面変わらない。
④ エッジAI
クラウド集中型のAI処理には本質的な限界がある。遅延(クラウドまでのデータ往復時間)、帯域コスト、プライバシー・規制上の制約、そしてネットワーク接続が前提になることだ。これらを解消するために、推論処理をユーザーのデバイスや近傍のエッジサーバーで実行するエッジAIへの関心が急速に高まっている。
スマートフォンにはすでにニューラルエンジンが搭載されており、AppleのA18・M4チップやQualcommのSnapdragon 8 Eliteは端末内でLLM推論を実行できる。産業・医療・自動車の分野ではリアルタイム性が要求されるため、クラウド依存なしの推論が必須条件だ。
有力企業はQualcomm(QCOM)・Apple(非上場だが関連サプライヤーとしてTSMC・TSMC製造工程向けのASML)・ARM Holdings(ARM)・Hailo(非上場のイスラエルAIチップ新興)などだ。また、エッジAI向けモデル軽量化技術(量子化・知識蒸留)を提供するソフトウェア企業群も今後台頭が見込まれる。
⑤ AIソフトウェア・エージェント
インフラが成熟するにつれて、投資の重心はハードウェアからソフトウェアのレイヤーにも移行する。特に注目されるのがAIエージェント(自律的にタスクを実行するAIシステム)の実用化だ。単一のモデルが質問に答えるのではなく、複数のモデルがツールを使い、外部システムと連携しながら多段階の業務を処理するアーキテクチャが、2025年以降急速に実用段階に入りつつある。
この領域での価値を持つのは、基盤モデルを提供するAnthropic・OpenAI(非上場)に加え、エンタープライズ向けAIプラットフォームを展開するMicrosoft(Azure AI・Copilot)・Salesforce(Agentforce)・ServiceNow・WorkdayなどのSaaSプレイヤーだ。エージェントの実行基盤となるオーケストレーション技術(LangChain・LlamaIndex等)や、RAG(検索拡張生成)インフラを提供するベクトルデータベース企業(Pinecone・Weaviate等、多くが非上場)も重要な位置を占める。
NVIDIAとAMDの立ち位置の違い
NVIDIAの競争優位はGPU性能そのものよりもエコシステムにある。CUDAという並列計算プログラミング環境は20年近い歴史を持ち、研究者・エンジニアの膨大な資産(コード・ノウハウ・ライブラリ)がCUDAベースで構築されている。NVLinkによるGPU間高速接続、DGX CloudによるマネージドAIインフラ、TRTLLMなどの推論最適化ライブラリも含め、NVIDIAはチップ単体ではなくシステムとして差別化している。この「エコシステム障壁」の高さが、競合がスペックで近づいても顧客が乗り換えにくい理由だ。
AMDはROCmソフトウェアスタックを改善し、MI300Xでメモリ容量・帯域幅でH100を超えるスペックを実現した。価格競争力と供給安定性の観点からMeta・MicrosoftなどのハイパースケーラーがAMD調達を増やしており、「GPU二社体制」が徐々に定着しつつある。ただしCUDAエコシステムの代替としてROCmが同等の開発者体験を提供するには、まだ相当の距離がある。AMDの強みは性能・価格・供給であり、エコシステム障壁はNVIDIAが現時点では圧倒的に優位だ。
IntelはGaudi 3でAI市場への参入を強化しているが、NVIDIAとAMDの先行に追いつくには技術・エコシステムの両面で課題が残る。より重要な動きはBroadcomとMarvelのカスタムASIC事業であり、GoogleやMetaが自社AIワークロードに最適化した専用チップをNVIDIA・AMDなしで調達する選択肢が現実的になりつつある点だ。
今後のシナリオ:3つのパターン
シナリオA:GPU一強の継続(確率:中程度)
NVIDIAがBlackwell・Rubin世代でも技術リードとCUDAエコシステム障壁を維持し、競合が実質的に追いつけない状態が続く。電力・ネットワーク・メモリの各分野に投資が分散する一方、NVIDIAはプラットフォーム化によってそれら分野でも収益機会を広げる。AI投資全体のパイが拡大し、インフラ各社とNVIDIAが共存共栄するシナリオだ。
シナリオB:インフラ分散化(確率:高め)
電力・メモリ・ネットワークが独立したボトルネックとして認識され、各領域に専門プレイヤーへの投資が集中する。NVIDIAのGPU事業は成熟期に入り成長率が鈍化する一方、Vertiv・SK Hynix・Arista・Broadcomなどインフラ企業が相対的に高い評価を受けるようになる。カスタムASIC(Google TPU・Meta等)の比重が増し、汎用GPU市場の成長余地が縮小する。
シナリオC:エッジシフト(確率:低め・長期的には高い)
クラウドAIの電力コストと遅延が限界に近づき、推論処理の重心がエッジデバイスに移行する。スマートフォン・産業機器・車載システムが主要な推論実行環境になることで、Qualcomm・Apple・ARM系チップベンダーが台頭し、大規模データセンターへの依存度が相対的に低下する。このシナリオが現実化するには端末側のメモリ・演算能力の飛躍的向上が必要であり、2027〜2030年以降の問題だ。
まとめ
AI投資の焦点はGPU単体から、それを取り囲むインフラスタック全体へと広がりつつある。電力・ネットワーク・HBM・エッジAI・エージェントソフトウェアの5領域が次の投資候補であり、それぞれに固有のボトルネックと有力プレイヤーが存在する。NVIDIAは引き続き中心的な位置を占めるが、エコシステム内の価値分配が多様化する方向は不可逆だ。
一番重要な洞察
AIの競争は「誰が最速のチップを作るか」から「誰がシステム全体のボトルネックを最初に解消するか」に移行した。GPUを持つことはもはや差別化の源泉ではなく、インフラスタックのどこが次の制約になるかを先読みして投資できる企業と投資家が、次のフェーズで優位に立つ。技術の進化は常に「一番遅い部品」によって制約されるという物理的な事実は、AI時代も変わらない。
AMD(アドバンスト・マイクロ・デバイス社)が2025年末から2026年4月までに公表した主要なニュース
以下に、AMD(アドバンスト・マイクロ・デバイス社)が2025年末から2026年4月までに公表した主要なニュースやブログのポイントをまとめます。日付は日本時間に換算しています。
2026年最新プレスリリース
- 「Advancing AI 2026」イベント発表(2026年4月28日) – AMDは、2026年7月23日にサンフランシスコで開催するAI技術の旗艦イベント「Advancing AI 2026」を発表しました。同イベントでは、クラウドから組み込み、AI PC、ゲームまで幅広い分野でAMDのAIソリューションを紹介する予定です。
- 2026年度第1四半期決算発表予定(2026年4月8日) – AMDは2026年5月5日に2026年度第1四半期決算を発表し、カンファレンスコールで業績説明を行うことを告知しました。
- Ryzen AI 400シリーズ & PRO 400シリーズ発表(2026年3月2日) – モバイル向け「Ryzen AI 400」および企業向け「PRO 400」シリーズを発表。Zen 5コア、RDNA 3.5 GPU、XDNA 2 NPUを統合し、最大50 TOPSのAI性能を提供。競合比でマルチスレッド性能が約30%向上し、Microsoft Copilot+ PC体験をサポートします。HPやLenovoが第2四半期に搭載製品を出荷予定です。
- NutanixとのAIインフラ提携(2026年2月25日) – AMDはNutanixに1億5000万ドルを出資し、さらに1億ドルを共同研究・販売に投じる長期パートナーシップを発表。EPYC CPUとInstinct GPU、ROCmソフトウェアを最適化し、データセンターやエッジ向けのオープンなエージェントAIプラットフォームを2026年後半に提供する計画です。
- Metaとの6 GW規模GPU供給契約(2026年2月24日) – MetaはカスタムMI450ベースGPUを採用し、2026年後半から最大6 GWにわたるInstinct GPU導入を計画。Metaは6世代目EPYC CPUのリードカスタマーとなり、GPU購入実績に応じてAMD株式160 百万株の認定ワラントを受けることになりました。
- TCSとの「Helios」プラットフォーム(2026年2月16日) – インドに200 MW規模のHeliosラック型AIプラットフォームを展開するため、タタ・コンサルタンシー・サービシズ(TCS)と提携。MI455X GPU、Venice EPYC CPU、Pensando Vulcano NICs、ROCmソフトウェアを組み合わせ、インド企業のAI訓練・推論基盤を強化します。
- Ryzen 9 9950X3D2「Dual Edition」CPU発表(2026年4月8日報道) – Techメディアによると、AMDは新しいデスクトップ向けCPU「Ryzen 9 9950X3D2」を4月22日に発売予定。Zen 5コア16基/32スレッドで、両方のCCDに3D V‑Cacheを搭載した世界初の“デュアルキャッシュ”X3D CPU。L3キャッシュは192 MB、TDPは200 W、価格は899ドルと発表され、ゲーム向けではなく開発者やコンテンツクリエイター向けに位置付けられています。
技術ブログ・開発動向
- 宇宙へのAI展開(2026年4月27日) – 「AI in Space」ブログでは、衛星や宇宙船の厳しい電力・熱環境下でAIを動作させるために、AMDの適応型コンピューティングが活用されていると説明。ローバーやArtemis計画に採用された実績を踏まえ、モジュール式システムや112 Gトランシーバーなどを用いた軌道上データセンター構想を紹介しています。
- AI Playbooks公開(4月27日) – 開発者向けにローカルAI環境構築手順をまとめた「AMD AI Playbooks」をGitHubで公開。ComfyUI + Z Image TurboやLM Studioなど、複数のワークフローを段階的に説明しています。
- AI PC採用の動向(4月27日) – IDCのホワイトペーパーによると、企業の81%がAI PCの導入を計画・試験中で、59%が高性能NPUを重要視し、66%が生産性向上を報告。AMD Ryzen AI PRO シリーズがエンタープライズ向けのAI端末構築に役立つと解説しています。
- Agent Computerの概念(3月13日) – 従来のPCを超え、AIエージェントが常時稼働してユーザーの計画や処理を代行する「Agent Computer」を提唱。Ryzen AI Max+ プロセッサーとRyzen AI Haloプラットフォームが適しており、個人データをローカルで保持しながらタスクを自動化できると説明しています。
- オフラインのエージェントAI(1月5日) – Iterate.aiの「Generate Agentic AI Suite」を紹介。AMD Ryzen AI搭載PC上で完全にオフラインのAIエージェントを動作させ、ニュース要約・健康コーチ・金融管理などのプリセット「エージェントカード」を提供します。
- 効率が主役になる次世代AI(4月29日) – CTOのマーク・ペーパーマスターとLiquid AI CEOの対談では、今後のAIはクラウド中心から効率重視のローカル実行へ移行し、NPUや専用基盤が重要になると強調。AIエージェント時代への移行が進んでいると述べています。
- Versal Prime VM2152 SoC発表(4月30日) – 医療や産業向けの新しいアダプティブSoC「VM2152」を紹介。112 GトランシーバーやLPDDR5/DDR5メモリ、400/600 Gイーサネット、暗号アクセラレーターを統合し、高速I/Oブリッジや基地局処理などに向けた性能と長期供給を実現。
- 動画制作インフラの刷新(4月17日) – MediaKindと協力し、EPYCサーバーとソフトウェア定義プラットフォームでビデオストリーミングの効率化を推進。Zen 5/5cベースのEPYC CPUは最大192コアに対応し、ラック数と電力を削減しながら多数のチャネルを処理できると解説。
- Versal SoC検証の段階的アプローチ(4月17日) – Versal™アダプティブSoC設計の検証を高速化するため、機能シミュレーション→サブシステムシミュレーション→ハードウェア・イン・ザ・ループ検証の三段階モデルを提案し、従来のエミュレーションに比べてリスクを低減。
- ミモV2.5-ProとERNIE-ImageへのDay‑0対応(4月下旬) – XiaomiのエージェントモデルMiMo‑V2.5‑Pro(パラメータ数1兆)や百度の画像生成モデルERNIE‑Imageを、ROCm 7とAMD Instinct GPUで最適化し初日から動作するようにしたと報告。
- LLM学習プランニングツール「Primus projection」(4月24日) – 大規模言語モデルの学習計画を事前に検証できるツールを公開。メモリ使用量やトレーニング性能を分析し、最適な並列化パラメータを試行錯誤せずに選べるようにします。
- AI PCの経済価値検証(4月23日) – Forrester調査を引用し、AI PCにより従業員の時間削減と生産性向上が実証されていることを紹介。x86+AVX‑512とRDNA 3.5 GPU、50〜60 TOPS NPUを搭載するRyzen PROプロセッサーが企業の全階層で統一的なAI導入を可能にすると説明。
- NAB 2026での活動(4月17日) – ラスベガスで開催されたNAB 2026では、LEDボリュームを用いた仮想撮影やAI編集ツールが紹介され、EPYC CPUやRadeon AI PRO GPUを使った製作現場の効率化が取り上げられました。
- OCPにおけるオープン標準推進(2025年10月15日) – AIインフラをオープンな接続規格で構築する重要性を強調し、UALinkコンソーシアムやUltraEthernet Consortiumの活動、Heliosラックアーキテクチャの標準化への貢献を述べています。
- Kintex UltraScale+ Gen 2 FPGA(2026年2月4日) – 医療や工業用アプリケーション向けに、従来比最大5倍のメモリ帯域と2倍のチャネル密度を持つ中価格帯FPGAを発表し、LPDDR5/5X対応や長期供給(2045年まで)を予告しています。
財務・経営関連
- 2025年第4四半期および通期業績(2026年2月3日発表) – 2025年Q4売上高は103億ドル(前年比34%増)で、非GAAPベースで純利益25億ドル、希薄化後EPS1.53ドルを記録。2025年度全体では売上346億ドル、非GAAP EPS 4.17ドルに達しました。
- その他の動向 – アクセンチュア出身のKC McClure氏が取締役に就任(2026年1月20日)。Salesforceの元CMOであるアリエル・ケルマン氏がマーケティング担当SVPとして入社(2月9日)。11月のFinancial Analyst Dayでは、5年以内に非GAAP EPSを20ドル以上に引き上げるとする長期成長戦略と、データセンターAI事業での80%超のCAGRを掲げました。
まとめ
AMDは2026年もAIとデータセンターを中心に積極的な事業展開を進めています。7月開催予定の「Advancing AI 2026」では、クラウドからエッジまでを包含するAIプラットフォームを披露する見込みです。データセンター向けにはNutanixやMeta、TCSとの大規模パートナーシップを拡大し、HeliosラックやInstinct GPUの導入を進めています。クライアント分野ではRyzen AI 400シリーズやPRO 400シリーズがMicrosoft Copilot+ PC時代の到来を支え、2026年4月には3D V‑Cacheを両CCDに搭載した「Ryzen 9 9950X3D2」も登場予定です。さらに、宇宙や産業・映像制作など多様な領域にAIを広げる技術ブログを多数公開し、開発者向けの支援も積極的に行っています。