この動画は、OpenAIとBroadcomがAIチップの開発で提携したニュースについて、元マイクロソフトのエンジニアである中島聡さんへのインタビュー形式で解説しています。 主なポイントは以下の通りです。
  • OpenAIが自社チップを開発する理由:
    • NVIDIAへの依存とコスト削減: 現在、AIチップ市場はNVIDIAが一強の状態にあり、チップが不足している上に非常に高価です。NVIDIAのチップは利益率が約75%と高いため、自社でチップを開発すればその分をコスト削減できると中島さんは指摘しています [ 01:04:00]。
    • 推論の高速化と電力効率の向上: NVIDIAのチップは汎用性が高い一方、推論(学習したAIモデルを使って答えを導き出すプロセス)に特化したカスタムチップを開発することで、処理速度を上げたり、消費電力あたりの計算能力を向上させたりする可能性があります [ 01:33:00]。これは、すでにGoogleがTPU(Tensor Processing Unit)で行っていることと同様の動きです [ 01:52:00]。
  • 他の企業との比較とOpenAIの独自性:
    • Googleへの対抗: 中島さんは、OpenAIの自社チップ開発は、Googleが自社開発のTPUによってAIの性能と速度を向上させていることに対抗するためだと見ています [ 03:13:00]。具体例として、Googleの新しい画像生成AI「Nano Banana」が、OpenAIのAIに比べて圧倒的に速いことを挙げています [ 03:22:00]。この速度差は開発効率に大きな影響を与えるため、OpenAIもカスタムチップの導入が必須だと分析しています。
    • カスタムチップの可能性: Groqというベンチャー企業も、カスタムAIチップによって高速化を実現している実績があり、汎用ではないカスタムチップがAIの高速化に有効であることを証明していると述べています [ 05:10:00]。
結論として、中島さんはOpenAIが自社チップの開発に乗り出したのは、NVIDIAへの依存を減らし、Googleのような競合他社と性能面で戦うために追い込まれた状況にあるからだと解説しています [05:27:00]。

推論用のチップを作るのですか?

はい、その通りです。 前回の要約でお伝えしたように、動画では「推論(学習したAIモデルを使って答えを導き出すプロセス)に特化したカスタムチップを開発することで、処理速度を上げたり、消費電力あたりの計算能力を向上させたりする可能性」があると述べられていました。

やはり学習用はNVIDIAが一強が続きそうですね

おっしゃる通り、現在のAIチップ市場では、学習用の分野でNVIDIAが一強であるという見方が根強いようです。 動画の内容も、OpenAIが自社チップ開発に乗り出した理由の一つとして、NVIDIAのチップが非常に高価で、コストと供給面で課題があることを挙げていました。 ただし、今回のOpenAIの動きは、NVIDIAへの依存を減らすという目的で、特に推論に特化したカスタムチップを作る可能性が言及されています。これは、GoogleのTPUのように特定のタスクに最適化することで、速度や電力効率を高めようという動きです。 したがって、NVIDIAが学習用チップで強力な立場を維持する一方で、推論用チップの分野では、カスタムチップ開発が活発化し、競争が激しくなる可能性を示唆していると言えるでしょう。