GoogleはMetaのPyTorchと提携し、NvidiaのAI支配に挑戦する

最終更新: 12/17/2025
  • Googleは、AIチップをPyTorchと完全に互換性を持たせ、Nvidia GPUからの移行を容易にするために「TorchTPU」を開発している。
  • この動きは、TPU をクラウドとオンプレミスで主流の代替手段に変え、Nvidia の CUDA エコシステムへの依存を減らすことを目指しています。
  • Google は PyTorch の管理者である Meta と緊密に協力しており、採用を加速するためにスタックの一部をオープンソース化することを検討しています。
  • PyTorch のサポートを強化することで、AI インフラストラクチャの多様化を望む企業のコストと技術的障壁を削減できる可能性があります。

AIハードウェアとソフトウェアのエコシステム

Googleは静かにその形を変えつつある 人工知能コンピューティング競争における戦略数年にわたり自社の社内分野に注力してきた同社は現在、自社の AI チップを、世界中のほとんどの AI 開発者のデフォルトの選択肢となっているオープンソース ツールキットの PyTorch とシームレスに連携させることに注力しています。

この変化の中心となるのは、社内で「 「トーチTPU」これは、Googleのハードウェアの作り方と、顧客が実際にAIシステムを構築する方法との間のギャップを埋めることを目指した取り組みです。Googleは、PyTorchのサポートをTensor Processing Unit(TPU)のファーストクラスのレベルに引き上げることで、 NvidiaがCUDAソフトウェアエコシステムを通じて築き上げた大きな優位性.

GoogleはTPUをNvidia GPUの強力なライバルにする

GoogleのTPUは長い間、 AIワークロード向けにカスタマイズされた高性能チップしかし、NvidiaのGPUの普及率には及ばなかった。その大きな理由の一つは、NvidiaがPyTorchを自社のハードウェア上で極めてスムーズに動作させることに何年も費やしてきたのに対し、Googleは主に自社のツールと社内ワークフローに注力してきたことにある。

アルファベットでは、TPUは Google Cloudの重要な成長エンジンクラウド プラットフォームを通じてこれらのチップへのアクセスを販売することは、AI への投資が研究の名声や実験的な製品だけではなく、具体的な収益につながることを投資家に証明するための Google の取り組みの中心的な部分となっている。

しかし、ハードウェアだけでは開発者を納得させることはできません。TPUを検討している企業は、Googleに繰り返し次のように伝えています。 ソフトウェアの互換性が問題となっているPyTorch に重点的に標準化したチームは、新しいチップを試すためだけにコードを再設計したり、スタッフを再トレーニングしたりすることを望んでいません。

そこでTorchTPUが登場します。この取り組みは、開発者の観点からTPUが PyTorch は現在の Nvidia GPU と同じくらい簡単に使用できます目標は、既存の PyTorch モデルとパイプラインを最小限の変更で移行できるようにし、TPU の実験にかかるコストとリスクを大幅に削減することです。

Google Cloudの広報担当者は技術的な詳細には触れなかったが、全体的な目標は顧客に AIワークロードの実行方法の柔軟性が大幅に向上、その下にどのハードウェアを選択するかに関係なく。

TorchTPUがPyTorch開発者に本当にもたらす変化

PyTorchは元々Metaによって開発され、推進され、 最新の AI システムを構築するための事実上の標準フレームワークシリコンバレーやその周辺地域のエンジニアのほとんどは、Nvidia、AMD、Google チップ用のカーネルを手動でコーディングしていません。代わりに、事前に構築されたコンポーネントとトレーニング ユーティリティのレイヤーを提供する PyTorch や同様のフレームワークに依存しています。

2016年のリリース以来、PyTorchの成長は CUDAとその周辺ライブラリ多くのウォール街のアナリストがNVIDIAの最も重要な戦略的資産と見なすソフトウェアスタックであるPyTorch。NVIDIAのエンジニアは、PyTorchが自社のGPU上で最大限の効率で動作するように多大な投資を行っており、大規模AIモデルのトレーニングと展開において、この組み合わせがデフォルトの選択肢となっています。

対照的に、Googleは何年もかけて ジャックスは、特に自社の研究・製品チーム内で好まれていた別のソフトウェアフレームワークです。TPUは、 XLA Jax ベースのコードを効率的に実行するために、Google の内部 AI ソフトウェア スタックとパフォーマンスの最適化の多くは、この組み合わせを中心に構築されました。

その結果、 Google自身がチップをどのように使用しているか そして、ほとんどの外部顧客がどのように作業を好むかです。多くの企業はほぼ完全にPyTorchを標準化しており、TPUへの移行はツール、コード、開発者スキルの破壊的な変化を伴います。

GoogleはTorchTPUでその摩擦を解消しようとしています。このプロジェクトは、 TPU での本格的な PyTorch サポートこれにより、企業は使い慣れたライブラリ、トレーニングループ、デプロイメントパターンを活用しながら、基盤となるハードウェアターゲットのみを変更することができます。これにより、TPUのパフォーマンスやコストメリットを評価したいチームのエンジニアリング作業と学習曲線が大幅に削減されます。

より多くのリソース、オープンソース、そしてより深いコミットメント

この取り組みに詳しい関係者によると、TorchTPUは単なる実験ではない。PyTorchをTPU上で動作させようとするこれまでの試みとは異なり、Googleは今回、 組織的な注目、予算、戦略的重要性が高まる 同社はこの取り組みを、ニッチな互換性プロジェクトではなく、AI インフラストラクチャ ロードマップの中心的な柱として扱っています。

検討中の最も注目すべき要素の一つは ソフトウェアスタックの一部をオープンソース化する TorchTPUの背後にある基盤です。Googleは、主要コンポーネントをコミュニティに公開することで、AIプラットフォームの導入を加速し、外部コントリビューターを引き付け、透明性と長期的な安定性を求める大規模顧客との信頼関係を構築したいと考えています。

このよりオープンな姿勢は、TPUサポートがGoogleの社内業務にあまりにも密接に結びついていると感じていた企業を安心させることも意味しています。外部の開発者にTorchTPUコンポーネントの検査、拡張、デバッグの機会を与えることで、 TPUは独自の島という感じが薄れる より広範な PyTorch エコシステムにおける第一級の存在のようなものです。

企業にとって、これは実用上重要です。TorchTPUが成功すれば、 Nvidia GPUからGoogle TPUへの移行コストを削減これにより、数年にわたるソフトウェアの書き換えを行わずにコンピューティング インフラストラクチャを多様化することが可能になります。

顧客はGoogleに対し、Jaxへの移行という従来の要件が大きな障害になっていると繰り返し訴えてきた。PyTorchはすでにAI開発者の間で主流であり、変化の激しい市場において、チームが移行している間に製品ロードマップを一時停止する組織はほとんどない。 新しい枠組みを中心に再構築する 代替ハードウェアにアクセスするためだけに。

社内ハードウェアから幅広いエンタープライズ向け製品まで

アルファベットは長い間、TPUの容量の大部分を Google社内での使用検索、翻訳、レコメンデーションシステム、そして初期のAI研究を支える基盤となっています。しかし、2022年にクラウドコンピューティング部門にTPUの製品化と販売に関する権限が拡大されたことで、その姿勢は変化し始めました。

それ以来、TPUは Google Cloudが大幅に増加AIに対する企業の関心が高まるにつれ、Googleは、顧客が独自の密結合GPUクラスターを管理することなくハイエンドコンピューティングを利用できる手段として自社のチップを位置付けています。

最近、Googleはさらに一歩進んで、 顧客自身のデータセンターに導入するためのTPUを直接販売するパブリッククラウドだけでなく、より包括的なクラウドへの移行が求められています。これにより、厳格な規制やレイテンシ要件を持つ大規模組織でも、Google のハードウェア ロードマップのメリットを享受しながら、TPU をオンプレミス インフラストラクチャに統合できるようになります。

この拡張により、Google社内の優先順位も変わります。同社はTPUの容量を必要としており、 独自のAI製品を運営する—Gemini チャットボットから AI を活用した検索機能まで — また、レンタル TPU 容量を利用する Anthropic などの著名な AI 企業を含む外部の Google Cloud 顧客にサービスを提供します。

これらすべてを調整するために、GoogleはAIインフラストラクチャのリーダーシップを強化しました:ベテラン幹部 アミン・ヴァハダット AIインフラストラクチャの責任者に任命され、現在はCEOに直接報告している。 サンダーピチャイこの報告ラインは、ハードウェアとソフトウェアのスタックが、Google のより広範な AI への野望にとっていかに中心的な存在となっているかを強調しています。

Meta との提携により TPU 上の PyTorch を強化

GoogleはTorchTPUを単独で追求しているわけではない。協議に詳しい関係者によると、同社は PyTorchの作者であり管理者でもあるMeta、TPU のサポートを加速し、両方のパートナーに利益をもたらす技術的な方向性を一致させます。

両社間の協議には、メタに より多くのTPU容量へのアクセス以前の提案では、これはマネージドサービスとして構想されていたと報じられている。つまり、Meta が独自のソフトウェアとモデルを実行できる環境に Google のチップを導入し、運用上のオーバーヘッドの大部分を Google が処理するというものだ。

Metaにとって、PyTorchをより幅広いハードウェアで効率的に動作させることは戦略的に重要です。同社には明確な動機があります。 推論コストを削減し、Nvidia GPUへの依存から脱却するこれにより、自社の支出を削減し、将来の半導体購入交渉における交渉力を強化することができる。

Googleと協力することで、MetaはPyTorchが ハードウェアに依存せず、幅広く最適化されている単一ベンダーのエコシステムに固く縛られていると見なされるのではなく、PyTorchはコミュニティ標準としての地位を強化し、研究者や企業にとって魅力的なフレームワークであり続けます。

メタはこれまでこれらの具体的な取り決めについて公にコメントすることを拒否してきたが、 利益の一致は明らかであるソーシャルメディアと AI の巨人である同社は、Nvidia 以外の選択肢を求めており、一方で Google は、より多くの顧客に試してもらえるよう、PyTorch が TPU 上でネイティブに感じられるようにしたいと考えています。

NvidiaのCUDAの優位性を削ぐ

AI分野におけるNVIDIAの優位性は、強力なGPUの供給だけにとどまりません。長年にわたり、同社はPyTorchなどのフレームワークに深く統合された、NVIDIAを基盤とした広範なソフトウェアスタックを構築してきました。このハードウェアとソフトウェアの組み合わせは、最先端のAIモデルの学習および推論におけるデフォルトのプラットフォームとなっています。

その緊密な統合により、多くの組織は Nvidiaから離れることはリスクが高く、費用がかかるコードベース、ワークフロー、スタッフの専門知識はすべて CUDA 向けに調整されているため、代替チップは、理論上はより良い価格やパフォーマンスを約束していても、潜在的な摩擦の原因となるように見えます。

GoogleのTorchTPUへの取り組みは、その優位性を直接的に損なう試みです。PyTorchがNVIDIA GPUと同等の容易さとパフォーマンスチューニングでTPU上で実行できれば、企業は 大規模なAIワークロードに対する信頼できる代替手段AIコンピューティングの需要が爆発的に増加し、供給制約が一般的になっている市場では、別の本格的な選択肢を持つことは非常に魅力的です。

同時に、GoogleがTorchTPUスタックの主要部分をオープンソース化することを検討するという決定は、NVIDIAのより垂直統合的なスタイルとは異なるアプローチを示しています。基盤となるソフトウェアをより多く共有することで、Googleは 透明性と移植性を重視する開発者の信頼を築く.

これらはTPUがGPUに取って代わることを保証するものではないが、計算は変わる。顧客は、NVIDIAの成熟したエコシステムと、ツールセットの完全な移行を必要とする代替手段のどちらかを選択するのではなく、 パフォーマンス、コスト、可用性 使い慣れた PyTorch 環境内にとどまりながら。

クラウドとオンプレミスの導入全体で、この変化により組織は ハードウェアプロバイダーを組み合わせる AI ロードマップをデフォルトで単一のベンダーに固定するのではなく、時間の経過とともに変化していきます。

GoogleがTorchTPUを通じてPyTorchへの取り組みを深め、TPUへの企業アクセスを強化し、Metaとの連携を強化するにつれて、 AIインフラをめぐる競争環境 状況は流動化しつつあります。長年のハードウェアとCUDA統合によって築き上げられたNVIDIAの優位性は依然として大きいものの、顧客はAIワークロードの実行場所や、その基盤となるコンピューティングへの支払い額を多様化するための、より現実的な道筋が見えてきています。

緊急停止装置
関連記事
エヌビディア、「キルスイッチ」疑惑とAIチップに関する政策提案に反論
関連記事: