界面ニュースによると、現地時間2月17日、NVIDIAとMetaは長期にわたる世代を超えた戦略的パートナーシップを締結したことを発表しました。両者の協力は、ローカル展開、クラウド、AIインフラストラクチャを含みます。具体的には、MetaはAIのトレーニングと推論を目的とした超大規模データセンターを構築し、同社の長期的な人工知能インフラストラクチャのロードマップを支援します。この協力により、NVIDIAのCPUや数百万のBlackwellおよびRubinアーキテクチャGPUの大規模展開が実現されるほか、NVIDIAのSpectrum-XイーサネットスイッチがMetaのFacebookオープンスイッチングシステムプラットフォームに統合されます。NVIDIAの創業者兼CEOの黄仁勲(ジェンスン・ファン)は、「世界中のどの企業もMetaのAI展開規模には及ばない。CPU、GPU、ネットワーク、ソフトウェアの協調設計を通じて、NVIDIAのフルスタックプラットフォームはMetaの研究開発チームに力を与える」と述べています。一方、Metaの創業者兼CEOのマーク・ザッカーバーグは、「NVIDIAとの協力を深め、Vera Rubinプラットフォームを活用した最先端の計算クラスターを構築できることを嬉しく思う」とコメントしています。注目すべきは、Metaが世界で初めて独立規模でNVIDIAのGrace CPUを展開した企業となったことです。界面ニュースによると、Grace CPUはNVIDIAのデータセンター、AI、高性能計算(HPC)向けのArmアーキテクチャを採用したフラッグシップCPUプロジェクトで、計算機の先駆者Grace Hopperにちなんで命名され、2021年4月に初めて発表されました。高効率なArmアーキテクチャを用いて、AI時代のデータセンターにおける計算能力と電力消費の矛盾を解決することを目的としています。両者はまた、NVIDIAのVera CPUの展開にも協力し、2027年までに規模展開を実現し、Metaの高効率AI計算能力の拡大を図る予定です。さらに、両社は、NVIDIAのGB300を基盤としたシステムを展開し、ローカルデータセンターとNVIDIAクラウドパートナーの展開環境を統一するアーキテクチャを構築します。これにより、運用の簡素化とともに、計算能力と拡張性を最大化します。Metaは全インフラストラクチャにおいてNVIDIA Spectrum-Xイーサネットネットワークプラットフォームを採用し、AIレベルのネットワーク能力を提供します。これらの協力は単なるチップの調達ではなく、全ての工程を連携させるものであり、外部からはMetaが自社開発のチップを放棄するのか注目されています。昨年3月には、Metaが自社初のAIトレーニング用チップのテストを開始し、TSMCと協力して製造しているとの報道もありました。Meta側は自社開発チップの最新進展について詳しく述べていませんが、NVIDIAとの協力内容から推測すると、自社開発チップは特定のシナリオを補完するものであり、主力の計算能力はNVIDIAの成熟したソリューションに全面的に移行している可能性が高いです。これにより、展開期間の短縮、技術リスクの低減、個人向けスーパーインテリジェンスや大規模モデルの迅速なイテレーションを支援し、長期的な技術蓄積を維持しつつ、AI事業の高速推進を図る狙いです。現在、テクノロジー大手はAIチップにおいて「自社開発+調達」モデルを一般的に採用しています。例えば、Googleは自社開発のTPUチップを持ちながらも、多くのNVIDIA GPUを調達していますし、Amazonも自社開発のTrainiumチップとともに、NVIDIAやAMDのチップを調達しています。2023年2月17日の米国株市場の終値では、NVIDIAは184.97ドルで1.18%上昇し、時価総額は4兆4900億ドルに達し、依然として米国株の中で最も時価総額の高い企業です。一方、Metaは639.29ドルで0.08%下落し、時価総額は1兆6200億ドルとなり、米国株時価総額ランキングで第九位となっています。(出典:界面ニュース)
ザッカーバーグと黄仁勋が超大規模な契約を締結、Metaは数百万個のNVIDIAチップを展開予定
界面ニュースによると、現地時間2月17日、NVIDIAとMetaは長期にわたる世代を超えた戦略的パートナーシップを締結したことを発表しました。両者の協力は、ローカル展開、クラウド、AIインフラストラクチャを含みます。
具体的には、MetaはAIのトレーニングと推論を目的とした超大規模データセンターを構築し、同社の長期的な人工知能インフラストラクチャのロードマップを支援します。この協力により、NVIDIAのCPUや数百万のBlackwellおよびRubinアーキテクチャGPUの大規模展開が実現されるほか、NVIDIAのSpectrum-XイーサネットスイッチがMetaのFacebookオープンスイッチングシステムプラットフォームに統合されます。
NVIDIAの創業者兼CEOの黄仁勲(ジェンスン・ファン)は、「世界中のどの企業もMetaのAI展開規模には及ばない。CPU、GPU、ネットワーク、ソフトウェアの協調設計を通じて、NVIDIAのフルスタックプラットフォームはMetaの研究開発チームに力を与える」と述べています。
一方、Metaの創業者兼CEOのマーク・ザッカーバーグは、「NVIDIAとの協力を深め、Vera Rubinプラットフォームを活用した最先端の計算クラスターを構築できることを嬉しく思う」とコメントしています。
注目すべきは、Metaが世界で初めて独立規模でNVIDIAのGrace CPUを展開した企業となったことです。界面ニュースによると、Grace CPUはNVIDIAのデータセンター、AI、高性能計算(HPC)向けのArmアーキテクチャを採用したフラッグシップCPUプロジェクトで、計算機の先駆者Grace Hopperにちなんで命名され、2021年4月に初めて発表されました。高効率なArmアーキテクチャを用いて、AI時代のデータセンターにおける計算能力と電力消費の矛盾を解決することを目的としています。
両者はまた、NVIDIAのVera CPUの展開にも協力し、2027年までに規模展開を実現し、Metaの高効率AI計算能力の拡大を図る予定です。
さらに、両社は、NVIDIAのGB300を基盤としたシステムを展開し、ローカルデータセンターとNVIDIAクラウドパートナーの展開環境を統一するアーキテクチャを構築します。これにより、運用の簡素化とともに、計算能力と拡張性を最大化します。Metaは全インフラストラクチャにおいてNVIDIA Spectrum-Xイーサネットネットワークプラットフォームを採用し、AIレベルのネットワーク能力を提供します。
これらの協力は単なるチップの調達ではなく、全ての工程を連携させるものであり、外部からはMetaが自社開発のチップを放棄するのか注目されています。昨年3月には、Metaが自社初のAIトレーニング用チップのテストを開始し、TSMCと協力して製造しているとの報道もありました。
Meta側は自社開発チップの最新進展について詳しく述べていませんが、NVIDIAとの協力内容から推測すると、自社開発チップは特定のシナリオを補完するものであり、主力の計算能力はNVIDIAの成熟したソリューションに全面的に移行している可能性が高いです。これにより、展開期間の短縮、技術リスクの低減、個人向けスーパーインテリジェンスや大規模モデルの迅速なイテレーションを支援し、長期的な技術蓄積を維持しつつ、AI事業の高速推進を図る狙いです。
現在、テクノロジー大手はAIチップにおいて「自社開発+調達」モデルを一般的に採用しています。例えば、Googleは自社開発のTPUチップを持ちながらも、多くのNVIDIA GPUを調達していますし、Amazonも自社開発のTrainiumチップとともに、NVIDIAやAMDのチップを調達しています。
2023年2月17日の米国株市場の終値では、NVIDIAは184.97ドルで1.18%上昇し、時価総額は4兆4900億ドルに達し、依然として米国株の中で最も時価総額の高い企業です。一方、Metaは639.29ドルで0.08%下落し、時価総額は1兆6200億ドルとなり、米国株時価総額ランキングで第九位となっています。
(出典:界面ニュース)