扫码下载 APP
qrCode
更多下载方式
今天不再提醒

辉达 GPU 与 Google、亚马逊 AWS 自研 AI 晶片的技术差异与未来市场走向

在生成式 AI 席卷全球的当下,驱动这一波革新的核心,是一颗颗高速运算的人工智慧晶片。过去十多年,辉达(NVIDIA)以 GPU 种下 AI 工业革命的种子,如今 Blackwell GPU 专为最先进的 AI 训练与推理打造,已成为全球资料中心的标准设备,去年出货量更达 600 万颗。在大型伺服器机架中,72 颗 GPU 可透过 NVLink 技术汇整为如同单一巨型 GPU 的运算单元。现今,AI 晶片市场已不再是辉达 GPU 独占的舞台,客制化 ASIC 、FPGA 正被大型科技企业采用,这些 AI 晶片的差别为何?未来会如何影响到 AI 发展,甚至可能会动摇辉达一家独大的局面?本文摘自CNBC 影片重点编译整理。

GPU:AI 黄金时代的开端

GPU 从游戏卡跃升为 AI 核心,可追溯至 2012 年的 AlexNet。研究团队首次将辉达 GPU 的平行运算能力用于神经网路训练,成功在影像辨识竞赛中大幅领先其他对手,也开启深度学习时代。

GPU 的核心优势来自其数千个并行处理核心,能高效执行矩阵乘法等张量运算,正适合 AI 训练与推理。现今辉达不仅向 OpenAI、各国政府与企业供应 GPU,也直接打造整套伺服器系统。单一机架的 Blackwell 伺服器售价高达 300 万美元,辉达甚至透露每周出货 1000 台,足见 AI 算力需求之狂热。辉达竞争对手 AMD 则依靠 Instinct GPU 与开源软体生态系加速进展,近期更获 OpenAI 与 Oracle 支持,成为 AI 基础设施市场重要推手,AMD GPU 的区别在主要使用开源软体,而 Nvidia GPU 则紧密围绕 CUDA 进行最佳化,CUDA 是 Nvidia 的专有软体平台。

专门为单一用途而设计的 ASIC 成为新趋势

从 Google、亚马逊、Meta、微软,到 OpenAI 与博通,各大云端巨头纷纷投入客制化 ASIC(应用专用积体电路)的研发。这些专为单一用途设计的晶片,在未来几年预计将成为成长速度最快的 AI 晶片类别。

随着大型语言模型步入成熟期,推理需求正快速超越训练。推理的成本、能耗与稳定度成为云端平台的痛点,而这正是 ASIC 的主战场,与万用的 GPU 不同,ASIC 如同一把「专用超精密工具」,针对单一类型 AI 工作负载进行硬编码最佳化,因此速度更快、功耗更低。缺点是灵活性较差,且开发门槛极高,一颗客制晶片的设计成本动辄数十亿美元,因此只有云端巨头能负担。

用于 AI 的客制化 ASIC 成本更高。极其昂贵,至少需要数千甚至数亿美元。但对于那些负担不起客制化 ASIC 的大型云端服务供应商来说,客制化 AS6 却能带来回报因为它们能效更高,而且减少了对辉达的依赖。

博通的 ASIC 强势挑战 AI 市占率

博通与 Marvell 等晶片代工设计公司,是超级大型云端企业的核心战略伙伴。Google TPU、Meta 自研加速器,以及 OpenAI 即将问世的 ASIC,都由博通深度参与。博通帮助建构 Google 的 TPU 和 Meta 的 AI 推理训练,分析师预估博通在客制化 ASIC 市场的市占率可达 70 % 至 80 %。

FPGA:介于 ASIC 与 GPU 之间的弹性选择

FPGA 用于在设备端而非云端为边缘 AI 提供支援的晶片。FPGA 最大优势在「可重新配置」。当企业需要在硬体尚未定案时测试架构时,FPGA 提供介于 GPU 通用性与 ASIC 高效能之间的选项。虽然效能不如 ASIC,但灵活度使其仍受到资料中心与嵌入式设备青睐。AMD(并购 Xilinx)与英特尔(并购 Altera)是 FPGA 市场的两大主力。

Google TPU

Google 是 ASIC 第一个大玩家,率先打造了用于人工智慧加速的客制化专用积体电路(ASIC),并在其首款 ASIC 于 2015年 问世时创造了 Tensor Processing Unit (张量处理器,TPU)这个术语。TPU 也促成 Google 于 2017 年发明了 Transformer 架构,成为 ChatGPT、Claude 等 AI 的共同基础。如今 Google 已发展到第 7 代 TPU Ironwood,并协助 Anthropologie 使用上百万颗 TPU 训练 Claude 系列模型。外界盛传 TPU 在某些情况下甚至超越辉达的 GPU,但 Google 传统上仅自用,因此 TPU 的真正潜力仍未完全释放。

AWS Tranium:云端推理矩阵

AWS 在收购 Annapurna Labs 后,全力投入自有 AI 晶片。Tranium 与 Inferentia 已成为 AWS 训练与推理平台的重要支柱。Tranium 以大量小型张量引擎组成,高度灵活,据 AWS 表示性价比高于云端中的其他硬体 30 % 至 40 %。2024 年,Anthropic 在 AWS 北印第安纳资料中心以 50 万颗 Tranium 2 训练模型,其中甚至完全没有辉达 GPU,可见 ASIC 的地位正在擡头。

NPU(神经网路处理器):手机、电脑、车用装置的边缘 AI 晶片

除了资料中心,AI 晶片也向个人装置延伸。NPU(神经网路处理器)为专门在装置上运行边缘人工智慧而设计的晶片,而不是在云端运行,可以保障个人隐私。现已整合在高通 Snapdragon、AMD、英特尔与苹果 M 系列 SoC 中,用于手机、笔电、智慧家庭、汽车甚至机器人。设备端 AI 将带来更高的隐私保障、更低延迟与更强的控制性,是下一波 AI 普及的重要推力。

台积电成为晶片争夺战的核心

无论是辉达 Blackwell、Google TPU 或 AWS Tranium,大多数 AI 晶片最终都由台积电代工。这让 AI 算力供应与全球地缘政治紧密绑定。美国正试图透过台积电亚利桑那厂与英特尔 18A 制程,将部分晶片制造能力拉回本土。然而,中国企业如华为、阿里巴巴也正积极打造自家 ASIC,在出口管制下寻求本土替代方案。

AI 晶片群雄时代来临

无论是辉达 GPU 的强势霸权,还是 Google、AWS、Meta、OpenAI 等企业的 ASIC 赛道与 NPU 正将边缘 AI 推往每一台手机与汽车,晶片战争仍在加速升温。虽然要撼动辉达的地位并不容易,但 AI 市场规模巨大,新玩家不断涌入,未来十年的晶片版图势必更加激烈。

这篇文章 辉达 GPU 与 Google、亚马逊 AWS 自研 AI 晶片的技术差异与未来市场走向 最早出现于 链新闻 ABMedia。

查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
0/400
暂无评论
交易,随时随地
qrCode
扫码下载 Gate App
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)