A16z 推出由 NVIDIA Blackwell GPU 提供支持的 AI 工作站

robot
摘要生成中

在一个由基础模型和海量数据集主导的时代,开发者和研究人员越来越面临计算访问的瓶颈。虽然云计算提供了可扩展性,但隐私、延迟和成本的担忧使得许多构建者寻求高性能的本地替代方案。风险投资公司A16z现已推出其定制的AI工作站,旨在直接在本地提供企业级性能——由NVIDIA最新的Blackwell GPU提供支持。

满足高需求AI工作负载的全带宽

系统的核心是四个 NVIDIA RTX 6000 Pro Blackwell Max-Q GPU,每个配备 96GB 的 VRAM,总计 384GB。与典型的多 GPU 工作站将带宽分配到各个卡的方式不同,这里的每个 GPU 通过自己的专用 PCIe 5.0 x16 通道连接。这个设计提供了完整的 GPU 到 CPU 的带宽,确保模型训练和推理不出现瓶颈。

该系统配备了AMD的Ryzen Threadripper PRO 7975WX,这是一款针对重并行工作负载优化的32核64线程CPU。CPU与GPU共同创造了一个平衡的环境,用于训练大型语言模型、微调专业系统和运行多模态AI应用。

为扩展而构建的存储和内存

为了跟上GPU的吞吐量,A16z的工作站配备了四个2TB PCIe 5.0 NVMe SSD,提供近60GB/s的聚合带宽在RAID 0模式下。该机器还配备256GB的ECC DDR5内存,可扩展至2TB,支持八个通道。

这种组合不仅加速了大数据集的处理,还集成了NVIDIA GPUDirect Storage,使数据能够直接从SSD流向GPU内存。通过绕过CPU内存,这种设计显著减少了依赖快速数据移动的工作负载的延迟。

能源效率与流动性

尽管其强大的性能,这台工作站在能耗方面却出乎意料地节能。它的最大功耗为1650W,能够从标准的15安培插座供电。液体冷却系统在长时间的训练过程中稳定CPU,而机箱内置轮子,使得该设备可以在实验室和办公室之间方便移动。

释放地方AI潜力

A16z工作站被定位为研究人员和初创企业的灵活工具。它使团队能够在本地训练、微调和部署模型,而无需将敏感数据交给云端。除了大型语言模型,这台机器还支持多模态AI,使得文本、视频和图像数据的工作负载能够同时进行。

通过结合企业级GPU性能、大量存储带宽和实用设计,A16z的AI工作站在对AI资源需求空前增长的时刻,提供了本地计算基础设施的引人注目的愿景。

查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
0/400
暂无评论
交易,随时随地
qrCode
扫码下载 Gate App
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)