輝達 Alpamayo 生態系登場:讓 AI 自駕車具推理能力,還能說明決策原因

在 2026 CES 展會期間,輝達 (NVIDIA) 正式發表一套由開源 AI 模型、模擬工具與真實駕駛資料組成的完整生態系 Alpamayo ,目標是加速「具推理能力」的自動駕駛技術發展。這套系統鎖定自駕車最難處理的長尾情境,也就是那些罕見、複雜、過去資料中很少出現的道路狀況,希望讓車輛不只是看得到,而是能像人類一樣理解狀況、推理因果,並清楚說明自己為何做出這樣的駕駛決策。

Alpamayo 開源生態系亮相,公布三大核心

在 CES 展上,輝達執行長黃仁勳 (Jensen Huang) 對外揭露 Alpamayo 家族的完整架構,並涵蓋三大核心:

具「思考過程」的 VLA 模型

全開源、高擬真的自動駕駛模擬系統

大規模、跨地區的真實駕駛資料庫

黃仁勳表示,這套設計是為了因應自動駕駛在現實世界中,面對無法預期狀況時的安全與多項挑戰。

(註:VLA 模型,全文為 Vision-Language-Action,就是一種看、聽懂、再動作這三件事整合在一起的 AI 模型架構。)

自駕最大痛點,長尾情境仍是安全門檻

黃仁勳指出,自動駕駛系統必須在極其多樣的道路條件下運作,而真正困難的,往往不是日常情境,而是少見卻高風險的狀況,例如突發事故、非典型交通行為或特殊環境因素。

傳統自駕架構多半將「感知」與「規劃」分開處理,這種方式在遇到未知或新型狀況時,擴展性有限。近年端到端學習雖有進展,但黃仁勳認為,要真正跨越長尾問題,系統必須具備「因果推理能力」,能理解事件之間的關係,而不只是套用既有模式。

Alpamayo 核心概念,要讓車子能一步步想清楚

Alpamayo 家族導入思考鏈 (Chain-of-Thought) 概念,打造具推理能力的 VLA 模型,讓自駕系統在遇到新或罕見狀況時,能逐步推導行動邏輯。以下是 Alpamayo 三項主要能力:

視覺感知:理解道路與周遭環境。

語言理解:掌握情境與語意脈絡。

行動生成:實際產生駕駛決策。

黃仁勳強調,這種設計不只提升駕駛能力,也能提高決策可解釋性,有助於建立對自動駕駛安全的信任,整體系統並以輝達的 Halos 安全系統為基礎。

實體 AI 迎來關鍵轉折,自駕計程車將率先受惠

黃仁勳接著表示,實體 AI 正進入關鍵轉折點,當機器開始能在真實世界中理解、推理並採取行動,就像 ChatGPT 改變了數位 AI 一樣,而自駕計程車將是最早受益的應用之一。

他強調,Alpamayo 能讓車輛在複雜環境中安全行駛,並說明自己的決策理由,這是實現可擴展自駕的重要基礎。

三大支柱一次到位,打造完整開源生態系

輝達將 Alpamayo 定位為「教師模型」,並非直接部署在車上,而是作為訓練、微調與蒸餾其他車載模型的基礎。

從資料、推理模型、駕駛決策、模擬驗證、再回饋優化,為 Alpamayo 生態系運作流程。

(註:蒸餾,在這指的是用 Alpamayo 的推理能力,批量生產能在車上即時跑、但行為接近高手水準的自駕模型。)

一、Alpamayo 1:首款具思考鏈的自駕 VLA 模型

Alpamayo 1 擁有 100 億參數規模,並以影片為輸入,輸出駕駛軌跡與完整推理過程,同時開放模型權重與推論程式碼。目前已上架 Hugging Face,提供研究與開發使用。未來版本將擴充參數規模、推理深度與商用選項。

(註:Hugging Face 被稱為 AI 界的 Github,最大亮點是開源模型集散地,整合大量的模型、資料集。)

二、AlpaSim:全開源自駕模擬平台

AlpaSim 在 GitHub 上釋出,並支援高擬真感測器建模,可設定交通行為與閉環測試,同時用於快速驗證與策略優化。

三、Physical AI Open Datasets:大規模真實駕駛資料

Physical AI Open Datasets 擁有超過 1,700 小時駕駛數據資料庫,涵蓋多地理區域與多種環境條件,聚焦罕見與複雜情境,同樣於 Hugging Face 開放下載。

黃仁勳表示三者結合後,能形成一個自我強化的研發循環,加速推理型自駕技術成熟。

車廠與產業界表態支持,瞄準 Level 4 自駕

目前多家車廠與研究機構已表態關注 Alpamayo,包括 Lucid、JLR、Uber,以及研究單位 Berkeley DeepDrive。各方一致指出,具推理能力的 AI、開放模擬環境與高品質資料,將是推動 Level 4 自動駕駛不可或缺的關鍵。

(註:Level 1–2 是輔助駕駛,Level 3 是過渡階段,Level 4 是真正開始不用真人司機。)

後續整合其他輝達生態系,支援商用部署

除了 Alpamayo,開發者也可搭配輝達其他平台,包括 Cosmos 與 Omniverse,並將模型整合至輝達 DRIVE Hyperion 架構,搭配 DRIVE AGX Thor 運算平台。

輝達表示,開發流程可先在模擬環境中驗證效能,再進入實際商用部署,強調安全與可擴展性並重。

(黃仁勳 CES 定調 2026:Vera Rubin 全面量產、AI 自駕車 Q1 上市,關鍵製程來自台積電)

這篇文章 輝達 Alpamayo 生態系登場:讓 AI 自駕車具推理能力,還能說明決策原因 最早出現於 鏈新聞 ABMedia。

此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 留言
  • 轉發
  • 分享
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate App
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)