親愛的廣場用戶們,新年即將開啟,我們希望您也能在 Gate 廣場上留下專屬印記,把 2026 的第一句話,留在 Gate 廣場!發布您的 #我的2026第一帖,记录对 2026 的第一句期待、願望或計劃,與全球 Web3 用戶共同迎接全新的旅程,創造專屬於你的年度開篇篇章,解鎖廣場價值 $10,000 新年專屬福利!
活動時間:2025/12/31 18:00 — 2026/01/15 23:59(UTC+8)
🎁 活動獎勵:多發多獎,曝光拉滿!
1️⃣ 2026 幸運大獎:從全部有效貼文中隨機抽取 1 位,獎勵包含:
2026U 仓位體驗券
Gate 新年限定禮盒
全年廣場首頁推薦位曝光
2️⃣ 人氣新年貼 TOP 1–10:根據發帖量及互動表現綜合排名,獎勵包含:
Gate 新年限定禮盒
廣場精選貼 5 篇推薦曝光
3️⃣ 新手首貼加成獎勵:活動前未在廣場發帖的用戶,活動期間首次發帖即可獲得:
50U 仓位體驗券
進入「新年新聲」推薦榜單,額外曝光加持
4️⃣ 基礎參與獎勵:所有符合規則的用戶中隨機抽取 20 位,贈送新年 F1 紅牛周邊禮包
參與方式:
1️⃣ 帶話題 #我的2026第一条帖 發帖,內容字數需要不少於 30 字
2️⃣ 內容方向不限,可以是以下內容:
寫給 2026 的第一句話
新年目標與計劃
Web3 領域探索及成長願景
注意事項
• 禁止抄襲、洗稿及違
助推谷歌衝擊4兆美元的TPU,如何在區塊鏈領域大顯身手?
作者:Eli5DeFi
編譯:Tim,PANews
PANews編者按:11月25日,Google總市值創歷史新高,達3.96兆美元,助推股價的因素除了新發布的最強AI Gemini 3,還有其自研晶片TPU。除了AI領域外,TPU在區塊鏈也將大顯身手。
現代運算的硬體敘事基本上是由GPU的崛起所定義的。
從遊戲到深度學習,NVIDIA的平行架構已成為業界公認的標準,使得CPU逐漸轉向協管角色。
然而,隨著AI模型遭遇規模化瓶頸、區塊鏈技術邁向複雜密碼學應用,新的競爭者張量處理器(TPU)已然登場。
儘管TPU常被置於Google AI戰略的框架下討論,但它的架構卻意外契合區塊鏈技術的下一個里程碑後量子密碼學的核心需求。
本文通過梳理硬體演進歷程、對比架構特性,闡釋為何在構建抗量子攻擊的去中心化網路時,TPU(而非GPU)更能勝任後量子密碼學所需的密集型數學運算。
硬體演進:從串行處理到脈動架構
要理解TPU的重要性,就需要先了解它所解決的問題。
脈動架構優勢
GPU與TPU的根本區別在於它們的資料處理方式。
GPU需反覆調取記憶體(暫存器、快取)進行運算,而TPU採用脈動架構。這種架構如同心臟泵血般,使資料以規律脈動的方式流經大規模運算單元網格。
https://www.ainewshub.org/post/ai-inference-costs-tpu-vs-gpu-2025
運算結果直接傳遞至下一運算單元,無需寫回記憶體。這種設計極大緩解了馮·諾依曼瓶頸,即資料在記憶體與處理器間反覆移動產生的延遲,從而在特定數學運算上實現吞吐量的數量級提升。
後量子密碼學的關鍵:為何區塊鏈需要TPU?
TPU在區塊鏈領域最關鍵的應用並非挖礦,而是密碼學安全。
當前區塊鏈系統依賴的橢圓曲線密碼學或RSA加密體系,在應對Shor演算法時存在致命弱點。這意味著一旦出現足夠強大的量子電腦,攻擊者就能從公鑰反推出私鑰,足以徹底清空比特幣或以太坊上的所有加密資產。
解決之道在於後量子密碼學。目前主流的PQC標準演算法(如Kyber、Dilithium)均基於Lattice密碼學構建。
TPU的數學契合性
這正是TPU相較GPU的優勢。Lattice密碼學嚴重依賴大型矩陣和向量的密集操作,主要包括:
傳統GPU將這些運算視為通用平行任務處理,而TPU則通過硬體層級固化的矩陣運算單元實現專屬加速。Lattice密碼學的數學結構,與TPU脈動陣列的物理構造幾乎形成嚴絲合縫的拓撲映射。
TPU與GPU的技術博弈
儘管GPU仍是業界通用的萬能王者,但在處理特定數學密集型任務時,TPU具有絕對優勢。
結論:GPU勝在通用性與生態系統,而TPU則在密集線性代數運算效率上佔據優勢,而這正是AI與現代先進密碼學所依賴的核心數學運算。
TPU拓展敘事:零知識證明與去中心化AI
除後量子密碼學外,TPU在Web3另兩大關鍵領域也展現出應用潛力。
零知識證明
ZK-Rollups(如Starknet或zkSync)作為以太坊的擴容方案,其證明生成過程需要完成海量運算,主要包括:
這類運算並非ASIC擅長的雜湊運算,而是多項式數學。相較於通用CPU,TPU能顯著加速FFT和多項式承諾運算;而由於這類演算法具有可預測的資料流特性,TPU通常比GPU能實現更高效率的加速。
隨著Bittensor等去中心化AI網路的興起,網路節點需具備運行AI模型推理的能力。運行通用大語言模型本質上就是在執行海量矩陣乘法運算。
相較於GPU集群,TPU能使去中心化節點以更低能耗處理AI推理請求,從而提升去中心化AI的商業可行性。
TPU生態版圖
儘管當前多數專案因CUDA的普及性仍依賴GPU,但以下領域在TPU整合方面蓄勢待發,尤其在後量子密碼學與零知識證明的敘事框架下極具發展潛力。
零知識證明與擴容方案
為何選擇TPU?因為ZK證明生成需要大規模平行處理多項式運算,而在特定架構配置下,TPU對此類任務的處理效率遠超通用GPU。
去中心化AI與代理型運算
為何選擇TPU?這正是TPU的原生應用場景,專為加速神經網路機器學習任務而設計。
後量子密碼學網路
為何選擇TPU?後量子密碼學的核心運算常涉及格中最短向量問題,這類需要密集矩陣與向量運算的任務,與AI工作負載在運算架構上具有高度相似性。
發展瓶頸:為何TPU尚未全面普及?
若TPU在後量子密碼學與零知識證明領域如此高效,為何產業仍在搶購H100晶片?
結論:分層架構才是未來
Web3硬體的未來並非一場贏家通吃的競爭,而是正朝著分層架構的方向演進。
GPU將繼續承擔通用運算、圖形渲染及需處理複雜分支邏輯任務的主力角色。
TPU(及同類ASIC化加速器)將逐步成為Web3「數學層」的標準配置,專門用於生成零知識證明與驗證後量子密碼學簽名。
隨著區塊鏈向後量子安全標準遷移,交易簽名與驗證所需的海量矩陣運算將使TPU的脈動架構不再是可選項,而成為構建可擴展的量子安全去中心化網路的必備基礎設施。