AI 这条赛道,其实已经悄悄换了一套竞争逻辑。以前大家比的是谁模型更大、谁参数更多、谁生成更快;但走到今天,真正拉开差距的,已经不是能力,而是敢不敢被信任。



这并不是行业自己在给自己找新叙事,外部世界的态度其实已经很明确了。

中国网最近发布的《未来五年技术趋势报告》里,直接点出一个趋势:全球正在进入 AI 智能体时代。而且不是陪你聊天、写文案、做客服的那种,而是会进入金融风控、政务审批、公共治理这些高敏感场景,甚至开始参与真实决策。

但报告里反复强调了一个前提是,如果 AI 不可信,它连被放进这些系统的资格都没有。

IIT Delhi 的研究说得更直白:黑箱结构、幻觉问题、不可解释性,是当前 AI 最大的信任断层。模型越强,一旦出问题,风险不是线性的,而是直接放大。

也正因为这个现实,你会看到一个很割裂的现象:一边是大量“AI + 插件”“AI + 套壳应用”,看起来功能越来越多;另一边,真正决定 AI 能不能进核心场景的问题还是信任,但是却几乎没人正面解决。

而 @inference_labs 最近的一系列动作,恰恰是在解决这个最难的点。

他们上线了 TruthTensor 第二季,同时把原来的 Subnet-2 改名为 DSperse。名字变化不重要,重要的是方向变得非常明确:他们已经不只是“在做一个子网”,而是在搭一套 去中心化、可验证 AI 的基础结构。

DSperse 的核心思路,其实并不复杂,不要再让一个模型、一个节点、一个系统单独背书“正确性”。推理由多人共同完成,验证由多人共同参与,信任不来自权威,而是来自可复查、可量化、可追踪的过程本身。

它既跑模型,也审模型;不是“你信我”,而是“你可以自己验证我”。

更关键的一点在于,DSperse 把「推理」和「验证」彻底拆开,分布式执行。这在效率上并不讨巧,但在系统安全性上,直接避开了中心化 AI 最致命的问题,一个节点出错,整个系统一起翻车。

这条路说实话非常难,甚至在短期内不讨喜。但如果你真的站在“AI 要进入真实世界”的角度看,它几乎是绕不开的。

在我看来,2026 年会是一个非常关键的时间点。那时候 AI 不会再缺模型能力,真正稀缺的会变成三样东西:可验证性、可审计性,以及可信的基础设施层。

从现在这个节奏来看,Inference Labs 选择先啃最硬的那块骨头。在一堆还在拼参数、卷模型、换壳应用的项目里,DSperse 更像是那个不显眼,但可能决定下一个阶段方向的变量。

@KaitoAI #Yapping #MadewithMoss @MossAI_Official #Starboard @Galxe @RiverdotInc @River4fun
post-image
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
0/400
暂无评论
交易,随时随地
qrCode
扫码下载 Gate App
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)