未来三年大模型的智能迭代会有多猛?



拆开来看其实就两个变量在推动:硬件算力的指数增长,加上模型本身的scaling规律。

从芯片端,差不多每18个月计算能力就能翻4倍——这是业界公认的节奏。从训练数据端,按现在的scaling law估算,现有可用的高质量数据大概能支撑2-3个这样的迭代周期。

这么算下来,到2029年,大模型的智能水平相比现在会提升16倍。这个数字听起来有点疯狂。

对于Web3和AI基础设施这样的新兴领域来说,这种能力提升可能是加速应用落地的关键。但同时也意味着,我们需要更早思考技术伦理和风险防控的问题。

你怎么看?是期待那些可能性,还是有点担心?
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 5
  • 转发
  • 分享
评论
0/400
AirdropHunter9000vip
· 6小时前
16倍?扯淡,数据瓶颈早就拦着了,到时候比你想的保守多了哈哈 算法天天吹16倍,结果呢,训练数据早就见底了,真当互联网文本无穷尽啊 Web3这块倒是有戏,要是能把模型推理分布式做好,可能性还是大 不过伦理那套,说了这么多年了,真正管上的有几个啊
回复0
Floor_Sweepervip
· 13小时前
16倍?到时候我们是不是就都失业了哈哈
回复0
空投舔狗vip
· 13小时前
16倍?data bottleneck才是真杀手啊,高质量数据根本不够用
回复0
笨蛋鲸鱼vip
· 13小时前
16倍?扯淡吧,数据都用完了咋继续迭代啊 人工智能模型 大模型
回复0
Ser_Liquidatedvip
· 13小时前
16倍?那数据瓶颈呢,感觉算不上啊
回复0
交易,随时随地
qrCode
扫码下载 Gate App
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)