大科技高管在AI军备竞赛中玩“俄罗斯轮盘”,可能危及人类的灭绝,顶级研究员警告

全球在人工智能领域的竞争已达到白热化,但世界领先的计算机科学家之一警告说,大型科技公司正冒险赌博人类未来。

推荐视频


在人工智能领域,最响亮的声音通常分为两派:一派赞扬这项技术具有改变世界的潜力,另一派则呼吁在其成为失控威胁之前保持克制甚至加以遏制。加州大学伯克利分校的开创性人工智能研究员斯图尔特·拉塞尔坚决属于后者。他的主要担忧之一是,政府和监管机构难以跟上技术的快速发展,导致私营部门陷入一场冲刺赛,风险变成自冷战高峰以来未曾见过的危险竞争。

“我认为,让政府允许私人实体几乎在每个人的生命中玩俄罗斯轮盘赌,是完全失职的行为,”拉塞尔在新德里的人工智能影响力峰会上对法新社表示。

虽然科技公司CEO们正陷入“军备竞赛”,试图开发下一代最强的人工智能模型,行业声称这最终将带来医学研究和生产力的巨大飞跃,但许多人忽视或淡化了其中的风险。拉塞尔认为,在最坏的情况下,无监管的高速创新可能导致人类灭绝。

拉塞尔对人工智能快速部署背后的生存风险了如指掌。这位英国出生的计算机科学家从事人工智能研究已超过40年,早在1995年就出版了关于该主题的权威教科书之一。2016年,他在伯克利成立了一个专注于人工智能安全的研究中心,倡导“可证明有益”的人工智能系统以造福人类。

在新德里,拉塞尔评论说,企业和政府在实现这一目标方面似乎偏离了轨道。拉塞尔的批评集中在快速发展的系统可能最终会压倒其创造者,使人类文明成为“这一过程中的附带损害”。

主要人工智能公司的负责人都意识到这些生存威胁,但市场力量让他们陷入困境。“我相信,每个主要人工智能公司的CEO都希望解除武装,”拉塞尔说,但他们不能“单方面”这样做,因为他们的地位很快会被竞争对手取代,投资者也会立即将他们罢免。

新冷战

关于生存风险和人类可能灭绝的讨论,曾经只在冷战时期核武器扩散失控的阴影中出现,当时大国囤积武器,担心对手超越自己。但像斯图尔特·拉塞尔这样的怀疑论者,越来越多地将同样的框架应用于人工智能时代。美国与中国之间的竞争常被描述为一场“军备竞赛”,伴随着秘密、紧迫感和高风险,类似于20世纪后半叶华盛顿与莫斯科之间的核对抗。

俄罗斯总统弗拉基米尔·普京在近十年前简洁地概括了这一巨大风险:“谁在这个领域成为领导者,谁就将成为世界的统治者,”他在2017年的讲话中说。

虽然目前的军备竞赛不能用核弹头来衡量,但其规模体现在投入的惊人资金上。各国和企业目前在能源密集型的数据中心上投入数百亿美元,用于训练和运行人工智能。在美国,分析师预计今年在人工智能上的资本支出将超过6000亿美元。

但拉塞尔表示,激进的企业行动尚未得到监管措施的遏制。“如果每个政府都能理解这个问题,那就真的会有帮助。这也是我来到这里的原因,”他指的是印度峰会。

中国和欧盟是对人工智能技术监管采取更强硬立场的国家。而在其他地方,监管则更为宽松。在印度,政府采取了较为放松的监管策略。而在美国,特朗普政府倡导以市场为导向的人工智能理念,试图废除大部分州级法规,赋予企业更大的自由。

加入我们,参加2026年5月19日至20日在亚特兰大的财富职场创新峰会。新时代的职场创新已然到来——旧的策略正在被重新书写。在这个独家的高能盛会中,全球最具创新精神的领导者将齐聚一堂,探讨人工智能、人类和战略如何再次融合,重新定义未来的工作。立即注册。

查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
0/400
暂无评论
交易,随时随地
qrCode
扫码下载 Gate App
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)