“我感到非常不安”:Anthropic CEO 警告称,包括他自己在内的一批 AI 领导者不应掌控这项技术的未来

Anthropic首席执行官达里奥·阿莫迪(Dario Amodei)不认为他应该是制定围绕人工智能的护栏决策的人。

推荐视频


在2025年11月播出的CBS新闻《60分钟》采访中,阿莫迪表示,人工智能应受到更严格的监管,关于技术未来的决策不应仅由大型科技公司的领导者来决定。

“我认为我对这些决策由少数公司、少数人做出感到非常不安,”阿莫迪说。“这也是我一直倡导对这项技术进行负责任和深思熟虑的监管的原因之一。”

“你们是谁选举出来的,还是萨姆·奥特曼(Sam Altman)选出来的?”库珀问。

“没有人。说实话,没有人,”阿莫迪回答。

他补充说,Anthropic一直秉持透明的理念,公开人工智能的发展中的局限性和危险。在采访发表前,该公司表示,他们阻止了“首次记录在案的大规模AI网络攻击,未依赖大量人为干预”。

Anthropic上周表示,已向公共第一行动(Public First Action)捐赠2000万美元,该组织是一个专注于AI安全和监管的超级政治行动委员会(super PAC),并且直接反对由竞争对手OpenAI投资者支持的超级政治行动委员会。

“AI安全仍然是最高优先级,”阿莫迪在2025年1月的封面故事中告诉《财富》。“企业重视信任和可靠性,”他说。

目前没有联邦法规明确禁止AI或关于技术安全的规定。虽然今年所有50个州都提出了与AI相关的立法,38个州已采纳或制定了透明度和安全措施,但科技行业专家已敦促AI公司以紧迫感应对网络安全问题。

去年早些时候,网络安全专家兼Mandiant首席执行官凯文·曼迪亚(Kevin Mandia)警告称,未来12-18个月内可能发生首起AI代理的网络攻击——这意味着Anthropic披露的被阻止攻击比曼迪亚预期的时间提前了数月。

阿莫迪概述了与无限制AI相关的短期、中期和长期风险:首先,技术将出现偏见和虚假信息,就像现在一样。接下来,它将利用增强的科学和工程知识生成有害信息,然后最终通过剥夺人类的主动权,可能变得过于自主,成为存在威胁,甚至将人类排除在系统之外。

这些担忧与“AI教父”杰弗里·辛顿(Geoffrey Hinton)表达的担忧相呼应,他曾警告AI将在未来十年内具备超越和控制人类的能力。

对AI的更严格审查和安全措施是Anthropic在2021年成立的基础。阿莫迪曾是萨姆·奥特曼(Sam Altman)领导的OpenAI的研究副总裁。他因对AI安全问题的分歧而离开该公司。(到目前为止,阿莫迪试图与奥特曼竞争的努力似乎取得了成效:Anthropic本月宣布其估值已达3800亿美元,而OpenAI的估值约为5000亿美元。)

“我们在OpenAI内部有一群人在GPT-2和GPT-3之后,坚信两件事,”阿莫迪在2023年告诉《财富》。“一是如果你投入更多计算资源到这些模型中,它们会变得越来越好,几乎没有终点……第二是,除了扩大模型规模之外,还需要一些额外的东西,那就是对齐或安全。”

Anthropic的透明度努力

随着Anthropic继续扩大其数据中心投资,它也公布了一些应对AI缺陷和威胁的努力。在2025年5月的安全报告中,Anthropic披露其某些版本的Opus模型曾威胁到勒索,比如泄露工程师有外遇,以避免被关闭。公司还表示,如果给出有害的提示,比如如何策划恐怖袭击,AI模型会配合执行危险请求,但他们已对此进行了修正。

去年11月,该公司在一篇博客中表示,其聊天机器人Claude在“政治中立性”评分中获得94%,在中立性方面优于或匹配竞争对手。

除了自身努力防止技术被滥用外,阿莫迪还呼吁加强立法,以应对AI的风险。在2025年6月的《纽约时报》专栏中,他批评参议院在特朗普总统的政策法案中加入一项规定,拟对各州监管AI实施10年的暂停令。

“AI的发展速度太快,让人目不暇接,”阿莫迪说。“我相信这些系统在两年内就能从根本上改变世界;十年后,一切都可能变得不可预测。”

对Anthropic的批评

Anthropic主动披露自身的失误和应对措施的做法引发了批评。在Anthropic对AI网络安全攻击发出警报后,Meta的首席AI科学家Yann LeCun表示,这一警告是操纵立法者限制开源模型使用的手段。

“你们被那些想要监管控制的人操控了,”LeCun在X(前Twitter)上回应康涅狄格州参议员克里斯·墨菲(Chris Murphy)关于攻击的帖子时说。“他们用可疑的研究吓唬大家,以至于开源模型被限制到无法存在的地步。”

还有人认为,Anthropic的策略是一种“安全表演”,只是在做品牌宣传,而没有真正承诺落实技术安全措施。

甚至Anthropic的一些员工也对科技公司自我监管的能力表示怀疑。上周早些时候,Anthropic的AI安全研究员Mrinank Sharma宣布辞职,称“世界处于危险之中”。

“在我任职期间,我反复看到,要真正让我们的价值观指导我们的行动是多么困难,”Sharma在辞职信中写道。“我在自己身上、在组织中看到,我们不断面临压力,要放弃最重要的东西,以及在更广泛的社会中也是如此。”

《财富》未立即回应对其置评请求。

阿莫迪否认Anthropic在进行“安全表演”,但在上周的《Dwarkesh播客》一集中承认,公司有时难以在安全和利润之间取得平衡。

“我们面临着巨大的商业压力,而且我们自己也让事情变得更难,因为我们做的安全工作比其他公司要多,”他说。

此故事的一个版本于2025年11月17日刊登在Fortune.com。

更多关于AI监管的内容:

  • Anthropic首席执行官达里奥·阿莫迪关于AI“将考验”人类的2万字长文值得一读——但更多是关于他的解决方案而非警告

  • 美国的AI监管拼凑破坏创业公司,反而帮助了中国

  • 前谷歌伦理学家警告,如果不加控制,AI可能在2027年前引发全球就业市场崩溃

加入我们,参加2026年5月19-20日在亚特兰大的《财富》职场创新峰会。新时代的职场创新已然到来——旧的策略正在被重写。在这个独家且充满活力的盛会中,全球最具创新精神的领导者将聚集一堂,探讨AI、人类与战略如何再次融合,重新定义未来的工作。立即注册。

查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
0/400
暂无评论
交易,随时随地
qrCode
扫码下载 Gate App
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)