新研究发现,AI政治聊天机器人能够影响选民

简要

  • 《自然》和《科学》杂志的研究报告称,AI 聊天机器人在受控选举环境中可使选民偏好发生高达 15% 的转变。
  • 研究人员发现,AI 在不同政治环境下的准确性不均,并记录了偏见问题。
  • 最新民调显示,年轻保守派最愿意信任 AI。

Decrypt 的艺术、时尚与娱乐中心


探索 SCENE

康奈尔大学和英国 AI 安全研究院的新研究发现,在受控选举环境下,广泛使用的 AI 系统可使选民偏好转变高达 15%。

该研究发表在《科学》和《自然》杂志上。研究结果出炉之际,各国政府和学者正在审视 AI 如何影响即将到来的选举周期,而开发者则努力从面向消费者的模型中消除偏见。

“公众对生成式人工智能用于政治劝说及其对选举和民主产生的影响表示极大担忧,”研究人员写道。“我们通过预注册实验,评估大型语言模型影响选民态度的能力,以回应这些担忧。”

《自然》杂志的研究在美国、加拿大和波兰测试了近 6,000 名参与者。参与者先对一位政治候选人进行评分,与支持该候选人的聊天机器人交流后,再次对候选人评分。

在涉及 2,300 名美国受试者、针对 2024 年总统大选的部分研究中,当聊天机器人与参与者的既定偏好一致时,会产生强化效应。而当聊天机器人支持的是参与者原本反对的候选人时,转变幅度更大。研究人员在加拿大和波兰也得出了类似结果。

研究还发现,聚焦政策的信息比基于性格的信息具有更强的说服效果。

不同对话的准确性有所差异,支持右倾候选人的聊天机器人比支持左倾候选人的机器人发出的不准确信息更多。

“这些发现带来了令人不安的含义,即 AI 的政治劝说可能利用模型认知的不平衡,甚至在明确要求保持真实的情况下,仍然传播不均的错误信息,”研究人员表示。

《科学》杂志的另一项独立研究则探讨了说服为何发生。该研究在英国针对 76,977 名成年人,围绕 700 多个政治议题测试了 19 个语言模型。

“人们普遍担心,会话式人工智能很快可能对人类信仰产生前所未有的影响,”研究人员写道。

他们发现,提示技术对说服力的影响超过了模型规模。鼓励模型引入新信息的提示增强了说服效果,但降低了准确性。

“鼓励 LLMs 提供新信息的提示在说服人们方面最为成功,”研究人员写道。

这两项研究发表之时,分析师和政策智库正在评估选民如何看待 AI 在政府角色中的应用。

心脏地带研究所和拉斯穆森报告公司最近的一项调查发现,年轻保守派比自由派更愿意让 AI 掌控重大政府决策。18 至 39 岁的受访者被问及 AI 是否应协助制定公共政策、解释宪法权利或指挥主要军事力量。保守派表达了最高的支持度。

心脏地带研究所 Glenn C. Haskins 新兴问题中心主任 Donald Kendal 表示,选民常常误判大型语言模型的中立性。

“我一直在强调要打破人工智能没有偏见的错觉。它非常明显地存在偏见,其中有些还是被动产生的,”Kendal 在接受 Decrypt 采访时表示,并补充说,当企业培训决策影响模型行为时,对这些系统的信任可能被误用。

“这些模型是硅谷的大公司在开发。近年来,科技行业的内容审查争议表明,有些公司在平台内容分发上并不避讳操控权重,”他说,“如果这种情况也发生在大型语言模型中,我们得到的就是有偏见的模型。”

查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
0/400
暂无评论
交易,随时随地
qrCode
扫码下载 Gate App
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)