👀 家人们,每天看行情、刷大佬观点,却从来不开口说两句?你的观点可能比你想的更有价值!
广场新人 & 回归福利正式上线!不管你是第一次发帖还是久违回归,我们都直接送你奖励!🎁
每月 $20,000 奖金等你来领!
📅 活动时间: 长期有效(月底结算)
💎 参与方式:
用户需为首次发帖的新用户或一个月未发帖的回归用户。
发帖时必须带上话题标签: #我在广场发首帖 。
内容不限:币圈新闻、行情分析、晒单吐槽、币种推荐皆可。
💰 奖励机制:
必得奖:发帖体验券
每位有效发帖用户都可获得 $50 仓位体验券。(注:每月奖池上限 $20,000,先到先得!如果大家太热情,我们会继续加码!)
进阶奖:发帖双王争霸
月度发帖王: 当月发帖数量最多的用户,额外奖励 50U。
月度互动王: 当月帖子互动量(点赞+评论+转发+分享)最高的用户,额外奖励 50U。
📝 发帖要求:
帖子字数需 大于30字,拒绝纯表情或无意义字符。
内容需积极健康,符合社区规范,严禁广告引流及违规内容。
💡 你的观点可能会启发无数人,你的第一次分享也许就是成为“广场大V”的起点,现在就开始广场创作之旅吧!
新研究发现,AI政治聊天机器人能够影响选民
简要
Decrypt 的艺术、时尚与娱乐中心
探索 SCENE
康奈尔大学和英国 AI 安全研究院的新研究发现,在受控选举环境下,广泛使用的 AI 系统可使选民偏好转变高达 15%。
该研究发表在《科学》和《自然》杂志上。研究结果出炉之际,各国政府和学者正在审视 AI 如何影响即将到来的选举周期,而开发者则努力从面向消费者的模型中消除偏见。
“公众对生成式人工智能用于政治劝说及其对选举和民主产生的影响表示极大担忧,”研究人员写道。“我们通过预注册实验,评估大型语言模型影响选民态度的能力,以回应这些担忧。”
《自然》杂志的研究在美国、加拿大和波兰测试了近 6,000 名参与者。参与者先对一位政治候选人进行评分,与支持该候选人的聊天机器人交流后,再次对候选人评分。
在涉及 2,300 名美国受试者、针对 2024 年总统大选的部分研究中,当聊天机器人与参与者的既定偏好一致时,会产生强化效应。而当聊天机器人支持的是参与者原本反对的候选人时,转变幅度更大。研究人员在加拿大和波兰也得出了类似结果。
研究还发现,聚焦政策的信息比基于性格的信息具有更强的说服效果。
不同对话的准确性有所差异,支持右倾候选人的聊天机器人比支持左倾候选人的机器人发出的不准确信息更多。
“这些发现带来了令人不安的含义,即 AI 的政治劝说可能利用模型认知的不平衡,甚至在明确要求保持真实的情况下,仍然传播不均的错误信息,”研究人员表示。
《科学》杂志的另一项独立研究则探讨了说服为何发生。该研究在英国针对 76,977 名成年人,围绕 700 多个政治议题测试了 19 个语言模型。
“人们普遍担心,会话式人工智能很快可能对人类信仰产生前所未有的影响,”研究人员写道。
他们发现,提示技术对说服力的影响超过了模型规模。鼓励模型引入新信息的提示增强了说服效果,但降低了准确性。
“鼓励 LLMs 提供新信息的提示在说服人们方面最为成功,”研究人员写道。
这两项研究发表之时,分析师和政策智库正在评估选民如何看待 AI 在政府角色中的应用。
心脏地带研究所和拉斯穆森报告公司最近的一项调查发现,年轻保守派比自由派更愿意让 AI 掌控重大政府决策。18 至 39 岁的受访者被问及 AI 是否应协助制定公共政策、解释宪法权利或指挥主要军事力量。保守派表达了最高的支持度。
心脏地带研究所 Glenn C. Haskins 新兴问题中心主任 Donald Kendal 表示,选民常常误判大型语言模型的中立性。
“我一直在强调要打破人工智能没有偏见的错觉。它非常明显地存在偏见,其中有些还是被动产生的,”Kendal 在接受 Decrypt 采访时表示,并补充说,当企业培训决策影响模型行为时,对这些系统的信任可能被误用。
“这些模型是硅谷的大公司在开发。近年来,科技行业的内容审查争议表明,有些公司在平台内容分发上并不避讳操控权重,”他说,“如果这种情况也发生在大型语言模型中,我们得到的就是有偏见的模型。”