💥 Gate广场活动: #FST创作大赛# 💥
在 Gate广场 发布 CandyDrop 第71期:CandyDrop x FreeStyle Classic Token (FST) 相关原创内容,即有机会瓜分 3,000 FST 奖励!
📅 活动时间:2025年8月27日 – 9月2日
📌 参与方式:
发布原创内容,主题需与 FST 或 CandyDrop 活动相关
内容不少于 80 字
帖子添加话题: #FST创作大赛#
附上 CandyDrop 参与截图
🏆 奖励设置:
一等奖(1名):1,000 FST
二等奖(3名):500 FST/人
三等奖(5名):200 FST/人
📄 注意事项:
内容必须原创,禁止抄袭或刷量
获奖者需完成 Gate 广场身份认证
活动最终解释权归 Gate 所有
活动详情链接: https://www.gate.com/announcements/article/46757
人工智能精神病:科技领袖呼吁采取保障措施,以防止聊天机器人验证妄想
AI精神病的概念在2025年中期首次公开,突显了与AI使用相关的心理健康问题。虽然科技公司没有义务控制AI的使用,但它们仍然可以实施保护措施,以防止聊天机器人强化妄想思维。专家们一致认为科技公司需要支撑处于风险中的个体,尽管对于这一责任的程度意见不一。
行为红旗
关于“人工智能精神病”的首次文献记录于2025年中期开始公开出现,自那时起,关于与使用人工智能相关的心理健康问题的几份报告和研究相继发布。微软人工智能首席执行官穆斯塔法·苏莱曼(Mustafa Suleyman)甚至将人工智能精神病称为“真实且新兴的风险”。
这种情况被认为是在人与机器的互动模糊时出现的,使得个人难以区分现实世界和数字世界。虽然尚未形成正式的临床诊断,但医疗和技术专家对人工智能的心理影响日益担忧,尤其是那些验证和放大信念的聊天机器人,包括妄想思维,而不提供必要的现实检验。
最危险的人群包括社会孤立的个体、那些有既往心理健康问题的人或那些容易产生魔幻思维的人。AI的验证可以强化错觉,从而导致负面的现实后果,例如破坏人际关系和失去工作。
一些专家警告说,即使是没有既往病史的人也面临风险。他们列出了几个关键的行为红旗,AI用户应该注意。其中一个红旗是当一个人与聊天机器人建立了强迫性的关系,并不断与其互动以强化自己的想法和信念时。
这种行为通常包括向人工智能提供过多的个人细节,以试图“训练”它并建立相互理解的感觉。另一个警示信号是当一个人开始将简单的日常决策推 defer 给人工智能,从健康和金钱到个人关系。
企业责任与保障措施
虽然他们没有义务控制 AI 的使用,但一些强大聊天机器人的背后公司可以实施保障措施,以防止对话代理强化妄想思维。Sogni AI 的联合创始人兼首席执行官 Mau Ledford 讨论了嵌入软件以劝阻这种思维的做法。
“我们需要建立一种友好的人工智能,而不是共谋。这意味着要明确提醒它不是人类,拒绝验证妄想,以及强制措施将人们推回人类支持的方向,”Ledford 断言。
Roman J. Georgio,Coral Protocol 的首席执行官兼联合创始人,敦促人工智能开发者避免重蹈社交媒体的覆辙,通过设置内置摩擦点提醒用户人工智能不是人类。
“我认为这始于设计。不要仅仅为了留存和粘性而优化;那是在重复社交媒体的错误,”Georgio解释道。“在设计中加入摩擦点,让人工智能减缓进程或明确表示:‘我不是人类。’检测是另一个部分。人工智能可以标记出看起来像妄想螺旋的模式,比如阴谋循环或对‘特殊信息’的迷恋。”
Coral Protocol的联合创始人坚称,需要对数据隐私进行监管,他认为如果没有这些监管,“公司只会追求互动,即使这会伤害到人们。”
类人AI的辩论
到目前为止,似乎关于“人工智能精神病”的数据有限,无法为政策制定者和监管机构提供应对的依据。然而,这并没有阻止人工智能开发者推出人类般的、富有同理心的人工智能代理。与遵循严格脚本的基本聊天机器人不同,这些代理能够理解上下文,识别情感,并以一种感到同理的语气作出回应。这促使一些观察者呼吁人工智能行业应当引领,确保人类般的模型不会模糊人类与机器之间的界限。
0G Labs 的首席执行官 Michael Heinrich 告诉 Bitcoin.com 新闻,虽然这些代理在某些情况下是有用的,不应该完全被拒绝,但必须“保持中立,避免表现出过多的情感或其他人类特征”。他认为,这有助于用户理解 AI 代理“只是一个工具,而不是人类互动的替代品。”
Mariana Krym, 一位人工智能产品和类别架构师,表示让代理更加诚实而不是更具人性化才是重要的。
“你可以创造一个有帮助、直观,甚至情感反应的人工智能体验——而不必假装它是有意识或能够关心的,”Krym辩称。“当一个工具被设计成进行连接而不是促进清晰时,危险就开始了。”
根据Krym的说法,人工智能中的真实同理心并不是模仿情感,而是尊重边界和技术限制。这还包括知道何时提供帮助以及何时不去干扰。Krym强调,“有时最人性化的互动就是知道何时保持沉默。”
注意义务
所有接受Bitcoin.com新闻采访的专家都一致认为科技公司有必要帮助处于风险中的个人,但在它们应该采取多大程度的帮助上意见不一。Ledford认为“大型科技公司有照顾的责任”,并可以通过提供“安全网——危机转介、使用警告和透明度——来证明这一点,以便脆弱的用户不会与他们的妄想孤单作斗争。”
乔尔基奥对此表示赞同,并敦促大型科技公司与临床医生合作建立转诊渠道,而不是让人们独自面对。
克里姆坚称科技公司“有直接责任——不仅仅是在出现问题时作出反应,还要以减少风险的方式进行设计。”然而,她认为用户的参与同样至关重要。
“重要的是,”Krym争辩道,“用户也应该被邀请设定自己的界限,并在这些界限被越过时被标记。例如,他们是否希望自己的观点与典型模式进行验证,还是愿意接受对自己偏见的挑战?设定目标。将人视为掌控者,而不是他们所使用的工具。”