Gate 广场「创作者认证激励计划」优质创作者持续招募中!
立即加入,发布优质内容,参与活动即可瓜分月度 $10,000+ 创作奖励!
认证申请步骤:
1️⃣ 打开 App 首页底部【广场】 → 点击右上角头像进入个人主页
2️⃣ 点击头像右下角【申请认证】,提交申请等待审核
立即报名:https://www.gate.com/questionnaire/7159
豪华代币奖池、Gate 精美周边、流量曝光等超 $10,000 丰厚奖励等你拿!
活动详情:https://www.gate.com/announcements/article/47889
像Grok这样的AI聊天机器人能否解决社交媒体的“回音室”问题,还是会带来新的难题?
埃隆·马斯克的人工智能助手Grok在加密和科技界引发了关于其对信息质量实际影响的激烈讨论。维塔利克·布特林最近对讨论发表了看法,提出了一个细致入微的视角,挑战了爱好者和怀疑者。
格罗克《诚实因素》的悖论
根据Buterin的分析,Grok代表了某些社交媒体动态的净积极发展——尤其是通过引入他所称的信息交流“诚实因素”。AI不仅仅强化用户偏好,有时还会用与其现有偏见相悖的观点来对抗,并在此过程中拒绝极端或片面的问题。
然而,这种能力也带来了脆弱性。系统仍然容易产生幻觉——产生听起来合理但完全虚假的信息。一个臭名昭著的例子是Grok错误报道了邦迪海滩的一起大规模枪击事件,展示了人工智能生成的错误信息如何迅速传播,即使主流能见度也存在。
不仅仅是另一个算法
在布特林看来,《格罗克》的独特之处在于一个意想不到的副作用:其内在的混乱无意中产生了类似分散式抗拒单一叙事控制的现象。与旨在呈现统一观点的系统不同,Grok的不一致和偶尔的矛盾实际上抵制了跨平台单一政治或意识形态叙事的出现。
未解之谜
批评者正确指出,这并不一定能防止偏见——它可能只是以不同的方式重新分配偏见。Grok究竟是真正扩大了思想市场,还是仅仅为现有信息生态系统增添了复杂的噪音,仍是一个未知数。答案很可能取决于用户如何与这项技术互动,以及他们是否将AI输出视为对话开端而非可信来源。
这场争论反映了人工智能发展中更广泛的紧张关系:使系统更有趣或更易控的特性,也可能使其不可靠的事实来源。