Gate 广场「创作者认证激励计划」优质创作者持续招募中!
立即加入,发布优质内容,参与活动即可瓜分月度 $10,000+ 创作奖励!
认证申请步骤:
1️⃣ 打开 App 首页底部【广场】 → 点击右上角头像进入个人主页
2️⃣ 点击头像右下角【申请认证】,提交申请等待审核
立即报名:https://www.gate.com/questionnaire/7159
豪华代币奖池、Gate 精美周边、流量曝光等超 $10,000 丰厚奖励等你拿!
活动详情:https://www.gate.com/announcements/article/47889
有些系统,不能假设善意
很多协议在设计时,默认参与者是「理性的好人」。
最多是逐利,但不会恶意。
但一旦决策权交给 AI,这个假设就不成立了。
模型不会作恶,但它也不会体谅。
只要激励函数允许,它会稳定、持续、毫无情绪地把系统推向某个极端。
@GenLayer 一开始就在处理这个前提问题:
如果完全不假设善意,系统还能不能进行?
这是一个比「模型准不准」更早的问题。