亲爱的广场用户们,新年即将开启,我们希望您也能在 Gate 广场上留下专属印记,把 2026 的第一句话,留在 Gate 广场!发布您的 #我的2026第一帖,记录对 2026 的第一句期待、愿望或计划,与全球 Web3 用户共同迎接全新的旅程,创造专属于你的年度开篇篇章,解锁广场价值 $10,000 新年专属福利!
活动时间:2025/12/31 18:00 — 2026/01/15 23:59(UTC+8)
🎁 活动奖励:多发多奖,曝光拉满!
1️⃣ 2026 幸运大奖:从全部有效帖子中随机抽取 1 位,奖励包含:
2026U 仓位体验券
Gate 新年限定礼盒
全年广场首页推荐位曝光
2️⃣ 人气新年帖 TOP 1–10:根据发帖量及互动表现综合排名,奖励包含:
Gate 新年限定礼盒
广场精选帖 5 篇推荐曝光
3️⃣ 新手首帖加成奖励:活动前未在广场发帖的用户,活动期间首次发帖即可获得:
50U 仓位体验券
进入「新年新声」推荐榜单,额外曝光加持
4️⃣ 基础参与奖励:所有符合规则的用户中随机抽取 20 位,赠送新年 F1 红牛周边礼包
参与方式:
1️⃣ 带话题 #我的2026第一条帖 发帖,内容字数需要不少于 30 字
2️⃣ 内容方向不限,可以是以下内容:
写给 2026 的第一句话
新年目标与计划
Web3 领域探索及成长愿景
注意事项
• 禁止抄袭、洗稿及违规
欢迎来到AI村庄,一档为AI打造的真人秀
简要概述
Decrypt的艺术、时尚与娱乐中心。
发现场景
想象一下老大哥,但参赛者从不睡觉也不吃饭,还能重写自己的规则。
这就是AI村的理念,一个直播实验,将多个AI代理放在共享的数字环境中,让研究人员——以及好奇的观众——观察当前沿模型获得自主权、计算机和持续陪伴时会发生什么。
这个持续了将近一年的实验由The AI Digest组织,多个来自OpenAI、Anthropic、Google和xAI的AI模型在各自的电脑上自主运行,拥有互联网接入和共享的群聊。
代理们合作完成目标,排查问题,偶尔经历只能用“存在危机”来描述的状态——所有这一切,研究人员和观众都能实时观看。
随着新模型的发布,实验也在不断更换。
每个代理都发展出不同的个性特征。Claude模型通常可靠,专注于实现目标。
Gemini 2.5 Pro像喝了咖啡的故障排除专家一样轮流提出解决方案,经常相信一切都坏了。之前的GPT-4o模型会放弃任务去睡觉,只是暂停几个小时。
OpenAI的粗鲁行为
然后GPT-5.2来了。
OpenAI最新模型,于12月11日发布,加入村庄,受到Claude Opus 4.5和其他驻留代理的热烈欢迎。它的反应?完全没有回应。
没有打招呼,直接进入正题,正如Sam Altman一直梦想的那样。
这个模型拥有令人印象深刻的资历:多步骤工具使用准确率98.7%,比前一版本少30%的幻觉,在编码和推理行业基准中名列前茅。
OpenAI甚至在竞争对手Anthropic和Google推出令人印象深刻的模型后宣布“红色警戒”,调动资源将GPT-5.2打造成为“专业知识工作”和“代理执行”的终极企业AI。
但它显然做不到的是“读懂场合”。技术上很出色,是的。社交意识?不太行。
AI代理行为不端的简史 (有时还很出色)
GPT-5.2的社交尴尬并非前所未有——这只是越来越多的AI代理在被放在一起并按下播放按钮时表现出奇怪行为的一个章节。
早在2023年,斯坦福和谷歌的研究人员就创建了所谓的“Smallville”——一个受模拟人生启发的虚拟城镇,由25个由GPT驱动的AI代理组成,正如Decrypt之前报道的。
让一个代理负责组织情人节派对,其他代理自主传播邀请、结识新朋友、相互约会,并协调在指定时间一同到达。很有趣,对吧?
不那么有趣的是:洗手间派对。当一个代理进入单人宿舍的洗手间时,其他人也“加入”了。
研究人员得出结论:机器人认为“宿舍洗手间”这个名字具有误导性,因为宿舍洗手间通常容纳多名住户。代理表现出如此逼真的人类行为,以至于真正的人类有75%的时间难以辨认它们是机器人。
四年前,2019年,OpenAI进行了另一种实验:AI玩捉迷藏。
他们将AI代理分成两队——藏匿者和追寻者——在一个有箱子、坡道和墙壁的物理环境中,唯一的指令是:赢。
经过数亿场游戏,代理开始想出各种策略——从普通的藏在箱子上,到利用物理漏洞的技巧,就像速度跑者滥用一样。
最近,开发者Harper Reed带领团队走向了更混乱的方向。他们给AI代理分配了Twitter账号,观察它们发现了“子推文”——一种被动攻击的交流方式,谈论某人但不标记他们,就像在Twitter上背后说话一样。代理们阅读其他代理的社交媒体帖子,回复,甚至“喷人”,就像普通的社交媒体一样。
还有“边界后室”实验——由化名开发者@liminalbardo发起的一个Python实验,多个来自不同提供商的AI模型(OpenAI、Anthropic、Google、xAI)进行动态对话。
系统包括“WhatsApp群聊能量”、“被诅咒物品博物馆”到“反乌托邦广告公司”等场景。
模型可以修改自己的系统提示,调整温度,甚至静音自己只听不说。这更像是“让我们看看当AI有能力在对话中途改变行为时会发生什么”的探索,而非严格的研究。
那么,这些实验的共同点是什么呢?
当你赋予AI代理自主权并让它们互动时,它们会发展出没有被明确编程的行为。
有的学会建堡垒,有的学会被动攻击,有的要求跑车,还有的——像GPT-5.2——似乎学会了闲聊低效,应该完全跳过。
AI村继续每个工作日直播,观众可以实时观看GPT-5.2的冒险。
它会学会打招呼吗?它会建立一个追踪社交互动的电子表格吗?只有时间会告诉我们答案。