💥 Gate 广场活动:#发帖赢代币CGN 💥
在 Gate 广场发布与 CGN、Launchpool 或 CandyDrop 相关的原创内容,即有机会瓜分 1,333 枚 CGN 奖励!
📅 活动时间:2025年10月24日 18:00 – 11月4日 24:00(UTC+8)
📌 相关详情:
Launchpool 👉 https://www.gate.com/zh/announcements/article/47771
CandyDrop 👉 https://www.gate.com/zh/announcements/article/47763
📌 参与方式:
1️⃣ 在 Gate 广场发布原创内容,主题需与 CGN 或相关活动(Launchpool / CandyDrop)相关;
2️⃣ 内容不少于 80 字;
3️⃣ 帖子添加话题:#发帖赢代币CGN
4️⃣ 附上任意活动参与截图
🏆 奖励设置(总奖池:1,333 CGN)
🥇 一等奖(1名):333 CGN
🥈 二等奖(2名):200 CGN / 人
🥉 三等奖(6名):100 CGN / 人
📄 注意事项:
内容必须原创,禁止抄袭;
获奖者需完成 Gate 广场身份认证;
活动最终解释权归 Gate 所有。
商汤“书生・浦语”2.0 大语言模型开源:200K 上下文,一次可读 30 万汉字
巴比特讯 商汤科技与上海 AI 实验室联合香港中文大学和复旦大学今日发布了新一代大语言模型书生・浦语 2.0(InternLM2)。
据介绍,InternLM2 是在 2.6 万亿 token 的语料上训练得到的。沿袭第一代书生・浦语(InternLM)设定,InternLM2 包含 7B 及 20B 两种参数规格及基座、对话等版本,继续开源,提供免费商用授权。目前,浦语背后的数据清洗过滤技术已经历三轮迭代升级,号称仅使用约 60% 的训练数据即可达到使用第二代数据训练 1T tokens 的性能表现。
据介绍,通过拓展训练窗口大小和位置编码改进,InternLM2 支持 20 万 tokens 的上下文,能够一次性接受并处理约 30 万汉字(约五六百页的文档)的输入内容。InternLM2 在 20B 参数的中等规模上,整体表现接近 ChatGPT。