💥 Gate 廣場活動:#发帖赢代币CGN 💥
在 Gate 廣場發布與 CGN、Launchpool 或 CandyDrop 相關的原創內容,即有機會瓜分 1,333 枚 CGN 獎勵!
📅 活動時間:2025年10月24日 18:00 – 11月4日 24:00(UTC+8)
📌 相關詳情:
Launchpool 👉 https://www.gate.com/zh/announcements/article/47771
CandyDrop 👉 https://www.gate.com/zh/announcements/article/47763
📌 參與方式:
1️⃣ 在 Gate 廣場發布原創內容,主題需與 CGN 或相關活動(Launchpool / CandyDrop)相關;
2️⃣ 內容不少於 80 字;
3️⃣ 帖子添加話題:#發帖贏代幣CGN
4️⃣ 附上任意活動參與截圖
🏆 獎勵設置(總獎池:1,333 CGN)
🥇 一等獎(1名):333 CGN
🥈 二等獎(2名):200 CGN / 人
🥉 三等獎(6名):100 CGN / 人
📄 注意事項:
內容必須原創,禁止抄襲;
獲獎者需完成 Gate 廣場身分認證;
活動最終解釋權歸 Gate 所有。
商湯科技「樹生璞玉」2.0大語言模式開源:200K上下文,一次可讀30萬漢字
比特巴基斯坦 – 商湯科技和上海人工智慧實驗室聯合香港中文大學和復旦大學,今天發佈了新一代大型語言模型Scholar Puyu 2.0(InternLM2)。
據報導,InternLM2在2.6萬億個代幣的語料庫上進行訓練。 遵循第一代學者和普宇(InternLM)的設定,InternLM2包括7B和20B兩個參數規範,以及基礎版和對話版,繼續開源,提供免費商業許可。 目前,普宇背後的數據清洗過濾技術已經經歷了三輪反覆運算升級,聲稱僅用60%左右的訓練數據就能實現用二代數據訓練1T代幣的性能。
據介紹,InternLM2通過擴展訓練視窗大小和位置編碼改進,支援20萬個令牌的上下文,能夠一次性接受和處理約30萬漢字(約五六百頁文檔)的輸入內容。 InternLM2接近ChatGPT的整體性能,達到20B級。