💥 Gate 广场活动:#发帖赢代币TRUST 💥
在 Gate 广场发布与 TRUST 或 CandyDrop 活动 相关的原创内容,即有机会瓜分 13,333 枚 TRUST 奖励!
📅 活动时间: 2025年11月6日 – 11月16日 24:00(UTC+8)
📌 相关详情:
CandyDrop 👉 https://www.gate.com/zh/announcements/article/47990
📌 参与方式:
1️⃣ 在 Gate 广场发布原创内容,主题需与 TRUST 或 CandyDrop 活动相关;
2️⃣ 内容不少于 80 字;
3️⃣ 帖子添加话题: #发帖赢代币TRUST
4️⃣ 附上任意 CandyDrop 活动参与截图。
🏆 奖励设置(总奖池:13,333 TRUST)
🥇 一等奖(1名):3,833 TRUST / 人
🥈 二等奖(3名):1,500 TRUST / 人
🥉 三等奖(10名):500 TRUST / 人
📄 注意事项:
内容必须原创,禁止抄袭或灌水;
获奖者需完成 Gate 广场身份认证;
活动最终解释权归 Gate 所有。
全世界最大的超算 Frontier 使用 3072 块 AMD GPU 训完超万亿参数 LLM
巴比特讯 据新智元 1 月 13 日报道,用AMD的软硬件系统也能训练GPT-3.5级别的大模型了。
位于美国橡树岭国家实验室(Oak Ridge National Laboratory)的全世界最大的超算Frontier,集合了37888个MI250X GPU和9472个Epyc7A53CPU。最近,研究人员只使用了其中8%左右的GPU,就训练了一个GPT-3.5规模的模型。研究人员成功地使用ROCM软件平台在AMD硬件上成功地突破了分布式训练模型的很多难点,建立了使用ROCM平台在AMD硬件上为大模型实现最先进的分布式训练算法和框架。
成功地在非英伟达和非CUDA平台上为高效训练LLM提供了可行的技术框架。
训练完成后,研究人员将在Frontier上训练大模型的经验的总结成了一篇论文,详细描述了期间遇到的挑战以及克服的困难。