Доброго ранку всім ☀️


Коли Дженсен Хуанг згадав децентралізоване навчання ШІ, увага одразу переключилася на Bittensor.
Але це вже було досліджено набагато раніше.
У червні 2025 року @0G_labs опублікували статтю DiLoCoX на arXiv, показуючи, що навчання великих моделей на децентралізованих вузлах набагато ефективніше.
Вони продемонстрували навчання понад 100 мільярдів параметрів на стандартному обладнанні та звичайному інтернеті, одночасно підвищуючи ефективність комунікації в 357 разів порівняно з традиційними методами.
Також існує ключова різниця, яка часто пропускається. Bittensor зосереджений на конкретній навченій мережі, тоді як DiLoCoX розроблений як рамкова платформа, яку можна використовувати для навчання будь-якої моделі.
Це також частина ширшого стеку, який поєднує обчислення, зберігання, доступність даних і ланцюг.
Наступна зупинка: EthCC Cannes 2025 1 квітня 📍
0G-0,37%
Переглянути оригінал
post-image
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити