Скануйте, щоб завантажити додаток Gate
qrCode
Більше варіантів завантаження
Не нагадувати сьогодні
Результати пошуку для "SFT"
04:28
🔥Майнінг стартапів триває: $UNIO, $SFT, $X, $CYCON, $CYRUS, $CROS ✅$UNIO Майнінг підтримує $UNIO та $USDT Майнінговий пул, $UNIO Майнінговий пул має річну дохідність до 1898.32%; ✅$SFT майнінг підтримує басейни $SFT та $ETH, річний дохід від $SFT майнінгу може сягати до 518.2%; ✅Середньорічний дохід від видобутку X становить до 508.06%; ✅$CYCON майнинг підтримує $CYCON і $GT Майнінговий пул, річна прибутковість $CYCON Майнінговий пулу становить до 596,86%. ✅$CYRUS二期Майнінг, Річна процентна ставка高达282.41%; ✅$CROSМайнінг підтримує $CROS та $BTCМайнінговий пул, $CROSМайнінговий пулРічна процентна ставка高达576.19%; 💰 Мій зараз: https://www.gate.io/zh/startup-mining
X2.64%
  • 5
  • 7
08:30
У другій половині дня 12 січня 2024 року відбувся офіційний старт першого інноваційного форуму SFT. Під час зустрічі засновники zCloak Network та Solv Protocol спільно оголосили, що офіційно стали стратегічними партнерами. У листопаді 2023 року DESFT, проєкт, спільно розроблений та інкубований zCloak і Solv, був помічений на Сінгапурському фестивалі фінтеху, який спільно підтримується Грошово-кредитним управлінням Сінгапуру (MAS) і Центральним банком Гани, який має на меті допомогти мікро-, малим і середнім підприємствам (ММСП) у регіонах, що розвиваються, брати участь у міжнародній торгівлі за допомогою корпоративної цифрової ідентифікації, цифрових облікових даних і ERC3525 технологій, а також отримувати справедливі, точні та доступні фінансові послуги в транскордонній діяльності цифрової економіки. Завдяки поглибленому співробітництву в проекті DESFT обидві сторони погодилися, що доказ з нульовим розголошенням, технологія цифрової ідентифікації zCloak і стандарт ERC-3525 протоколу Solv мають дуже хорошу взаємодоповнюваність, сильне поєднання в розробці практичних застосувань і широкий інноваційний простір. Для того, щоб краще вивчити шлях токенізації реальних активів, обидві сторони офіційно встановили ділове стратегічне партнерство для спільного розширення майбутнього технічного співробітництва та сценаріїв комерційного десанту.
03:59
Згідно зі звітом TechWeb 19 вересня, вітчизняна авторитетна система оцінки Flag_ (Libra) оголосила результати оцінки останніх великих моделей у вересневому списку. На основі останнього набору даних суб’єктивної оцінки CLCC v2.0 Вересневий список Flag_ (Libra) фокусується на оцінці 7 моделей діалогу з відкритим кодом, які нещодавно стали популярними. Судячи із загальних результатів, Baichuan2-13 b-chat, Qwen-7 b-chat і Baichuan2-7 b-chat є одними з найкращих із показниками точності понад 65%. У списку базових моделей результати об’єктивної оцінки Baichuan 2, Qwen, InternLM і Aquila перевершили моделі Llama і Llama2 того самого рівня параметрів. У списку моделей SFT Baichuan 2-13 B-chat, YuLan-Chat-2-13 B і AquilaChat-7 B займають першу трійку. В обох списках об’єктивної оцінки Baichuan 2 показав чудову продуктивність, а тест базової моделі перевершив Llama 2 як у китайській, так і в англійській мовах. Повідомляється, що Flag_ (Libra) — це велика система оцінки моделей і відкрита платформа, запущена Пекінським дослідницьким інститутом штучного інтелекту Чжиюань. Вона спрямована на встановлення наукових, справедливих і відкритих критеріїв оцінки, методів і наборів інструментів, щоб допомогти дослідникам у комплексній оцінці основних моделей і Виконання навчальних алгоритмів. Позначка_ Велика система оцінювання мовної моделі наразі включає 6 основних завдань оцінювання, майже 30 наборів даних оцінювання та понад 100 000 оціночних питань.
07:30

Shizhi AI: офіційно запущено нейтральну та відкриту платформу спільноти wisemodel з відкритим вихідним кодом

Команда Wise AI оголосила про офіційний запуск нейтральної та відкритої платформи спільноти з відкритим кодом AI (wisemodel.cn). Згідно з повідомленнями, метою платформи є збір широко використовуваних моделей ШІ з відкритим кодом, наборів даних та інших ресурсів у країні та за кордоном для створення нейтральної та відкритої інноваційної платформи ШІ з відкритим кодом. Наразі доступні моделі Tsinghua/Zhipu chatglm2-6 B, Stable Diffusion V1.5, alphafold2, безшовні m4t large та інші, а також shareGPT, ultrachat, moss-sft та інші набори даних.
Більше
12:23
Згідно зі звітом 36Kr від 6 вересня, команда Wise AI оголосила про офіційний запуск нейтральної та відкритої платформи спільноти з відкритим кодом AI (wisemodel.cn). Згідно з повідомленнями, метою платформи є збір широко використовуваних моделей ШІ з відкритим кодом, наборів даних та інших ресурсів у країні та за кордоном для створення нейтральної та відкритої інноваційної платформи ШІ з відкритим кодом. Наразі доступні моделі Tsinghua/Zhipu chatglm2-6 B, Stable Diffusion V1.5, alphafold2, безшовні m4 t large та інші, а також shareGPT, ultrachat, moss-sft та інші набори даних.
07:58
Згідно зі звітом Xinzhiyuan від 5 вересня, останнє дослідження команди Google пропонує використовувати великі моделі для заміни людей для анотації переваг, тобто навчання з посиленням зворотного зв’язку AI (RLAIF). Було виявлено, що RLAIF може створити порівняльні покращення з RLHF, не покладаючись на людські анотатори, з відсотком виграшу 50%. У той же час дослідження Google ще раз довели, що RLAIF і RLHF мають коефіцієнт виграшу понад 70% порівняно з контрольованим тонким налаштуванням (SFT).
03:08
Згідно зі звітом Heart of the Machine від 1 вересня, лабораторія Data Intelligence and Social Computing Laboratory (FudanDISC) Університету Фудань випустила китайського персонального помічника з питань охорони здоров’я – DISC-MedLLM. Під час однораундового оцінювання медичних і медичних консультацій у формі запитань і відповідей і багатораундового діалогу ефективність моделі показує очевидні переваги порівняно з існуючими великими моделями медичного діалогу. Крім того, дослідницька група також випустила високоякісний набір даних контрольованої тонкої настройки (SFT) із 470 000 – DISC-Med-SFT, а параметри моделі та технічні звіти також були відкритими.
05:33
Відповідно до «серця» машини, дві великі моделі з лабораторії Stability AI і CarperAI: FreeWilly 1 і FreeWilly 2 перевершили Llama-2-70b-hf, випущену Meta три дні тому, 22 числа, і успішно досягли вершини таблиці лідерів Open LLM HuggingFace. FreeWilly 2 також переміг ChatGPT (GPT-3.5) за багатьма тестами, ставши першою моделлю з відкритим кодом, яка справді може конкурувати з GPT-3.5, чого Llama 2 не зробила. FreeWilly 1 побудовано на основі оригінальної базової моделі LLaMA 65B і ретельно контрольованого тонкого налаштування (SFT) з використанням нового синтетичного набору даних у стандартному форматі Alpaca. FreeWilly2 базується на останній базовій моделі LLaMA 2 70B.
05:43
Відповідно до «серця» машини, дві великі моделі від Stability AI і лабораторії CarperAI: FreeWilly 1 і FreeWilly 2 перевершили Llama-2-70 b-hf, випущену Meta три дні тому, і успішно досягли вершини таблиці лідерів Open LLM HuggingFace. Більше вражає те, що FreeWilly 2 також переміг ChatGPT (GPT-3.5) у багатьох тестах, ставши першою моделлю з відкритим вихідним кодом, яка справді може конкурувати з GPT-3.5, чого не вдалося Llama 2. FreeWilly 1 побудовано на основі оригінальної базової моделі LLaMA 65 B і ретельно контрольованого тонкого налаштування (SFT) з використанням нових синтетичних наборів даних у стандартному форматі Alpaca. FreeWilly2 базується на останній базовій моделі LLaMA 2 70 B.
14:48
Odaily Planet Daily News Meta випустила мультимодальну мовну модель CM3leon. CM3leon — це багатомодальна мовна модель із розширеним пошуком, заснована на маркерах і лише з декодером, здатна генерувати та заповнювати текст і зображення. CM3leon — це перша мультимодальна модель, навчена за допомогою рецепту, адаптованого з моделі мови простого тексту, що складається з великомасштабного етапу попереднього навчання розширення пошуку та другого етапу багатозадачної контрольованої тонкої настройки (SFT). Як загальна модель, він може виконувати генерацію тексту в зображення та зображення в текст, уможливлюючи впровадження незалежних контрастних методів декодування, які створюють високоякісний результат.
Завантажити більше