Data pada 7 Februari, Longxin Zhongke secara resmi mengumumkan bahwa perangkat yang dilengkapi dengan CPU Longxin 3 berhasil mengoperasikan model DeepSeek R1 7B, mencapai implementasi lokal, kinerja unggul, biaya yang sangat baik, dan memberikan pengalaman pelatihan dan inferensi yang lebih cepat, lebih kuat, dan lebih efisien bagi pengguna. Baru-baru ini, Longxin bersama mitra industri seperti Taichi Yuangqi hanya memerlukan 2 jam untuk menyelesaikan adaptasi model seri DeepSeek-R1, termasuk layanan berbagai model besar termasuk DeepSeek-R1-Distill-Qwen-7B di kartu akselerasi Taichi T100, dan peluncuran cepat. Saat ini, Longxin sedang aktif bekerja sama dengan mitra seperti Taichi Yuangqi, Hanwujiji, Tiannumber, Aluneng Technology, openEuler, dan lainnya, untuk sepenuhnya membangun platform inferensi multi-modal seri DeepSeek, membantu pengguna perusahaan untuk mencapai transformasi kecerdasan buatan.