AI này trong lĩnh vực này thực ra đã âm thầm thay đổi một bộ quy tắc cạnh tranh. Trước đây mọi người thi đua xem ai có mô hình lớn hơn, tham số nhiều hơn, sinh ra nhanh hơn; nhưng đến ngày hôm nay, sự khác biệt thực sự không còn nằm ở khả năng nữa, mà là dám hay không dám được tin tưởng.



Điều này không phải là ngành tự tìm ra câu chuyện mới cho chính mình, thái độ của thế giới bên ngoài thực ra đã rất rõ ràng.

Trong Báo cáo Xu hướng Công nghệ 5 Năm tới của Trung Quốc mới đây, đã trực tiếp chỉ ra một xu hướng: Toàn cầu đang bước vào kỷ nguyên AI thông minh. Và không phải là kiểu trò chuyện, viết nội dung, làm dịch vụ khách hàng, mà là sẽ tham gia vào các cảnh quan nhạy cảm cao như quản lý rủi ro tài chính, phê duyệt chính quyền, quản trị công cộng, thậm chí bắt đầu tham gia vào các quyết định thực tế.

Nhưng trong báo cáo, họ nhấn mạnh đi nhấn lại một tiền đề: nếu AI không đáng tin cậy, nó thậm chí không đủ tư cách để được đưa vào các hệ thống này.

Nghiên cứu của IIT Delhi còn nói rõ hơn: cấu trúc hộp đen, vấn đề ảo giác, không thể giải thích được là những rạn nứt lớn nhất về lòng tin vào AI hiện nay. Mô hình càng mạnh, một khi gặp vấn đề, rủi ro không phải là tuyến tính, mà là trực tiếp mở rộng.

Chính vì thực tế này, bạn sẽ thấy một hiện tượng rất chia rẽ: một bên là hàng loạt “AI + plugin” “AI + ứng dụng đóng gói”, trông có vẻ ngày càng nhiều chức năng; bên kia, vấn đề quyết định AI có thể hay không vào các cảnh quan cốt lõi vẫn là lòng tin, nhưng hầu như không ai giải quyết trực diện.

Và @inference_labs gần đây với một loạt hành động, chính xác là đang giải quyết điểm khó nhất này.

Họ đã ra mắt Mùa 2 của TruthTensor, đồng thời đổi tên Subnet-2 cũ thành DSperse. Việc đổi tên không quan trọng, điều quan trọng là hướng đi đã trở nên rất rõ ràng: họ không chỉ “làm một mạng con”, mà đang xây dựng một bộ hạ tầng AI phi tập trung, có thể xác minh được.

Ý tưởng cốt lõi của DSperse thực ra không phức tạp, đừng để một mô hình, một nút, một hệ thống tự mình xác nhận “đúng đắn”. Việc đưa ra lý do do nhiều người cùng thực hiện, xác minh bởi nhiều người cùng tham gia, lòng tin không đến từ quyền lực, mà đến từ quá trình có thể kiểm tra, có thể định lượng, có thể theo dõi được chính nó.

Nó vừa chạy mô hình, vừa kiểm tra mô hình; không phải “bạn tin tôi”, mà là “bạn có thể tự mình xác minh tôi”.

Điểm quan trọng hơn nữa là, DSperse hoàn toàn tách biệt giữa “suy luận” và “xác minh”, thực thi phân tán. Điều này không tối ưu về mặt hiệu quả, nhưng về mặt an toàn hệ thống, nó tránh được vấn đề chết người nhất của AI tập trung, một nút lỗi, toàn bộ hệ thống cùng sập.

Con đường này thật sự rất khó, thậm chí trong ngắn hạn còn không được ưa thích. Nhưng nếu nhìn từ góc độ “AI phải vào thế giới thực”, thì gần như không thể tránh khỏi.

Theo tôi, năm 2026 sẽ là một mốc thời gian cực kỳ quan trọng. Lúc đó AI sẽ không còn thiếu khả năng mô hình nữa, thứ thực sự khan hiếm sẽ là ba thứ: khả năng xác minh, khả năng kiểm toán, và hạ tầng nền tảng đáng tin cậy.

Từ nhịp điệu hiện tại, inference labs chọn cách nhai phần khó nhất trước. Trong đám dự án vẫn còn đang cạnh tranh về tham số, mô hình phức tạp, đổi vỏ ứng dụng, DSperse có vẻ như là biến số ít nổi bật nhưng có thể quyết định hướng đi của giai đoạn tiếp theo.

@KaitoAI #Yapping #MadewithMoss @MossAI_Official #Starboard @Galxe @RiverdotInc @River4fun
Xem bản gốc
post-image
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
0/400
Không có bình luận
  • Ghim