OpenAI và Anthropic kiểm tra chéo các vấn đề về ảo giác mô hình và an toàn.

GateNews

Dữ liệu Jin10 ngày 28 tháng 8, OpenAI và Anthropic gần đây đã đánh giá lẫn nhau về các mô hình của mình, nhằm phát hiện ra những vấn đề có thể bị bỏ sót trong các bài kiểm tra của chính họ. Cả hai công ty đã cho biết vào thứ Tư trên blog của mình rằng vào mùa hè năm nay, họ đã thực hiện các bài kiểm tra an ninh đối với các mô hình AI có sẵn công khai của nhau, và kiểm tra xem các mô hình có xu hướng ảo giác hay không, cũng như vấn đề gọi là “mất chuẩn” (misalignment), tức là các mô hình không hoạt động như mong đợi của nhà phát triển. Các đánh giá này được hoàn thành trước khi OpenAI ra mắt GPT-5 và Anthropic phát hành Opus 4.1 vào đầu tháng 8. Anthropic được thành lập bởi các cựu nhân viên của OpenAI.

Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể đến từ bên thứ ba và không đại diện cho quan điểm hoặc ý kiến của Gate. Nội dung hiển thị trên trang này chỉ mang tính chất tham khảo và không cấu thành bất kỳ lời khuyên tài chính, đầu tư hoặc pháp lý nào. Gate không đảm bảo tính chính xác hoặc đầy đủ của thông tin và sẽ không chịu trách nhiệm cho bất kỳ tổn thất nào phát sinh từ việc sử dụng thông tin này. Đầu tư vào tài sản ảo tiềm ẩn rủi ro cao và chịu biến động giá đáng kể. Bạn có thể mất toàn bộ vốn đầu tư. Vui lòng hiểu rõ các rủi ro liên quan và đưa ra quyết định thận trọng dựa trên tình hình tài chính và khả năng chấp nhận rủi ro của riêng bạn. Để biết thêm chi tiết, vui lòng tham khảo Tuyên bố miễn trừ trách nhiệm.
Bình luận
0/400
Không có bình luận