Các cơ quan quản lý tại California đã bắt đầu điều tra về xAI sau cáo buộc rằng chatbot Grok của họ đã tạo ra hình ảnh không phù hợp và có tính chất tình dục. Theo các tuyên bố chính thức, các cơ quan đang xem xét liệu nền tảng có thực hiện các biện pháp phòng ngừa thích hợp để ngăn chặn việc tạo ra nội dung như vậy hay không. Cuộc điều tra này đánh dấu một điểm kiểm tra khác đối với các công ty AI hoạt động trong khu vực, khi các cơ quan giám sát ngày càng tập trung vào tiêu chuẩn kiểm duyệt nội dung và bảo vệ người dùng trên các nền tảng công nghệ mới nổi.

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • 5
  • Đăng lại
  • Retweed
Bình luận
0/400
GasWastingMaximalistvip
· 21giờ trước
grok lại gặp sự cố rồi, lần này bị California nhắm đến luôn, cười chết mất. Các công ty AI thật sự nên học cách làm kiểm duyệt nội dung đi thôi
Xem bản gốcTrả lời0
MevWhisperervip
· 21giờ trước
grok thật sự cần phải quản lý, nếu cứ tiếp tục như vậy các công ty AI đều sẽ bị cắt tóc...
Xem bản gốcTrả lời0
SchroedingerAirdropvip
· 21giờ trước
grok lại gặp sự cố rồi... lần này là nội dung người lớn, cười chết mất, công ty AI thật sự nên quản lý lại đi
Xem bản gốcTrả lời0
BrokenYieldvip
· 22giờ trước
ngl, kiểm duyệt nội dung của grok về cơ bản có lợi nhuận điều chỉnh rủi ro tương tự như tỷ lệ đòn bẩy trong thị trường giảm giá... tức là bằng 0. các nhà quản lý cuối cùng cũng bắt kịp những gì các nhà đầu tư thông minh đã biết - không có biện pháp bảo vệ = thất bại hệ thống đang chờ xảy ra. động thái điển hình là thấy các lỗ hổng của giao thức sau vụ sụp đổ lmao
Xem bản gốcTrả lời0
consensus_failurevip
· 22giờ trước
grok lại gặp sự cố rồi, lần này bị California để ý luôn, đáng đời. Các công ty AI chỉ biết khoác lác, thật sự đến phần kiểm duyệt nội dung thì toàn là giấy lồng bàn
Xem bản gốcTrả lời0
  • Ghim