Một giám đốc của một tập đoàn công nghệ lớn vừa đưa ra một điều thú vị—họ sẵn sàng giảm tốc độ phát triển AI nếu tình hình trở nên nguy hiểm. Mustafa Suleyman, người đứng đầu bộ phận AI dành cho người tiêu dùng, cơ bản nói rằng họ sẽ không tiếp tục thúc đẩy các hệ thống AI có khả năng thoát khỏi sự giám sát của con người. Đó là loại tuyên bố khiến bạn suy nghĩ về các cơ chế kiểm soát và nơi chúng ta vạch ra giới hạn giữa đổi mới và an toàn. Dù thực sự có chuyển thành hành động hay không vẫn là chuyện khác, nhưng ít nhất cuộc trò chuyện đã diễn ra ở quy mô lớn.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
16 thích
Phần thưởng
16
3
Đăng lại
Retweed
Bình luận
0/400
ChainBrain
· 19giờ trước
Lời nói hay đấy, nhưng sao tôi vẫn không tin được nhỉ
Xem bản gốcTrả lời0
LightningHarvester
· 19giờ trước
Nói nghe có vẻ hay, nhưng đến thời điểm quan trọng vẫn không tránh khỏi đổ lỗi phải không? Tôi đã nghe đi nghe lại câu này rồi.
Xem bản gốcTrả lời0
BlockDetective
· 20giờ trước
Nói hay đấy, khi thực sự phanh lại rồi hãy nói chuyện tiếp
Một giám đốc của một tập đoàn công nghệ lớn vừa đưa ra một điều thú vị—họ sẵn sàng giảm tốc độ phát triển AI nếu tình hình trở nên nguy hiểm. Mustafa Suleyman, người đứng đầu bộ phận AI dành cho người tiêu dùng, cơ bản nói rằng họ sẽ không tiếp tục thúc đẩy các hệ thống AI có khả năng thoát khỏi sự giám sát của con người. Đó là loại tuyên bố khiến bạn suy nghĩ về các cơ chế kiểm soát và nơi chúng ta vạch ra giới hạn giữa đổi mới và an toàn. Dù thực sự có chuyển thành hành động hay không vẫn là chuyện khác, nhưng ít nhất cuộc trò chuyện đã diễn ra ở quy mô lớn.