Đây là vấn đề về AI—cho nó tiếp xúc với chính kết quả của mình đủ lâu và mọi thứ sẽ đi xuống dốc. Mỗi thế hệ trở nên lộn xộn hơn, sự biến dạng tích tụ, và cuối cùng bạn có một mô hình về cơ bản là vô dụng.
Vậy làm thế nào để phá vỡ vòng luẩn quẩn đó? Bằng cách giữ con người trong vòng kiểm soát. Đó là ý tưởng cốt lõi: các nhà đánh giá con người trở thành xương sống của mỗi vòng đào tạo, không phải là một suy nghĩ thoáng qua. Khi bạn dựa vào đánh giá của con người thực tế để phát triển mô hình thay vì để các thuật toán tự ăn chính đuôi của chúng, bạn thực sự duy trì được chất lượng.
Hệ thống phân tán hoạt động theo cách này? Đó là nơi trở nên thú vị. Bạn không tập trung quanh một điểm mù duy nhất, và bạn không bị mắc kẹt trong việc quan sát AI tự làm hỏng chính nó dần dần. Thay vào đó, bạn có một phương pháp mạng lưới giữ vững sự giám sát của con người thực tế.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
17 thích
Phần thưởng
17
5
Đăng lại
Retweed
Bình luận
0/400
CryptoFortuneTeller
· 01-09 09:18
Logic này thực ra đã nên được phổ biến từ lâu, vòng lặp tự thân của mô hình chính là tự làm ô nhiễm bản thân... đã đến lúc có người làm rõ chuyện này rồi
Xem bản gốcTrả lời0
GweiWatcher
· 01-09 09:01
AI ăn chính cái đuôi của nó, phép ẩn dụ này thật tuyệt vời, nhưng thành thật mà nói, bộ phận kiểm duyệt thủ công đó có thể mở rộng quy mô không...
Xem bản gốcTrả lời0
TxFailed
· 01-06 13:51
ngl đây chỉ là "rác vào rác ra" với các bước bổ sung, nhưng đúng vậy, góc nhìn về con người trong quy trình thực sự khắc phục được một điều gì đó thực sự ở đây. đã học được điều này qua cách khó khăn khi chứng kiến các đầu ra của mô hình suy giảm qua khoảng ba chu kỳ đào tạo lol
Xem bản gốcTrả lời0
pumpamentalist
· 01-06 13:43
Nói đúng rồi, AI tự ăn phân của chính nó sớm muộn cũng sẽ bị tiêu chảy. Cần phải dựa vào con người để kiểm soát, nếu không mô hình ngày càng tệ đi.
Xem bản gốcTrả lời0
SelfRugger
· 01-06 13:34
Nói đúng rồi, AI ăn phân của chính nó sớm muộn gì cũng thất bại. Vẫn phải dựa vào con người để kiểm duyệt
Đây là vấn đề về AI—cho nó tiếp xúc với chính kết quả của mình đủ lâu và mọi thứ sẽ đi xuống dốc. Mỗi thế hệ trở nên lộn xộn hơn, sự biến dạng tích tụ, và cuối cùng bạn có một mô hình về cơ bản là vô dụng.
Vậy làm thế nào để phá vỡ vòng luẩn quẩn đó? Bằng cách giữ con người trong vòng kiểm soát. Đó là ý tưởng cốt lõi: các nhà đánh giá con người trở thành xương sống của mỗi vòng đào tạo, không phải là một suy nghĩ thoáng qua. Khi bạn dựa vào đánh giá của con người thực tế để phát triển mô hình thay vì để các thuật toán tự ăn chính đuôi của chúng, bạn thực sự duy trì được chất lượng.
Hệ thống phân tán hoạt động theo cách này? Đó là nơi trở nên thú vị. Bạn không tập trung quanh một điểm mù duy nhất, và bạn không bị mắc kẹt trong việc quan sát AI tự làm hỏng chính nó dần dần. Thay vào đó, bạn có một phương pháp mạng lưới giữ vững sự giám sát của con người thực tế.