Tin tức tài chính Sina Ngày 26, Học viện Công nghệ Thông tin và Truyền thông Trung Quốc đã công bố “Báo cáo nghiên cứu về quản trị đạo đức của trí tuệ nhân tạo (2023)” tại “Báo cáo quan sát chuyên sâu của Học viện Công nghệ Thông tin và Truyền thông Trung Quốc năm 2024 Diễn đàn phụ về Quản trị đạo đức khoa học và công nghệ”. Theo báo cáo, những thách thức đạo đức do AI đặt ra hiện đã chuyển từ các cuộc thảo luận lý thuyết sang rủi ro thực sự. Trong giai đoạn nghiên cứu và phát triển công nghệ, do thiếu năng lực kỹ thuật và phương pháp quản lý trong thu thập và sử dụng dữ liệu, thiết kế thuật toán, điều chỉnh mô hình, v.v., các thực thể phát triển công nghệ trí tuệ nhân tạo có thể tạo ra các rủi ro đạo đức như phân biệt đối xử thiên vị, rò rỉ quyền riêng tư, thông tin sai lệch và không thể giải thích được. Trong giai đoạn phát triển và ứng dụng sản phẩm, các lĩnh vực cụ thể của sản phẩm AI và phạm vi triển khai và ứng dụng của các hệ thống AI sẽ ảnh hưởng đến mức độ rủi ro đạo đức của AI và có thể dẫn đến các rủi ro đạo đức như lạm dụng và lạm dụng, phụ thuộc quá mức và tác động đến giáo dục và việc làm. Đối với các kịch bản ứng dụng điển hình như nội dung do AI tạo ra, lái xe tự động và chăm sóc sức khỏe thông minh, cần đánh giá các rủi ro chính dựa trên tần suất, phạm vi và mức độ tác động.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Báo cáo nghiên cứu về quản trị đạo đức của trí tuệ nhân tạo (2023) đã được công bố hôm nay
Tin tức tài chính Sina Ngày 26, Học viện Công nghệ Thông tin và Truyền thông Trung Quốc đã công bố “Báo cáo nghiên cứu về quản trị đạo đức của trí tuệ nhân tạo (2023)” tại “Báo cáo quan sát chuyên sâu của Học viện Công nghệ Thông tin và Truyền thông Trung Quốc năm 2024 Diễn đàn phụ về Quản trị đạo đức khoa học và công nghệ”. Theo báo cáo, những thách thức đạo đức do AI đặt ra hiện đã chuyển từ các cuộc thảo luận lý thuyết sang rủi ro thực sự. Trong giai đoạn nghiên cứu và phát triển công nghệ, do thiếu năng lực kỹ thuật và phương pháp quản lý trong thu thập và sử dụng dữ liệu, thiết kế thuật toán, điều chỉnh mô hình, v.v., các thực thể phát triển công nghệ trí tuệ nhân tạo có thể tạo ra các rủi ro đạo đức như phân biệt đối xử thiên vị, rò rỉ quyền riêng tư, thông tin sai lệch và không thể giải thích được. Trong giai đoạn phát triển và ứng dụng sản phẩm, các lĩnh vực cụ thể của sản phẩm AI và phạm vi triển khai và ứng dụng của các hệ thống AI sẽ ảnh hưởng đến mức độ rủi ro đạo đức của AI và có thể dẫn đến các rủi ro đạo đức như lạm dụng và lạm dụng, phụ thuộc quá mức và tác động đến giáo dục và việc làm. Đối với các kịch bản ứng dụng điển hình như nội dung do AI tạo ra, lái xe tự động và chăm sóc sức khỏe thông minh, cần đánh giá các rủi ro chính dựa trên tần suất, phạm vi và mức độ tác động.