Sina Financial News 26 числа Китайська академія інформаційно-комунікаційних технологій опублікувала «Звіт про дослідження етичного управління штучним інтелектом (2023)» на підфорумі «Звіт про глибинне спостереження Китайської академії інформаційних і комунікаційних технологій за 2024 рік з етичного управління наукою та технологіями». Згідно зі звітом, етичні виклики, пов’язані зі штучним інтелектом, тепер перейшли від теоретичних дискусій до реальних ризиків. На етапі досліджень і розробок технологій, через відсутність технічних можливостей і методів управління в зборі та використанні даних, проектуванні алгоритмів, налаштуванні моделей тощо, суб’єкти розробки технологій штучного інтелекту можуть створювати етичні ризики, такі як дискримінація за упередженістю, витік конфіденційності, дезінформація та незрозумілість. На етапі розробки та застосування продукту конкретні галузі продуктів штучного інтелекту, а також сфера розгортання та застосування систем штучного інтелекту впливатимуть на ступінь етичних ризиків штучного інтелекту та можуть призвести до етичних ризиків, таких як неправильне використання та зловживання, надмірна залежність та вплив на освіту та зайнятість. Для типових сценаріїв застосування, таких як контент, створений штучним інтелектом, автономне водіння та розумна охорона здоров’я, необхідно оцінити основні ризики на основі частоти, масштабу та ступеня впливу.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Сьогодні оприлюднено Звіт про дослідження етичного управління штучним інтелектом (2023)
Sina Financial News 26 числа Китайська академія інформаційно-комунікаційних технологій опублікувала «Звіт про дослідження етичного управління штучним інтелектом (2023)» на підфорумі «Звіт про глибинне спостереження Китайської академії інформаційних і комунікаційних технологій за 2024 рік з етичного управління наукою та технологіями». Згідно зі звітом, етичні виклики, пов’язані зі штучним інтелектом, тепер перейшли від теоретичних дискусій до реальних ризиків. На етапі досліджень і розробок технологій, через відсутність технічних можливостей і методів управління в зборі та використанні даних, проектуванні алгоритмів, налаштуванні моделей тощо, суб’єкти розробки технологій штучного інтелекту можуть створювати етичні ризики, такі як дискримінація за упередженістю, витік конфіденційності, дезінформація та незрозумілість. На етапі розробки та застосування продукту конкретні галузі продуктів штучного інтелекту, а також сфера розгортання та застосування систем штучного інтелекту впливатимуть на ступінь етичних ризиків штучного інтелекту та можуть призвести до етичних ризиків, таких як неправильне використання та зловживання, надмірна залежність та вплив на освіту та зайнятість. Для типових сценаріїв застосування, таких як контент, створений штучним інтелектом, автономне водіння та розумна охорона здоров’я, необхідно оцінити основні ризики на основі частоти, масштабу та ступеня впливу.