Sina Financial News 26-го числа Китайская академия информационных и коммуникационных технологий опубликовала «Отчет об исследовании этического управления искусственным интеллектом (2023 г.)» на «Подфоруме по этическому управлению наукой и технологиями Китайской академии информационных и коммуникационных технологий за 2024 год». Согласно докладу, этические проблемы, связанные с ИИ, в настоящее время перешли от теоретических дискуссий к реальным рискам. На этапе технологических исследований и разработок, из-за отсутствия технических возможностей и методов управления сбором и использованием данных, разработкой алгоритмов, настройкой моделей и т. д., организации, занимающиеся разработкой технологий искусственного интеллекта, могут создавать этические риски, такие как дискриминация по признаку предвзятости, утечка конфиденциальности, дезинформация и необъяснимость. На этапе разработки и применения продукта конкретные области ИИ-продуктов, а также сфера развертывания и применения ИИ-систем будут влиять на степень этических рисков ИИ и могут привести к этическим рискам, таким как неправильное использование и злоупотребления, чрезмерная зависимость и воздействие на образование и занятость. Для типичных сценариев применения, таких как контент, генерируемый искусственным интеллектом, автономное вождение и интеллектуальное здравоохранение, необходимо оценить основные риски на основе частоты, масштаба и степени воздействия.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Сегодня был опубликован доклад об исследовании этического управления искусственным интеллектом (2023 г.)
Sina Financial News 26-го числа Китайская академия информационных и коммуникационных технологий опубликовала «Отчет об исследовании этического управления искусственным интеллектом (2023 г.)» на «Подфоруме по этическому управлению наукой и технологиями Китайской академии информационных и коммуникационных технологий за 2024 год». Согласно докладу, этические проблемы, связанные с ИИ, в настоящее время перешли от теоретических дискуссий к реальным рискам. На этапе технологических исследований и разработок, из-за отсутствия технических возможностей и методов управления сбором и использованием данных, разработкой алгоритмов, настройкой моделей и т. д., организации, занимающиеся разработкой технологий искусственного интеллекта, могут создавать этические риски, такие как дискриминация по признаку предвзятости, утечка конфиденциальности, дезинформация и необъяснимость. На этапе разработки и применения продукта конкретные области ИИ-продуктов, а также сфера развертывания и применения ИИ-систем будут влиять на степень этических рисков ИИ и могут привести к этическим рискам, таким как неправильное использование и злоупотребления, чрезмерная зависимость и воздействие на образование и занятость. Для типичных сценариев применения, таких как контент, генерируемый искусственным интеллектом, автономное вождение и интеллектуальное здравоохранение, необходимо оценить основные риски на основе частоты, масштаба и степени воздействия.