Экономическая газета: создание правил и систем для поддержки индустрии искусственного интеллекта

robot
Генерация тезисов в процессе

Данные показывают, что к 2025 году в нашей стране насчитывается более 6000 компаний, занимающихся искусственным интеллектом, а масштаб ключевых отраслей, связанных с ИИ,预计 превысит 1,2 триллиона юаней. В настоящее время применение искусственного интеллекта охватывает важные отрасли, такие как металлургия, цветная металлургия, электроэнергетика, связь, и постепенно углубляется в такие ключевые процессы, как разработка продукции, контроль качества, обслуживание клиентов. В качестве технологии, ведущей новую волну технологической революции, искусственный интеллект кардинально меняет экономические формы и модели социального управления. Ускорение построения соответствующей правовой базы является ключевым мероприятием для обеспечения стабильного и долгосрочного развития.

С глобальной точки зрения управление искусственным интеллектом демонстрирует разнообразие подходов. Европейский союз принял «Закон об искусственном интеллекте», который установил систему регулирования на основе градации рисков, создав четырехуровневую систему контроля: запрещающий, высокий риск, ограниченный риск и минимальный риск. США применяют инновационно-ориентированную стратегию регулирования, в рамках «Исполнительного указа по искусственному интеллекту» делается акцент на стимулирование инноваций через стандартизацию и саморегулирование отрасли. Особенность нашего подхода заключается в концепции «одновременного развития и безопасности, синхронного инновационного и нормативного регулирования», а также в разработке механизмов распределения и циркуляции прав на данные, что обеспечивает безопасность данных и свободное обращение данных на рынке, что может служить полезным примером для глобального регулирования ИИ.

Также необходимо ясно осознавать, что в области правового регулирования искусственного интеллекта в нашей стране все еще существуют многочисленные вызовы. На законодательном уровне отсутствует специализированное законодательство, а координация между законами, такими как Закон о кибербезопасности и Закон о безопасности данных, еще не завершена. В реализации регулирования сохраняются проблемы неопределенности ответственности, несогласованности стандартов и функций различных ведомств, а требования к прозрачности алгоритмов и защите коммерческой тайны требуют более тонкого баланса. В техническом управлении остаются проблемы низкого качества данных, трудности устранения предвзятости алгоритмов и неясности в определении ответственности. Кроме того, существуют задержки в регулировании в области защиты интеллектуальной собственности и трансграничного обмена данными. В рамках пятилетнего плана необходимо принимать меры с разных сторон, создавать нормативную базу для поддержки развития индустрии искусственного интеллекта.

В процессе законодательного развития необходимо сформировать нормативную систему, основанную на системе градации и классификации регулирования, с поддержкой системы технических стандартов. В области инновационного регулирования следует создать межведомственную платформу для совместного контроля, унифицировать стандарты правоприменения, внедрить механизм «регуляторной песочницы» в таких сферах, как автоматизированное вождение, и создать инновационные экспериментальные зоны, чтобы стимулировать инновации при обеспечении безопасности.

В области управления данными необходимо преодолеть сложности с определением прав собственности, разработать комплексные системы, включающие права на владение данными, права на обработку и использование, а также права на коммерческое использование данных. Следует создать механизмы управления, охватывающие весь жизненный цикл данных — от сбора и использования до уничтожения, особенно в части оценки качества обучающих данных и стандартизации маркировки данных.

В сфере ответственности за алгоритмы необходимо установить механизмы ответственности, охватывающие весь цикл — от проектирования и разработки до внедрения, особенно в высокорискованных областях, где должны вводиться обязательные оценки. Внедрить систему оценки влияния алгоритмов, требовать от разработчиков проведение оценки справедливости, прозрачности и безопасности перед развертыванием систем, а также предоставить пользователям право на объяснение и оспаривание решений.

Кроме того, необходимо усилить ответственность предприятий, интегрировать этическую экспертизу в процессы разработки, поощрять создание комитетов по управлению алгоритмами. Руководить отраслевыми ассоциациями в разработке более высоких стандартов и технических нормативов, создавать системы сертификации этики искусственного интеллекта. Совершенствовать механизмы общественного участия через слушания, экспертные оценки и опросы общественного мнения для формирования общественного консенсуса и обеспечения соответствия развития технологий общественным интересам. Активно участвовать в формировании глобальных правил, способствовать созданию справедливого, инклюзивного и устойчивого глобального порядка регулирования искусственного интеллекта.

(Источник: «Экономическая газета»)

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить