Los datos muestran que para 2025, el número de empresas de inteligencia artificial en nuestro país superará las 6000, y la escala de la industria principal se espera que supere los 1.2 billones de yuanes. Actualmente, las aplicaciones de inteligencia artificial ya cubren industrias clave como el acero, los metales no ferrosos, la electricidad y las telecomunicaciones, penetrando gradualmente en etapas clave como la investigación y desarrollo de productos, la inspección de calidad y el servicio al cliente. Como tecnología que lidera una nueva ronda de revolución tecnológica, la inteligencia artificial está transformando profundamente la forma económica y el modo de gobernanza social. Acelerar la construcción de un marco legal que se adapte a ella es una medida clave para garantizar su desarrollo estable y sostenido.
Desde una perspectiva global, la gobernanza de la inteligencia artificial presenta enfoques diversos. La Unión Europea, a través de la Ley de Inteligencia Artificial, establece un modelo de regulación basado en la clasificación de riesgos, creando un sistema de supervisión de cuatro niveles: prohibido, alto riesgo, riesgo limitado y riesgo mínimo. Estados Unidos adopta una estrategia de regulación orientada a la innovación, en la que, en la Orden Ejecutiva sobre Inteligencia Artificial, se enfatiza promover la innovación mediante la construcción de estándares y la autorregulación del sector. La ruta de gobernanza de nuestro país se caracteriza por la idea de “equilibrar desarrollo y seguridad, y coordinar innovación y regulación”, explorando mecanismos de distribución y circulación de derechos de datos que garantizan la seguridad de los datos y facilitan el ciclo del mercado de elementos de datos, ofreciendo una referencia valiosa para la gobernanza global de la inteligencia artificial.
También debemos ser conscientes de que la construcción del marco legal para la inteligencia artificial en nuestro país aún enfrenta numerosos desafíos. En el nivel legislativo, la falta de leyes específicas, y la coordinación insuficiente entre leyes como la Ley de Seguridad Cibernética y la Ley de Seguridad de Datos. En la implementación de la regulación, persisten problemas como responsabilidades departamentales poco claras, solapamientos y estándares no unificados, y la necesidad de equilibrar mejor la transparencia de los algoritmos con la protección de secretos comerciales. En el nivel de gobernanza tecnológica, aún hay que resolver problemas como la calidad desigual de los datos, la dificultad para eliminar sesgos en los algoritmos y la ambigüedad en la responsabilidad. Además, en áreas como la protección de la propiedad intelectual y el flujo transfronterizo de datos, todavía existen retrasos regulatorios. De cara a los “Quince Cinco” (el plan quinquenal), se deben implementar políticas desde múltiples perspectivas, estableciendo un marco normativo que respalde la industria de la inteligencia artificial.
En cuanto al proceso legislativo, se debe construir un sistema normativo centrado en un régimen de supervisión clasificado y jerarquizado, apoyado en un sistema de estándares técnicos. En innovación regulatoria, se propone establecer plataformas de supervisión interdepartamentales, unificar los estándares de aplicación de la ley, promover mecanismos de “sandbox” en áreas específicas como la conducción autónoma, y crear zonas de innovación experimental, promoviendo la innovación bajo la premisa de garantizar la seguridad.
En la gobernanza de datos, se debe superar el desafío de definir los derechos de propiedad, y se puede construir un sistema integral que incluya derechos de posesión de datos, derechos de procesamiento y uso, y derechos de operación de productos de datos. Es necesario establecer mecanismos de gestión que cubran todo el ciclo de vida de los datos, desde su recopilación hasta su uso y destrucción, especialmente en aspectos como la evaluación de la calidad de los datos de entrenamiento y la estandarización de la anotación de datos.
En cuanto a la responsabilidad algorítmica, se debe establecer un mecanismo de responsabilidad que abarque todo el proceso de diseño, desarrollo y despliegue, con requisitos de evaluación obligatoria en áreas de alto riesgo. Se propone introducir un sistema de evaluación del impacto del algoritmo, que exija a los desarrolladores realizar evaluaciones de equidad, transparencia y seguridad antes del despliegue del sistema, y otorgar a los usuarios derechos para solicitar explicaciones y presentar objeciones.
Además, se debe fortalecer la responsabilidad de las empresas, promoviendo la internalización de la revisión ética en los procesos de I+D, fomentando la creación de comités de gobernanza algorítmica. Se recomienda que las asociaciones industriales establezcan normas y estándares técnicos de mayor nivel, y que se construya un sistema de certificación ética en inteligencia artificial. También es importante perfeccionar los mecanismos de participación pública, mediante audiencias, evaluaciones por expertos y encuestas de opinión, para consolidar el consenso social y garantizar que el desarrollo tecnológico sirva al interés público. Participar activamente en la formulación de reglas globales, promoviendo la creación de un orden de gobernanza de la inteligencia artificial justo, inclusivo y sostenible a nivel mundial.
(Artículo original: Diario Económico)
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Diario Económico: Establecer regulaciones y sistemas para respaldar la industria de la inteligencia artificial
Los datos muestran que para 2025, el número de empresas de inteligencia artificial en nuestro país superará las 6000, y la escala de la industria principal se espera que supere los 1.2 billones de yuanes. Actualmente, las aplicaciones de inteligencia artificial ya cubren industrias clave como el acero, los metales no ferrosos, la electricidad y las telecomunicaciones, penetrando gradualmente en etapas clave como la investigación y desarrollo de productos, la inspección de calidad y el servicio al cliente. Como tecnología que lidera una nueva ronda de revolución tecnológica, la inteligencia artificial está transformando profundamente la forma económica y el modo de gobernanza social. Acelerar la construcción de un marco legal que se adapte a ella es una medida clave para garantizar su desarrollo estable y sostenido.
Desde una perspectiva global, la gobernanza de la inteligencia artificial presenta enfoques diversos. La Unión Europea, a través de la Ley de Inteligencia Artificial, establece un modelo de regulación basado en la clasificación de riesgos, creando un sistema de supervisión de cuatro niveles: prohibido, alto riesgo, riesgo limitado y riesgo mínimo. Estados Unidos adopta una estrategia de regulación orientada a la innovación, en la que, en la Orden Ejecutiva sobre Inteligencia Artificial, se enfatiza promover la innovación mediante la construcción de estándares y la autorregulación del sector. La ruta de gobernanza de nuestro país se caracteriza por la idea de “equilibrar desarrollo y seguridad, y coordinar innovación y regulación”, explorando mecanismos de distribución y circulación de derechos de datos que garantizan la seguridad de los datos y facilitan el ciclo del mercado de elementos de datos, ofreciendo una referencia valiosa para la gobernanza global de la inteligencia artificial.
También debemos ser conscientes de que la construcción del marco legal para la inteligencia artificial en nuestro país aún enfrenta numerosos desafíos. En el nivel legislativo, la falta de leyes específicas, y la coordinación insuficiente entre leyes como la Ley de Seguridad Cibernética y la Ley de Seguridad de Datos. En la implementación de la regulación, persisten problemas como responsabilidades departamentales poco claras, solapamientos y estándares no unificados, y la necesidad de equilibrar mejor la transparencia de los algoritmos con la protección de secretos comerciales. En el nivel de gobernanza tecnológica, aún hay que resolver problemas como la calidad desigual de los datos, la dificultad para eliminar sesgos en los algoritmos y la ambigüedad en la responsabilidad. Además, en áreas como la protección de la propiedad intelectual y el flujo transfronterizo de datos, todavía existen retrasos regulatorios. De cara a los “Quince Cinco” (el plan quinquenal), se deben implementar políticas desde múltiples perspectivas, estableciendo un marco normativo que respalde la industria de la inteligencia artificial.
En cuanto al proceso legislativo, se debe construir un sistema normativo centrado en un régimen de supervisión clasificado y jerarquizado, apoyado en un sistema de estándares técnicos. En innovación regulatoria, se propone establecer plataformas de supervisión interdepartamentales, unificar los estándares de aplicación de la ley, promover mecanismos de “sandbox” en áreas específicas como la conducción autónoma, y crear zonas de innovación experimental, promoviendo la innovación bajo la premisa de garantizar la seguridad.
En la gobernanza de datos, se debe superar el desafío de definir los derechos de propiedad, y se puede construir un sistema integral que incluya derechos de posesión de datos, derechos de procesamiento y uso, y derechos de operación de productos de datos. Es necesario establecer mecanismos de gestión que cubran todo el ciclo de vida de los datos, desde su recopilación hasta su uso y destrucción, especialmente en aspectos como la evaluación de la calidad de los datos de entrenamiento y la estandarización de la anotación de datos.
En cuanto a la responsabilidad algorítmica, se debe establecer un mecanismo de responsabilidad que abarque todo el proceso de diseño, desarrollo y despliegue, con requisitos de evaluación obligatoria en áreas de alto riesgo. Se propone introducir un sistema de evaluación del impacto del algoritmo, que exija a los desarrolladores realizar evaluaciones de equidad, transparencia y seguridad antes del despliegue del sistema, y otorgar a los usuarios derechos para solicitar explicaciones y presentar objeciones.
Además, se debe fortalecer la responsabilidad de las empresas, promoviendo la internalización de la revisión ética en los procesos de I+D, fomentando la creación de comités de gobernanza algorítmica. Se recomienda que las asociaciones industriales establezcan normas y estándares técnicos de mayor nivel, y que se construya un sistema de certificación ética en inteligencia artificial. También es importante perfeccionar los mecanismos de participación pública, mediante audiencias, evaluaciones por expertos y encuestas de opinión, para consolidar el consenso social y garantizar que el desarrollo tecnológico sirva al interés público. Participar activamente en la formulación de reglas globales, promoviendo la creación de un orden de gobernanza de la inteligencia artificial justo, inclusivo y sostenible a nivel mundial.
(Artículo original: Diario Económico)