La Unión Europea (UE) lidera la carrera por la regulación de la inteligencia artificial (IA). En el día de hoy, el Consejo Europeo y el Parlamento Europeo han concluido tres días de negociaciones para alcanzar un acuerdo provisional que será el primer acuerdo global del mundo sobre la regulación de la IA.
La secretaria de Estado de Digitalización e Inteligencia Artificial de España, Carme Artigas, calificó el acuerdo como un “logro histórico” en un comunicado de prensa. Artigas dijo que las reglas logran un “equilibrio extremadamente delicado” entre fomentar la innovación y la adopción segura de la IA en toda la UE y proteger los “derechos fundamentales” de los ciudadanos.
El proyecto de ley, la Ley de Inteligencia Artificial, fue presentado por primera vez por la Comisión Europea en abril de 2021. El Parlamento y los Estados miembros de la UE votarán para aprobar el proyecto de ley el próximo año, pero la norma no entrará en vigor hasta 2025.
Enfoque regulatorio de IA basado en el riesgo
La Ley de IA está diseñada con un enfoque basado en el riesgo, en el que cuanto mayor sea el riesgo que plantea un sistema de IA, más estrictas serán las normas. Para lograrlo, la normativa clasificará la IA para identificar aquellas que supongan un “alto riesgo”.
Las IA que se consideren no amenazantes y de bajo riesgo estarán sujetas a una “obligación de transparencia muy ligera”. Por ejemplo, se exigirá a estos sistemas de IA que revelen que su contenido está generado por IA para que los usuarios puedan tomar decisiones informadas.
Para los organismos de acreditación de alto riesgo, la legislación añadirá una serie de obligaciones y requisitos, entre ellos:
Supervisión humana: El proyecto de ley exige un enfoque centrado en el ser humano, haciendo hincapié en mecanismos de supervisión humana claros y eficaces para los sistemas de IA de alto riesgo. Esto significa involucrar a los humanos para monitorear y supervisar activamente el funcionamiento de los sistemas de IA. Sus funciones incluyen garantizar que los sistemas funcionen según lo previsto, identificar y abordar los peligros potenciales o las consecuencias no deseadas y, en última instancia, asumir la responsabilidad de sus decisiones y acciones.
Transparencia y explicabilidad: Desmitificar el funcionamiento interno de los sistemas de IA de alto riesgo es fundamental para generar confianza y garantizar la rendición de cuentas. Los desarrolladores deben proporcionar información clara y accesible sobre cómo sus sistemas toman decisiones. Esto incluye detalles sobre el algoritmo subyacente, los datos de entrenamiento y los posibles sesgos que podrían afectar a la salida del sistema.
Gobernanza de datos: La Ley de Inteligencia Artificial hace hincapié en las prácticas responsables de datos y tiene como objetivo prevenir la discriminación, el sesgo y las violaciones de la privacidad. Los desarrolladores deben asegurarse de que los datos utilizados para entrenar y operar sistemas de IA de alto riesgo sean precisos, completos y representativos. El principio de minimización de datos es fundamental para recopilar solo la información necesaria para el funcionamiento del sistema y minimizar el riesgo de uso indebido o destrucción. Además, las personas deben tener un derecho claro a acceder, corregir y eliminar los datos utilizados en los sistemas de IA, lo que les permite controlar su información y garantizar que se utilice de forma ética.
Gestión de riesgos: Identificar y mitigar los riesgos de forma proactiva será un requisito clave para la IA de alto riesgo. Los desarrolladores deben implementar un marco sólido de gestión de riesgos que evalúe sistemáticamente el sistema en busca de posibles daños, vulnerabilidades y consecuencias no deseadas.
Se prohíben ciertos usos de la inteligencia artificial
El reglamento prohibirá por completo el uso de ciertos sistemas de IA cuyos riesgos se consideren “inaceptables”. Por ejemplo, se prohibirá el uso de la IA de reconocimiento facial en áreas públicas, excepto para uso policial.
La regulación también prohíbe que la IA manipule el comportamiento humano, utilice sistemas de puntuación social o explote a grupos vulnerables. Además, la legislación también prohibirá el uso de sistemas de reconocimiento de emociones en áreas como escuelas y oficinas, así como la captura de imágenes de imágenes de vigilancia e Internet.
Sanciones y regulaciones para la atracción de innovación
La Ley de IA también impondrá sanciones a las empresas que infrinjan la ley. Por ejemplo, una violación de una ley que prohíba la aplicación de la IA resultará en una multa del 7% de los ingresos globales de la empresa, mientras que una empresa que viole las obligaciones y requisitos será multada con el 3% de sus ingresos globales.
Para promover la innovación, el Reglamento permitirá que los sistemas innovadores de IA se prueben en condiciones reales con las salvaguardias adecuadas.
Aunque la Unión Europea ya está liderando el camino en esta competencia, Estados Unidos, el Reino Unido y Japón también están tratando de introducir su propia legislación sobre IA. La Ley de Inteligencia Artificial de la Unión Europea puede servir como un estándar global para los países que buscan regular la IA.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
La Unión Europea aprobará la primera legislación de IA del mundo que prohíbe el reconocimiento facial en lugares públicos
La Unión Europea (UE) lidera la carrera por la regulación de la inteligencia artificial (IA). En el día de hoy, el Consejo Europeo y el Parlamento Europeo han concluido tres días de negociaciones para alcanzar un acuerdo provisional que será el primer acuerdo global del mundo sobre la regulación de la IA.
La secretaria de Estado de Digitalización e Inteligencia Artificial de España, Carme Artigas, calificó el acuerdo como un “logro histórico” en un comunicado de prensa. Artigas dijo que las reglas logran un “equilibrio extremadamente delicado” entre fomentar la innovación y la adopción segura de la IA en toda la UE y proteger los “derechos fundamentales” de los ciudadanos.
El proyecto de ley, la Ley de Inteligencia Artificial, fue presentado por primera vez por la Comisión Europea en abril de 2021. El Parlamento y los Estados miembros de la UE votarán para aprobar el proyecto de ley el próximo año, pero la norma no entrará en vigor hasta 2025.
Enfoque regulatorio de IA basado en el riesgo
La Ley de IA está diseñada con un enfoque basado en el riesgo, en el que cuanto mayor sea el riesgo que plantea un sistema de IA, más estrictas serán las normas. Para lograrlo, la normativa clasificará la IA para identificar aquellas que supongan un “alto riesgo”.
Las IA que se consideren no amenazantes y de bajo riesgo estarán sujetas a una “obligación de transparencia muy ligera”. Por ejemplo, se exigirá a estos sistemas de IA que revelen que su contenido está generado por IA para que los usuarios puedan tomar decisiones informadas.
Para los organismos de acreditación de alto riesgo, la legislación añadirá una serie de obligaciones y requisitos, entre ellos:
Supervisión humana: El proyecto de ley exige un enfoque centrado en el ser humano, haciendo hincapié en mecanismos de supervisión humana claros y eficaces para los sistemas de IA de alto riesgo. Esto significa involucrar a los humanos para monitorear y supervisar activamente el funcionamiento de los sistemas de IA. Sus funciones incluyen garantizar que los sistemas funcionen según lo previsto, identificar y abordar los peligros potenciales o las consecuencias no deseadas y, en última instancia, asumir la responsabilidad de sus decisiones y acciones.
Transparencia y explicabilidad: Desmitificar el funcionamiento interno de los sistemas de IA de alto riesgo es fundamental para generar confianza y garantizar la rendición de cuentas. Los desarrolladores deben proporcionar información clara y accesible sobre cómo sus sistemas toman decisiones. Esto incluye detalles sobre el algoritmo subyacente, los datos de entrenamiento y los posibles sesgos que podrían afectar a la salida del sistema.
Gobernanza de datos: La Ley de Inteligencia Artificial hace hincapié en las prácticas responsables de datos y tiene como objetivo prevenir la discriminación, el sesgo y las violaciones de la privacidad. Los desarrolladores deben asegurarse de que los datos utilizados para entrenar y operar sistemas de IA de alto riesgo sean precisos, completos y representativos. El principio de minimización de datos es fundamental para recopilar solo la información necesaria para el funcionamiento del sistema y minimizar el riesgo de uso indebido o destrucción. Además, las personas deben tener un derecho claro a acceder, corregir y eliminar los datos utilizados en los sistemas de IA, lo que les permite controlar su información y garantizar que se utilice de forma ética.
Gestión de riesgos: Identificar y mitigar los riesgos de forma proactiva será un requisito clave para la IA de alto riesgo. Los desarrolladores deben implementar un marco sólido de gestión de riesgos que evalúe sistemáticamente el sistema en busca de posibles daños, vulnerabilidades y consecuencias no deseadas.
Se prohíben ciertos usos de la inteligencia artificial
El reglamento prohibirá por completo el uso de ciertos sistemas de IA cuyos riesgos se consideren “inaceptables”. Por ejemplo, se prohibirá el uso de la IA de reconocimiento facial en áreas públicas, excepto para uso policial.
La regulación también prohíbe que la IA manipule el comportamiento humano, utilice sistemas de puntuación social o explote a grupos vulnerables. Además, la legislación también prohibirá el uso de sistemas de reconocimiento de emociones en áreas como escuelas y oficinas, así como la captura de imágenes de imágenes de vigilancia e Internet.
Sanciones y regulaciones para la atracción de innovación
La Ley de IA también impondrá sanciones a las empresas que infrinjan la ley. Por ejemplo, una violación de una ley que prohíba la aplicación de la IA resultará en una multa del 7% de los ingresos globales de la empresa, mientras que una empresa que viole las obligaciones y requisitos será multada con el 3% de sus ingresos globales.
Para promover la innovación, el Reglamento permitirá que los sistemas innovadores de IA se prueben en condiciones reales con las salvaguardias adecuadas.
Aunque la Unión Europea ya está liderando el camino en esta competencia, Estados Unidos, el Reino Unido y Japón también están tratando de introducir su propia legislación sobre IA. La Ley de Inteligencia Artificial de la Unión Europea puede servir como un estándar global para los países que buscan regular la IA.