L’Union européenne (UE) mène la course à la réglementation de l’intelligence artificielle (IA). Plus tôt dans la journée, le Conseil européen et le Parlement européen ont conclu trois jours de négociations en vue de parvenir à un accord intérimaire qui sera le premier accord global au monde sur la réglementation de l’IA.
La secrétaire d’État espagnole à la numérisation et à l’intelligence artificielle, Carme Artigas, a qualifié l’accord de « réalisation historique » dans un communiqué de presse. M. Artigas a déclaré que les règles établissent un « équilibre extrêmement délicat » entre l’encouragement de l’innovation et de l’adoption de l’IA dans l’ensemble de l’UE et la protection des « droits fondamentaux » des citoyens.
Le projet de loi, la loi sur l’intelligence artificielle, a été présenté pour la première fois par la Commission européenne en avril 2021. Le Parlement et les États membres de l’UE voteront pour approuver le projet de loi l’année prochaine, mais la règle n’entrera en vigueur qu’en 2025.
Approche réglementaire de l’IA basée sur les risques
La loi sur l’IA est conçue selon une approche fondée sur les risques, selon laquelle plus le risque posé par un système d’IA est élevé, plus les règles sont strictes. Pour y parvenir, le règlement classera l’IA afin d’identifier celles qui présentent un « risque élevé ».
Les IA considérées comme non menaçantes et à faible risque seront soumises à une « obligation de transparence très légère ». Par exemple, ces systèmes d’IA seront tenus de divulguer que leur contenu est généré par l’IA afin que les utilisateurs puissent prendre des décisions éclairées.
Pour les organismes d’accréditation à risque élevé, la loi ajoutera un certain nombre d’obligations et d’exigences, notamment :
Surveillance humaine : Le projet de loi préconise une approche centrée sur l’humain, mettant l’accent sur des mécanismes de surveillance humaine clairs et efficaces pour les systèmes d’IA à haut risque. Cela signifie qu’il faut faire appel à des humains pour surveiller et superviser activement le fonctionnement des systèmes d’IA. Leur rôle consiste notamment à s’assurer que les systèmes fonctionnent comme prévu, à identifier et à traiter les dangers potentiels ou les conséquences imprévues et, en fin de compte, à assumer la responsabilité de leurs décisions et de leurs actions.
Transparence et explicabilité : Il est essentiel de démystifier le fonctionnement interne des systèmes d’IA à haut risque pour instaurer la confiance et assurer la responsabilité. Les développeurs doivent fournir des informations claires et accessibles sur la façon dont leurs systèmes prennent des décisions. Cela inclut des détails sur l’algorithme sous-jacent, les données d’apprentissage et les biais potentiels qui pourraient affecter la sortie du système.
Gouvernance des données : La loi sur l’intelligence artificielle met l’accent sur les pratiques responsables en matière de données et vise à prévenir la discrimination, les préjugés et les violations de la vie privée. Les développeurs doivent s’assurer que les données utilisées pour former et exploiter les systèmes d’IA à haut risque sont exactes, complètes et représentatives. Le principe de minimisation des données est essentiel pour ne recueillir que les informations nécessaires au fonctionnement du système et pour minimiser le risque d’utilisation abusive ou de destruction. En outre, les individus doivent avoir un droit clair d’accès, de correction et de suppression des données utilisées dans les systèmes d’IA, ce qui leur permet de contrôler leurs informations et de s’assurer qu’elles sont utilisées de manière éthique.
Gestion des risques : l’identification et l’atténuation proactives des risques seront une exigence clé pour l’IA à haut risque. Les développeurs doivent mettre en œuvre un cadre de gestion des risques robuste qui évalue systématiquement le système pour détecter les dommages potentiels, les vulnérabilités et les conséquences imprévues.
Certaines utilisations de l’intelligence artificielle sont interdites
Le règlement interdira totalement l’utilisation de certains systèmes d’IA dont les risques sont considérés comme « inacceptables ». Par exemple, l’utilisation de l’IA de reconnaissance faciale dans les lieux publics sera interdite, sauf pour les forces de l’ordre.
Le règlement interdit également à l’IA de manipuler le comportement humain, d’utiliser des systèmes de notation sociale ou d’exploiter des groupes vulnérables. En outre, la législation interdira également l’utilisation de systèmes de reconnaissance des émotions dans des zones telles que les écoles et les bureaux, ainsi que la capture d’images provenant d’images de surveillance et d’Internet.
Pénalités et réglementations pour attirer l’innovation
La loi sur l’IA imposera également des sanctions aux entreprises qui enfreignent la loi. Par exemple, une violation d’une loi interdisant l’application de l’IA entraînera une amende de 7 % du chiffre d’affaires mondial de l’entreprise, tandis qu’une entreprise qui enfreint ses obligations et exigences se verra infliger une amende de 3 % de son chiffre d’affaires mondial.
Pour promouvoir l’innovation, le règlement permettra de tester des systèmes d’IA innovants dans des conditions réelles avec des garanties appropriées.
Bien que l’Union européenne soit déjà à l’avant-garde dans cette compétition, les États-Unis, le Royaume-Uni et le Japon tentent également d’introduire leur propre législation sur l’IA. La loi sur l’IA de l’Union européenne peut servir de norme mondiale pour les pays qui cherchent à réglementer l’IA.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
L’Union européenne adoptera la première législation au monde sur l’IA qui interdira la reconnaissance faciale dans les lieux publics
L’Union européenne (UE) mène la course à la réglementation de l’intelligence artificielle (IA). Plus tôt dans la journée, le Conseil européen et le Parlement européen ont conclu trois jours de négociations en vue de parvenir à un accord intérimaire qui sera le premier accord global au monde sur la réglementation de l’IA.
La secrétaire d’État espagnole à la numérisation et à l’intelligence artificielle, Carme Artigas, a qualifié l’accord de « réalisation historique » dans un communiqué de presse. M. Artigas a déclaré que les règles établissent un « équilibre extrêmement délicat » entre l’encouragement de l’innovation et de l’adoption de l’IA dans l’ensemble de l’UE et la protection des « droits fondamentaux » des citoyens.
Le projet de loi, la loi sur l’intelligence artificielle, a été présenté pour la première fois par la Commission européenne en avril 2021. Le Parlement et les États membres de l’UE voteront pour approuver le projet de loi l’année prochaine, mais la règle n’entrera en vigueur qu’en 2025.
Approche réglementaire de l’IA basée sur les risques
La loi sur l’IA est conçue selon une approche fondée sur les risques, selon laquelle plus le risque posé par un système d’IA est élevé, plus les règles sont strictes. Pour y parvenir, le règlement classera l’IA afin d’identifier celles qui présentent un « risque élevé ».
Les IA considérées comme non menaçantes et à faible risque seront soumises à une « obligation de transparence très légère ». Par exemple, ces systèmes d’IA seront tenus de divulguer que leur contenu est généré par l’IA afin que les utilisateurs puissent prendre des décisions éclairées.
Pour les organismes d’accréditation à risque élevé, la loi ajoutera un certain nombre d’obligations et d’exigences, notamment :
Surveillance humaine : Le projet de loi préconise une approche centrée sur l’humain, mettant l’accent sur des mécanismes de surveillance humaine clairs et efficaces pour les systèmes d’IA à haut risque. Cela signifie qu’il faut faire appel à des humains pour surveiller et superviser activement le fonctionnement des systèmes d’IA. Leur rôle consiste notamment à s’assurer que les systèmes fonctionnent comme prévu, à identifier et à traiter les dangers potentiels ou les conséquences imprévues et, en fin de compte, à assumer la responsabilité de leurs décisions et de leurs actions.
Transparence et explicabilité : Il est essentiel de démystifier le fonctionnement interne des systèmes d’IA à haut risque pour instaurer la confiance et assurer la responsabilité. Les développeurs doivent fournir des informations claires et accessibles sur la façon dont leurs systèmes prennent des décisions. Cela inclut des détails sur l’algorithme sous-jacent, les données d’apprentissage et les biais potentiels qui pourraient affecter la sortie du système.
Gouvernance des données : La loi sur l’intelligence artificielle met l’accent sur les pratiques responsables en matière de données et vise à prévenir la discrimination, les préjugés et les violations de la vie privée. Les développeurs doivent s’assurer que les données utilisées pour former et exploiter les systèmes d’IA à haut risque sont exactes, complètes et représentatives. Le principe de minimisation des données est essentiel pour ne recueillir que les informations nécessaires au fonctionnement du système et pour minimiser le risque d’utilisation abusive ou de destruction. En outre, les individus doivent avoir un droit clair d’accès, de correction et de suppression des données utilisées dans les systèmes d’IA, ce qui leur permet de contrôler leurs informations et de s’assurer qu’elles sont utilisées de manière éthique.
Gestion des risques : l’identification et l’atténuation proactives des risques seront une exigence clé pour l’IA à haut risque. Les développeurs doivent mettre en œuvre un cadre de gestion des risques robuste qui évalue systématiquement le système pour détecter les dommages potentiels, les vulnérabilités et les conséquences imprévues.
Certaines utilisations de l’intelligence artificielle sont interdites
Le règlement interdira totalement l’utilisation de certains systèmes d’IA dont les risques sont considérés comme « inacceptables ». Par exemple, l’utilisation de l’IA de reconnaissance faciale dans les lieux publics sera interdite, sauf pour les forces de l’ordre.
Le règlement interdit également à l’IA de manipuler le comportement humain, d’utiliser des systèmes de notation sociale ou d’exploiter des groupes vulnérables. En outre, la législation interdira également l’utilisation de systèmes de reconnaissance des émotions dans des zones telles que les écoles et les bureaux, ainsi que la capture d’images provenant d’images de surveillance et d’Internet.
Pénalités et réglementations pour attirer l’innovation
La loi sur l’IA imposera également des sanctions aux entreprises qui enfreignent la loi. Par exemple, une violation d’une loi interdisant l’application de l’IA entraînera une amende de 7 % du chiffre d’affaires mondial de l’entreprise, tandis qu’une entreprise qui enfreint ses obligations et exigences se verra infliger une amende de 3 % de son chiffre d’affaires mondial.
Pour promouvoir l’innovation, le règlement permettra de tester des systèmes d’IA innovants dans des conditions réelles avec des garanties appropriées.
Bien que l’Union européenne soit déjà à l’avant-garde dans cette compétition, les États-Unis, le Royaume-Uni et le Japon tentent également d’introduire leur propre législation sur l’IA. La loi sur l’IA de l’Union européenne peut servir de norme mondiale pour les pays qui cherchent à réglementer l’IA.