A União Europeia (UE) lidera a corrida pela regulação da inteligência artificial (IA). Hoje cedo, o Conselho Europeu e o Parlamento Europeu concluíram três dias de negociações para chegar a um acordo provisório que será o primeiro acordo abrangente do mundo sobre a regulamentação da IA.
A secretária de Estado para a digitalização e inteligência artificial da Espanha, Carme Artigas, classificou o acordo como uma “conquista histórica” em um comunicado à imprensa. Artigas disse que as regras estabelecem um “equilíbrio extremamente delicado” entre incentivar a inovação e adoção de IA segura em toda a UE e proteger os “direitos fundamentais” dos cidadãos.
O projeto de legislação, a Lei da Inteligência Artificial, foi apresentado pela Comissão Europeia em abril de 2021. O Parlamento e os Estados-membros da UE votarão para aprovar o projeto de lei no próximo ano, mas a regra só entrará em vigor em 2025.
Abordagem regulamentar da IA baseada no risco
A Lei da IA foi concebida com uma abordagem baseada no risco, em que quanto maior o risco colocado por um sistema de IA, mais rigorosas são as regras. Para isso, o regulamento classificará a IA para identificar aqueles que representam um “alto risco”.
As IA consideradas não ameaçadoras e de baixo risco estarão sujeitas a uma «obrigação de transparência muito leve». Por exemplo, esses sistemas de IA serão obrigados a divulgar que o seu conteúdo é gerado por IA para que os utilizadores possam tomar decisões informadas.
Para os organismos de acreditação de alto risco, a legislação acrescentará uma série de obrigações e requisitos, incluindo:
Supervisão humana: O projeto de lei pede uma abordagem centrada no ser humano, enfatizando mecanismos de supervisão humana claros e eficazes para sistemas de IA de alto risco. Isso significa envolver os seres humanos para monitorar e supervisionar ativamente a operação dos sistemas de IA. As suas funções incluem assegurar que os sistemas estão a funcionar como previsto, identificar e abordar potenciais perigos ou consequências não intencionais e, em última análise, assumir a responsabilidade pelas suas decisões e ações.
Transparência e explicabilidade: Desmistificar o funcionamento interno dos sistemas de IA de alto risco é fundamental para criar confiança e garantir a responsabilização. Os desenvolvedores devem fornecer informações claras e acessíveis sobre como seus sistemas tomam decisões. Isso inclui detalhes sobre o algoritmo subjacente, dados de treinamento e possíveis vieses que podem afetar a saída do sistema.
Governança de dados: A Lei de Inteligência Artificial enfatiza práticas responsáveis de dados e visa prevenir discriminação, preconceito e violações de privacidade. Os desenvolvedores devem garantir que os dados usados para treinar e operar sistemas de IA de alto risco sejam precisos, completos e representativos. O princípio da minimização de dados é fundamental para recolher apenas as informações necessárias para o funcionamento do sistema e minimizar o risco de uso indevido ou destruição. Além disso, os indivíduos devem ter um direito claro de aceder, corrigir e eliminar dados utilizados em sistemas de IA, permitindo-lhes controlar as suas informações e garantir que são utilizadas de forma ética.
Gestão de riscos: Identificar e mitigar riscos de forma proativa será um requisito fundamental para a IA de alto risco. Os desenvolvedores devem implementar uma estrutura robusta de gerenciamento de riscos que avalie sistematicamente o sistema quanto a danos potenciais, vulnerabilidades e consequências não intencionais.
Certos usos de inteligência artificial são proibidos
O regulamento proibirá completamente o uso de certos sistemas de IA cujos riscos são considerados “inaceitáveis”. Por exemplo, o uso de IA de reconhecimento facial em áreas públicas será proibido, exceto para uso policial.
O regulamento também proíbe a IA de manipular o comportamento humano, usar sistemas de pontuação social ou explorar grupos vulneráveis. Além disso, a legislação também proibirá o uso de sistemas de reconhecimento de emoções em áreas como escolas e escritórios, bem como a captura de imagens de imagens de vigilância e da internet.
Sanções e regulamentos para atrair inovação
A Lei de IA também imporá penalidades às empresas que violarem a lei. Por exemplo, uma violação de uma lei que proíbe a aplicação de IA resultará em uma multa de 7% da receita global da empresa, enquanto uma empresa que violar obrigações e requisitos será multada em 3% de sua receita global.
Para promover a inovação, o regulamento permitirá que sistemas inovadores de IA sejam testados em condições reais, com salvaguardas adequadas.
Embora a União Europeia já esteja a liderar esta competição, os Estados Unidos, o Reino Unido e o Japão também estão a tentar introduzir a sua própria legislação em matéria de IA. A Lei de IA da União Europeia pode servir como um padrão global para os países que procuram regulamentar a IA.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
A União Europeia vai aprovar a primeira legislação de IA do mundo que proíbe o reconhecimento facial em locais públicos
A União Europeia (UE) lidera a corrida pela regulação da inteligência artificial (IA). Hoje cedo, o Conselho Europeu e o Parlamento Europeu concluíram três dias de negociações para chegar a um acordo provisório que será o primeiro acordo abrangente do mundo sobre a regulamentação da IA.
A secretária de Estado para a digitalização e inteligência artificial da Espanha, Carme Artigas, classificou o acordo como uma “conquista histórica” em um comunicado à imprensa. Artigas disse que as regras estabelecem um “equilíbrio extremamente delicado” entre incentivar a inovação e adoção de IA segura em toda a UE e proteger os “direitos fundamentais” dos cidadãos.
O projeto de legislação, a Lei da Inteligência Artificial, foi apresentado pela Comissão Europeia em abril de 2021. O Parlamento e os Estados-membros da UE votarão para aprovar o projeto de lei no próximo ano, mas a regra só entrará em vigor em 2025.
Abordagem regulamentar da IA baseada no risco
A Lei da IA foi concebida com uma abordagem baseada no risco, em que quanto maior o risco colocado por um sistema de IA, mais rigorosas são as regras. Para isso, o regulamento classificará a IA para identificar aqueles que representam um “alto risco”.
As IA consideradas não ameaçadoras e de baixo risco estarão sujeitas a uma «obrigação de transparência muito leve». Por exemplo, esses sistemas de IA serão obrigados a divulgar que o seu conteúdo é gerado por IA para que os utilizadores possam tomar decisões informadas.
Para os organismos de acreditação de alto risco, a legislação acrescentará uma série de obrigações e requisitos, incluindo:
Supervisão humana: O projeto de lei pede uma abordagem centrada no ser humano, enfatizando mecanismos de supervisão humana claros e eficazes para sistemas de IA de alto risco. Isso significa envolver os seres humanos para monitorar e supervisionar ativamente a operação dos sistemas de IA. As suas funções incluem assegurar que os sistemas estão a funcionar como previsto, identificar e abordar potenciais perigos ou consequências não intencionais e, em última análise, assumir a responsabilidade pelas suas decisões e ações.
Transparência e explicabilidade: Desmistificar o funcionamento interno dos sistemas de IA de alto risco é fundamental para criar confiança e garantir a responsabilização. Os desenvolvedores devem fornecer informações claras e acessíveis sobre como seus sistemas tomam decisões. Isso inclui detalhes sobre o algoritmo subjacente, dados de treinamento e possíveis vieses que podem afetar a saída do sistema.
Governança de dados: A Lei de Inteligência Artificial enfatiza práticas responsáveis de dados e visa prevenir discriminação, preconceito e violações de privacidade. Os desenvolvedores devem garantir que os dados usados para treinar e operar sistemas de IA de alto risco sejam precisos, completos e representativos. O princípio da minimização de dados é fundamental para recolher apenas as informações necessárias para o funcionamento do sistema e minimizar o risco de uso indevido ou destruição. Além disso, os indivíduos devem ter um direito claro de aceder, corrigir e eliminar dados utilizados em sistemas de IA, permitindo-lhes controlar as suas informações e garantir que são utilizadas de forma ética.
Gestão de riscos: Identificar e mitigar riscos de forma proativa será um requisito fundamental para a IA de alto risco. Os desenvolvedores devem implementar uma estrutura robusta de gerenciamento de riscos que avalie sistematicamente o sistema quanto a danos potenciais, vulnerabilidades e consequências não intencionais.
Certos usos de inteligência artificial são proibidos
O regulamento proibirá completamente o uso de certos sistemas de IA cujos riscos são considerados “inaceitáveis”. Por exemplo, o uso de IA de reconhecimento facial em áreas públicas será proibido, exceto para uso policial.
O regulamento também proíbe a IA de manipular o comportamento humano, usar sistemas de pontuação social ou explorar grupos vulneráveis. Além disso, a legislação também proibirá o uso de sistemas de reconhecimento de emoções em áreas como escolas e escritórios, bem como a captura de imagens de imagens de vigilância e da internet.
Sanções e regulamentos para atrair inovação
A Lei de IA também imporá penalidades às empresas que violarem a lei. Por exemplo, uma violação de uma lei que proíbe a aplicação de IA resultará em uma multa de 7% da receita global da empresa, enquanto uma empresa que violar obrigações e requisitos será multada em 3% de sua receita global.
Para promover a inovação, o regulamento permitirá que sistemas inovadores de IA sejam testados em condições reais, com salvaguardas adequadas.
Embora a União Europeia já esteja a liderar esta competição, os Estados Unidos, o Reino Unido e o Japão também estão a tentar introduzir a sua própria legislação em matéria de IA. A Lei de IA da União Europeia pode servir como um padrão global para os países que procuram regulamentar a IA.