A União Europeia vai aprovar a primeira legislação de IA do mundo que proíbe o reconhecimento facial em locais públicos

A União Europeia (UE) lidera a corrida pela regulação da inteligência artificial (IA). Hoje cedo, o Conselho Europeu e o Parlamento Europeu concluíram três dias de negociações para chegar a um acordo provisório que será o primeiro acordo abrangente do mundo sobre a regulamentação da IA.

A secretária de Estado para a digitalização e inteligência artificial da Espanha, Carme Artigas, classificou o acordo como uma “conquista histórica” em um comunicado à imprensa. Artigas disse que as regras estabelecem um “equilíbrio extremamente delicado” entre incentivar a inovação e adoção de IA segura em toda a UE e proteger os “direitos fundamentais” dos cidadãos.

O projeto de legislação, a Lei da Inteligência Artificial, foi apresentado pela Comissão Europeia em abril de 2021. O Parlamento e os Estados-membros da UE votarão para aprovar o projeto de lei no próximo ano, mas a regra só entrará em vigor em 2025.

Abordagem regulamentar da IA baseada no risco

A Lei da IA foi concebida com uma abordagem baseada no risco, em que quanto maior o risco colocado por um sistema de IA, mais rigorosas são as regras. Para isso, o regulamento classificará a IA para identificar aqueles que representam um “alto risco”.

As IA consideradas não ameaçadoras e de baixo risco estarão sujeitas a uma «obrigação de transparência muito leve». Por exemplo, esses sistemas de IA serão obrigados a divulgar que o seu conteúdo é gerado por IA para que os utilizadores possam tomar decisões informadas.

Para os organismos de acreditação de alto risco, a legislação acrescentará uma série de obrigações e requisitos, incluindo:

Supervisão humana: O projeto de lei pede uma abordagem centrada no ser humano, enfatizando mecanismos de supervisão humana claros e eficazes para sistemas de IA de alto risco. Isso significa envolver os seres humanos para monitorar e supervisionar ativamente a operação dos sistemas de IA. As suas funções incluem assegurar que os sistemas estão a funcionar como previsto, identificar e abordar potenciais perigos ou consequências não intencionais e, em última análise, assumir a responsabilidade pelas suas decisões e ações.

Transparência e explicabilidade: Desmistificar o funcionamento interno dos sistemas de IA de alto risco é fundamental para criar confiança e garantir a responsabilização. Os desenvolvedores devem fornecer informações claras e acessíveis sobre como seus sistemas tomam decisões. Isso inclui detalhes sobre o algoritmo subjacente, dados de treinamento e possíveis vieses que podem afetar a saída do sistema.

Governança de dados: A Lei de Inteligência Artificial enfatiza práticas responsáveis de dados e visa prevenir discriminação, preconceito e violações de privacidade. Os desenvolvedores devem garantir que os dados usados para treinar e operar sistemas de IA de alto risco sejam precisos, completos e representativos. O princípio da minimização de dados é fundamental para recolher apenas as informações necessárias para o funcionamento do sistema e minimizar o risco de uso indevido ou destruição. Além disso, os indivíduos devem ter um direito claro de aceder, corrigir e eliminar dados utilizados em sistemas de IA, permitindo-lhes controlar as suas informações e garantir que são utilizadas de forma ética.

Gestão de riscos: Identificar e mitigar riscos de forma proativa será um requisito fundamental para a IA de alto risco. Os desenvolvedores devem implementar uma estrutura robusta de gerenciamento de riscos que avalie sistematicamente o sistema quanto a danos potenciais, vulnerabilidades e consequências não intencionais.

Certos usos de inteligência artificial são proibidos

O regulamento proibirá completamente o uso de certos sistemas de IA cujos riscos são considerados “inaceitáveis”. Por exemplo, o uso de IA de reconhecimento facial em áreas públicas será proibido, exceto para uso policial.

O regulamento também proíbe a IA de manipular o comportamento humano, usar sistemas de pontuação social ou explorar grupos vulneráveis. Além disso, a legislação também proibirá o uso de sistemas de reconhecimento de emoções em áreas como escolas e escritórios, bem como a captura de imagens de imagens de vigilância e da internet.

Sanções e regulamentos para atrair inovação

A Lei de IA também imporá penalidades às empresas que violarem a lei. Por exemplo, uma violação de uma lei que proíbe a aplicação de IA resultará em uma multa de 7% da receita global da empresa, enquanto uma empresa que violar obrigações e requisitos será multada em 3% de sua receita global.

Para promover a inovação, o regulamento permitirá que sistemas inovadores de IA sejam testados em condições reais, com salvaguardas adequadas.

Embora a União Europeia já esteja a liderar esta competição, os Estados Unidos, o Reino Unido e o Japão também estão a tentar introduzir a sua própria legislação em matéria de IA. A Lei de IA da União Europeia pode servir como um padrão global para os países que procuram regulamentar a IA.

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
0/400
Sem comentários
  • Marcar

Negocie criptomoedas a qualquer hora e em qualquer lugar
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)