Parlamento Europeu quer novas regras de transparência e risco para uso de IA

0

O Comitê do Mercado Interno e o Comitê de Liberdades Cívicas do Parlamento Europeu adotaram um projeto de mandato de negociação sobre as primeiras regras de Inteligência Artificial com 84 votos a favor, 7 contra e 12 abstenções. Em suas emendas à proposta da Comissão , os deputados visam garantir que os sistemas de IA sejam supervisionados por pessoas, sejam seguros, transparentes, rastreáveis, não discriminatórios e ecologicamente corretos. Eles também querem ter uma definição uniforme para IA projetada para ser tecnologicamente neutra, de modo que possa ser aplicada aos sistemas de IA de hoje e de amanhã. 

Após a votação, o co-relator italiano, Brando Benifei, disse que "estamos prestes a implementar uma legislação histórica que deve resistir ao desafio do tempo. É crucial construir a confiança dos cidadãos no desenvolvimento da IA, definir o caminho europeu para lidar com as mudanças extraordinárias que já estão acontecendo, bem como orientar o debate político sobre IA em nível global. Estamos confiantes de que nosso texto equilibra a proteção dos direitos fundamentais com a necessidade de proporcionar segurança jurídica às empresas e estimular a inovação na Europa". 

Abordagem baseada em risco para IA – Práticas proibidas de IA 

As regras seguem uma abordagem baseada em risco e estabelecem obrigações para provedores e usuários dependendo do nível de risco que a IA pode gerar. Os sistemas de IA com um nível inaceitável de risco para a segurança das pessoas seriam estritamente proibidos, incluindo sistemas que implementam técnicas subliminares ou intencionalmente manipulativas, exploram as vulnerabilidades das pessoas ou são usados para pontuação social (classificando pessoas com base em seu comportamento social, status socioeconômico, características). 

Os deputados alteraram substancialmente a lista para incluir proibições de usos intrusivos e discriminatórios de sistemas de IA, como: 

  • Sistemas de identificação biométrica remota "em tempo real" em espaços de acesso público; 
  • Sistemas de identificação biométrica "pós" à distância, com exceção apenas da aplicação da lei para a persecução de crimes graves e apenas mediante autorização judicial; 
  • Sistemas de categorização biométrica usando características sensíveis (por exemplo, gênero, raça, etnia, status de cidadania, religião, orientação política); 
  • Sistemas de policiamento preditivo (com base em perfis, localização ou comportamento criminoso passado); 
  • Sistemas de reconhecimento de emoções em aplicação da lei, gerenciamento de fronteiras, locais de trabalho e instituições educacionais; e 
  • Raspagem indiscriminada de dados biométricos de mídias sociais ou imagens de CFTV para criar bancos de dados de reconhecimento facial (violando os direitos humanos e o direito à privacidade). 

IA de alto risco 

Os eurodeputados ampliaram a classificação de áreas de alto risco para incluir danos à saúde, segurança, direitos fundamentais ou meio ambiente das pessoas. Eles também adicionaram sistemas de IA para influenciar eleitores em campanhas políticas e em sistemas de recomendação usados por plataformas de mídia social (com mais de 45 milhões de usuários sob a Lei de Serviços Digitais ) à lista de alto risco. 

IA de uso geral – medidas de transparência 

Os eurodeputados incluíam obrigações para fornecedores de modelos de fundação – um desenvolvimento novo e em rápida evolução no campo da IA – que teriam de garantir uma proteção robusta dos direitos fundamentais, saúde e segurança e meio ambiente, democracia e estado de direito. Teriam de avaliar e mitigar os riscos, cumprir os requisitos de conceção, informação e ambientais e registar-se na base de dados da UE. 

Modelos de fundação generativa, como o GPT, teriam que cumprir requisitos adicionais de transparência, como divulgar que o conteúdo foi gerado por IA, projetar o modelo para evitar que ele gere conteúdo ilegal e publicar resumos de dados protegidos por direitos autorais usados para treinamento. 

Apoiar a inovação e proteger os direitos dos cidadãos 

Para impulsionar a inovação da IA, os parlamentares adicionaram isenções a essas regras para atividades de pesquisa e componentes de IA fornecidos sob licenças de código aberto. A nova lei promove sandboxes regulatórias, ou ambientes controlados, estabelecidos por autoridades públicas para testar a IA antes de sua implantação. 

Os eurodeputados querem aumentar o direito dos cidadãos de registrar reclamações sobre sistemas de IA e receber explicações sobre decisões baseadas em sistemas de IA de alto risco que afetam significativamente seus direitos. Os eurodeputados também reformaram o papel do Escritório de IA da UE, que seria encarregado de monitorar como o livro de regras de IA é implementado. 

Próximos passos 

Antes que as negociações com o Conselho sobre a forma final da lei possam começar, este projeto de mandato de negociação precisa ser aprovado por todo o Parlamento, com votação prevista para a sessão de 12 a 15 de junho. 

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.