Nesse mês a União Europeia deu mais um importante passo no que diz respeito a regulamentação da inteligência artificial, os negociadores do Parlamento e do Conselho chegaram a um acordo provisório sobre o novo projeto de Lei da Inteligência Artificial. Com isso, o continente passa a ser o primeiro a ter uma série leis que se dirijam diretamente a essa tecnologia.
O regulamento teve como objetivo proteger os direitos fundamentais, a democracia, o estado de direito e a sustentabilidade ambiental contra os riscos apresentados pela IA de alto risco, mantendo, também, o incentivo a inovação.
Visando a proteção dos cidadãos e reconhecendo ameaças que determinadas aplicações da IA poderiam gerar, os colegisladores concordaram em proibir:
- sistemas de categorização biométrica que utilizam características sensíveis (por exemplo, crenças políticas, religiosas, filosóficas, orientação sexual, raça);
- extração não direcionada de imagens faciais da Internet ou imagens de CCTV para criar bancos de dados de reconhecimento facial;
- reconhecimento de emoções no local de trabalho e nas instituições de ensino;
- pontuação social baseada no comportamento social ou características pessoais;
- Sistemas de IA que manipulam o comportamento humano para contornar o seu livre arbítrio;
- A IA que seja utilizada para explorar as vulnerabilidades das pessoas (devido à sua idade, deficiência, situação social ou económica).
Contudo, no que tange as questões de biometria, os legisladores concordam numa série de salvaguardas e exceções restritas para suas aplicações. A tecnologia seria permitida nos casos de:
- buscas direcionadas de vítimas (sequestro, tráfico, exploração sexual),
- prevenção de uma ameaça terrorista específica e atual, ou
- a localização ou identificação de uma pessoa suspeita de ter cometido um dos crimes específicos mencionados no regulamento (por exemplo, terrorismo, tráfico, exploração sexual, homicídio, rapto, violação, assalto à mão armada, participação numa organização criminosa, crime ambiental).
Outro ponto, foi que sistemas de IA que sejam classificados como de alto risco, ou seja, que possa gerar danos a saúde, a segurança, aos direitos fundamentais, ao ambiente, a democracia e ao Estado de direito, deverão responder a certas obrigações. O parlamento europeu conseguiu incluir, entre outros requisitos, uma avaliação obrigatória do impacto nos direitos fundamentais, aplicável também aos setores bancário e segurador. Os sistemas de IA utilizados para influenciar o resultado das eleições e o comportamento dos eleitores também são classificados como de alto risco. Assim, todo cidadão terá o direito de apresentar reclamações sobre sistemas de IA e receber explicações sobre decisões baseadas em sistemas de IA de alto risco que afetem os seus direitos.
Além disso, o projeto visa apoiar a inovação nas PME's, para que não fiquem pressionadas pelos gigantes da indústria, e assim possam realizar devidamente seus projetos. Isso ocorrerá devido as chamadas sandboxes regulamentares e testes no mundo real, estabelecidos pelas autoridades nacionais para desenvolver e treinar IA inovadora antes da colocação no mercado.
O NOVO MARCO LEGAL PODE SERVIR COMO EXEMPLO PARA DEMAIS JURISDIÇÕES?
Em entrevista exclusiva a TI Inside, Walter Calza Neto, diretor de proteção de dados do Corinthians comenta a respeito do novo marco, de que maneira ele afetará ao Brasil, e se ele servirá como um modelo para as demais nações. Confira abaixo: