Cada vez mais estamos sujeitos às decisões que envolvem o uso de sistemas de inteligência artificial: das simples automações de procedimentos que acontecem nos bastidores, aos algorítimos que são capazes de garantir ou impedir o acesso à um exame médico ou ao crédito; dos avatares explicitamente identificados (tais como a Lu do Magazine Luiza e a Bia do Bradesco ou os inúmeros chatbots com os quais interagimos por WhatsApp ou sites das empresas) às assustadoras atuações de sistemas agindo como pessoas como é o caso do Google Assistente no agendamento por telefone de uma consulta.
O caldo das discussões envolvendo o uso da inteligência artificial (IA) e seus próximos desdobramentos foi significativamente engrossado nos últimos dias. A proposta de regulamentação da Comissão Europeia sobre o uso da inteligência artificial, ocorrida no último dia 21/4, reforçou o posicionamento da Comissão Norte-americana do Comércio (US Federal Trade Commission – FTC), do dia 19/4. Para garantir a transparência, justiça e equidade, segundo o regulamento proposto, serão premissas para as empresas e os órgãos públicos que usam da IA em suas atividades e seus produtos: (i) a proibição do uso de tecnologias de IA que ameacem os direitos (principalmente para evitar a discriminação) e a segurança das pessoas, no acesso da IA à saúde, educação, imigração e tantos outros, antes, durante e depois de seu lançamento no mercado; (ii) a obrigação de informar quando ferramentas que usam de IA se passam por humanos; (iii) o fornecimento de subsídios financeiros e tecnológicos para aqueles que atuam com a inovação na área para garantir o uso para o bem.
No Brasil, o tema também tem sido alvo de regulamentação proposta. O Projeto de Lei 21/20 pretende criar o marco legal do desenvolvimento e uso da Inteligência Artificial (IA) pelo Poder Público, por empresas, entidades diversas e pessoas físicas, em tramitação na Câmara dos Deputados, estabelece princípios, direitos, deveres e instrumentos de governança para a IA. Como forma de garantir as premissas internacionais da IA, estão a imposição aos Agentes de IA (quem desenvolve, implanta, ou opera um sistema de IA) de deveres, como responder, legalmente, pelas decisões tomadas por IA e assegurar que os dados utilizados respeitem a legislação, em especial a Lei Geral de Proteção de Dados (LGPD) e a apresentação de relatório de impacto de IA, contendo a descrição da tecnologia, incluindo medidas de gerenciamento e contenção de riscos, que poderá ser solicitada pelo Poder Público, que também poderá recomendar a adoção de padrões e melhorias na tecnologia.
A necessidade de garantir o alinhamento do uso de sistemas de IA com essas novas premissas, sejam eles próprios ou contratados de terceiros, bate na porta das empresas e instituições, que terão, à exemplo da recente LGPD, grande esforço e responsabilidade para não gerar custos e prejuízos não previstos.
Márcio Chaves, sócio do escritório Almeida Advogados; Especialista em Direito Digital e Propriedade Intelectual; Head da operação responsável por projetos de compliance digital incluindo regras de proteção de dados, em especial da Lei Geral de Proteção de Dados – LGPD; Co-autor de 4 livros: "WIPO IP Research Papers" pela World Intellectual Property Organization (WIPO) Academy, 2010, "Direito Digital Aplicado 2.0" (RT, 2016), "Direito Digital Aplicado 3.0 (RT, 2018) e "Direito Digital Aplicado 4.0" (RT, 2020).