Marco legal da IA: caminhos para inovação e proteção de direitos no Brasil

0

A aprovação do Marco Legal da Inteligência Artificial (IA) pelo Senado Federal, em dezembro de 2024, marca um ponto decisivo na trajetória do Brasil rumo à regulamentação de tecnologias cada vez mais onipresentes em nossa vida cotidiana. O texto, ainda sujeito à análise da Câmara dos Deputados, insere o país em um contexto internacional de busca por normas que unem inovação, proteção aos direitos fundamentais, transparência e incentivo ao crescimento econômico.

Inspirada em modelos como o regulamento europeu de IA, a proposta brasileira procura equilibrar o fomento ao desenvolvimento tecnológico com a necessidade de resguardar valores essenciais, como a privacidade, a igualdade de oportunidades e a garantia da remuneração justa aos criadores de conteúdo intelectual.

A proposta de regulamentação da IA no Brasil, contida no Projeto de Lei nº 2.338/2023, segue em linhas gerais o modelo europeu (EU AI Act), embora apresente diferenças significativas. Ambos adotam uma abordagem baseada em riscos, classificando sistemas de IA conforme seu potencial de dano e estabelecendo obrigações proporcionais a essa classificação. Enquanto o EU AI Act cria quatro níveis de risco (inaceitável, alto, limitado e mínimo), o PL brasileiro restringe-se a duas categorias mais sensíveis (excessivo e alto).

Governança, classificação de riscos e salvaguarda dos direitos fundamentais

A partir desse marco, o debate público ganha densidade: não se trata apenas de assegurar a presença da IA em diversos setores, mas de estabelecer critérios claros de responsabilidade, limites éticos e mecanismos de fiscalização adequados.

Ao longo dos últimos anos, a IA migrou do campo das possibilidades teóricas para um cenário prático: hoje, sistemas inteligentes estão presentes na educação, nas políticas públicas, no mercado de trabalho, na segurança, no setor cultural e no consumo de bens e serviços. Diante disso, a ausência de regras poderia resultar em efeitos nocivos, como discriminação algorítmica, perda da diversidade cultural, exploração não remunerada de obras protegidas por direitos autorais, além de riscos à privacidade e à própria segurança do cidadão.

Um dos eixos centrais da proposta brasileira é a classificação dos sistemas de IA em dois diferentes níveis de risco. Essa abordagem escalonada visa aplicar controles mais rigorosos a tecnologias consideradas de "alto risco", como sistemas que realizam diagnósticos médicos, veículos autônomos ou algoritmos responsáveis pela seleção de estudantes e candidatos a vagas de emprego. 

Nessas situações, a exigência de avaliações de impacto algorítmico aparece como ferramenta fundamental, permitindo que se verifiquem previamente os potenciais efeitos negativos, vieses e danos sociais que tais sistemas podem gerar. Ao mesmo tempo, aplicações de "risco excessivo" – aquelas cujos perigos extrapolam o campo da inovação aceitável, como armas autônomas ou mecanismos que explorem vulnerabilidades psicológicas – teriam seu uso simplesmente proibido.

O esforço de categorização e controle reforça a importância de uma governança eficiente, baseada em um arcabouço regulatório coordenado por uma instância capaz de harmonizar diretrizes e fiscalizações. No caso brasileiro, a Autoridade Nacional de Proteção de Dados (ANPD) foi escolhida para coordenar o Sistema Nacional de Regulação e Governança de Inteligência Artificial.

Esse sistema, envolvendo diversos órgãos estatais e conselhos consultivos, pretende não apenas vigiar e punir infrações, mas também orientar o mercado, impulsionar boas práticas, fomentar o diálogo com a sociedade e corrigir rumos quando necessário. Com isso, busca-se evitar que a lei seja letra morta: a intenção é criar um ambiente de confiança mútua, onde a inovação não ocorra em detrimento dos direitos fundamentais.

Os desafios do marco legal da IA no Brasil

Outro ponto de relevância na proposta é a atenção ao impacto da IA no âmbito da educação. Se, por um lado, o uso de tecnologias pode otimizar a produção de material didático, aprimorar estratégias de ensino e apoiar atividades de pesquisa, por outro, é imprescindível não esvaziar a função dos docentes nem substituir o protagonismo humano no processo formativo.

O professor continua sendo figura central, capaz de orientar os alunos no uso crítico da IA, evitando que ferramentas automatizadas restrinjam o desenvolvimento da criatividade e do pensamento autônomo. Além disso, a regulamentação preocupa-se em garantir que os sistemas utilizados no ambiente escolar sejam transparentes e justos, prevenindo situações em que algoritmos prejudiquem grupos vulneráveis ou perpetuem desigualdades já existentes.

No campo da cultura e da produção intelectual, a questão dos direitos autorais assume importância estratégica. O texto do marco regulatório propõe mecanismos para assegurar que criadores de conteúdo – artistas, escritores, pesquisadores, jornalistas, educadores – sejam devidamente remunerados pelo uso de suas obras no treinamento e desenvolvimento de sistemas de IA.

Ao reconhecer que as ferramentas automatizadas dependem de dados e criações pré-existentes para funcionar, a lei tenta corrigir um desequilíbrio que poderia levar à exploração gratuita do material humano. Nesse sentido, há espaço para negociações entre empresas e titulares de direitos, assim como para exceções em prol da pesquisa, da preservação cultural e de finalidades educacionais, quando não houver finalidade comercial.

A transparência e a explicabilidade dos sistemas figuram como elementos-chave. A sociedade exige compreender a lógica por trás das decisões automatizadas, sobretudo quando tais decisões impactam diretamente a vida das pessoas. Ao prever que cidadãos tenham o direito de questionar resultados e solicitar revisão humana, o marco legal afirma a primazia dos direitos fundamentais sobre qualquer ferramenta tecnológica. Essa prerrogativa reduz riscos de discriminação, assegura accountability e incentiva empresas a investir em modelos mais justos e transparentes, cientes de que a opacidade algorítmica não é mais aceitável.

Apesar dos avanços, o texto ainda precisa passar pelo crivo da Câmara dos Deputados, o que pode resultar em ajustes e refinamentos. Alguns pontos demandam discussão mais aprofundada, tais como a classificação de redes sociais como sistemas de alto risco, a obrigação de avaliações prévias antes da disponibilização de modelos no mercado e a delimitação mais clara das responsabilidades sobre conteúdos gerados por IA.

Há, portanto, espaço para aprimoramento, sobretudo no que diz respeito a temas que não foram contemplados em profundidade na proposta aprovada pelo Senado ou que demandam maior convergência entre diferentes partes interessadas.

É importante salientar que a aprovação deste marco não encerra o debate sobre a IA, mas inaugura uma nova etapa. À medida que as tecnologias evoluem, torna-se imprescindível revisitar a legislação, adaptá-la e ampliá-la para acompanhar inovações que hoje mal se desenham no horizonte.

A regulação da IA é um processo contínuo, exigindo diálogo permanente entre governos, setor privado, academia, sociedade civil e criadores de conteúdo. Ao mesmo tempo, deve-se manter o olhar atento às tendências internacionais, já que a IA não respeita fronteiras e, cada vez mais, a construção de consensos globais surge como caminho viável para enfrentar desafios comuns.

Em resumo, o Marco Legal da Inteligência Artificial no Brasil sinaliza uma tentativa de conciliar desenvolvimento tecnológico com um conjunto robusto de salvaguardas. Reconhecendo tanto o potencial quanto os riscos da IA, a proposta aprovada no Senado é mais do que um texto legal: é uma tomada de posição política e social, ancorada no reconhecimento de que a inovação não deve ser guiada apenas pelo lucro e pela eficiência, mas também pelo respeito à dignidade humana, à diversidade cultural e à equidade de oportunidades.

Se aprovada e implementada de forma coerente, essa iniciativa poderá contribuir para que o Brasil se consolide como um país capaz de liderar debates sobre o futuro da tecnologia, garantindo que o bem-estar e a criatividade humana permaneçam no centro da transformação digital.

Caio Laurino, fundador e CIO da Maitha.

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.