A aprovação do Marco Legal da Inteligência Artificial (IA) pelo Senado Federal, em dezembro de 2024, marca um ponto decisivo na trajetória do Brasil rumo à regulamentação de tecnologias cada vez mais onipresentes em nossa vida cotidiana. O texto, ainda sujeito à análise da Câmara dos Deputados, insere o país em um contexto internacional de busca por normas que unem inovação, proteção aos direitos fundamentais, transparência e incentivo ao crescimento econômico.
Inspirada em modelos como o regulamento europeu de IA, a proposta brasileira procura equilibrar o fomento ao desenvolvimento tecnológico com a necessidade de resguardar valores essenciais, como a privacidade, a igualdade de oportunidades e a garantia da remuneração justa aos criadores de conteúdo intelectual.
A proposta de regulamentação da IA no Brasil, contida no Projeto de Lei nº 2.338/2023, segue em linhas gerais o modelo europeu (EU AI Act), embora apresente diferenças significativas. Ambos adotam uma abordagem baseada em riscos, classificando sistemas de IA conforme seu potencial de dano e estabelecendo obrigações proporcionais a essa classificação. Enquanto o EU AI Act cria quatro níveis de risco (inaceitável, alto, limitado e mínimo), o PL brasileiro restringe-se a duas categorias mais sensíveis (excessivo e alto).
Governança, classificação de riscos e salvaguarda dos direitos fundamentais
A partir desse marco, o debate público ganha densidade: não se trata apenas de assegurar a presença da IA em diversos setores, mas de estabelecer critérios claros de responsabilidade, limites éticos e mecanismos de fiscalização adequados.
Ao longo dos últimos anos, a IA migrou do campo das possibilidades teóricas para um cenário prático: hoje, sistemas inteligentes estão presentes na educação, nas políticas públicas, no mercado de trabalho, na segurança, no setor cultural e no consumo de bens e serviços. Diante disso, a ausência de regras poderia resultar em efeitos nocivos, como discriminação algorítmica, perda da diversidade cultural, exploração não remunerada de obras protegidas por direitos autorais, além de riscos à privacidade e à própria segurança do cidadão.
Um dos eixos centrais da proposta brasileira é a classificação dos sistemas de IA em dois diferentes níveis de risco. Essa abordagem escalonada visa aplicar controles mais rigorosos a tecnologias consideradas de "alto risco", como sistemas que realizam diagnósticos médicos, veículos autônomos ou algoritmos responsáveis pela seleção de estudantes e candidatos a vagas de emprego.
Nessas situações, a exigência de avaliações de impacto algorítmico aparece como ferramenta fundamental, permitindo que se verifiquem previamente os potenciais efeitos negativos, vieses e danos sociais que tais sistemas podem gerar. Ao mesmo tempo, aplicações de "risco excessivo" – aquelas cujos perigos extrapolam o campo da inovação aceitável, como armas autônomas ou mecanismos que explorem vulnerabilidades psicológicas – teriam seu uso simplesmente proibido.
O esforço de categorização e controle reforça a importância de uma governança eficiente, baseada em um arcabouço regulatório coordenado por uma instância capaz de harmonizar diretrizes e fiscalizações. No caso brasileiro, a Autoridade Nacional de Proteção de Dados (ANPD) foi escolhida para coordenar o Sistema Nacional de Regulação e Governança de Inteligência Artificial.
Esse sistema, envolvendo diversos órgãos estatais e conselhos consultivos, pretende não apenas vigiar e punir infrações, mas também orientar o mercado, impulsionar boas práticas, fomentar o diálogo com a sociedade e corrigir rumos quando necessário. Com isso, busca-se evitar que a lei seja letra morta: a intenção é criar um ambiente de confiança mútua, onde a inovação não ocorra em detrimento dos direitos fundamentais.
Os desafios do marco legal da IA no Brasil
Outro ponto de relevância na proposta é a atenção ao impacto da IA no âmbito da educação. Se, por um lado, o uso de tecnologias pode otimizar a produção de material didático, aprimorar estratégias de ensino e apoiar atividades de pesquisa, por outro, é imprescindível não esvaziar a função dos docentes nem substituir o protagonismo humano no processo formativo.
O professor continua sendo figura central, capaz de orientar os alunos no uso crítico da IA, evitando que ferramentas automatizadas restrinjam o desenvolvimento da criatividade e do pensamento autônomo. Além disso, a regulamentação preocupa-se em garantir que os sistemas utilizados no ambiente escolar sejam transparentes e justos, prevenindo situações em que algoritmos prejudiquem grupos vulneráveis ou perpetuem desigualdades já existentes.
No campo da cultura e da produção intelectual, a questão dos direitos autorais assume importância estratégica. O texto do marco regulatório propõe mecanismos para assegurar que criadores de conteúdo – artistas, escritores, pesquisadores, jornalistas, educadores – sejam devidamente remunerados pelo uso de suas obras no treinamento e desenvolvimento de sistemas de IA.
Ao reconhecer que as ferramentas automatizadas dependem de dados e criações pré-existentes para funcionar, a lei tenta corrigir um desequilíbrio que poderia levar à exploração gratuita do material humano. Nesse sentido, há espaço para negociações entre empresas e titulares de direitos, assim como para exceções em prol da pesquisa, da preservação cultural e de finalidades educacionais, quando não houver finalidade comercial.
A transparência e a explicabilidade dos sistemas figuram como elementos-chave. A sociedade exige compreender a lógica por trás das decisões automatizadas, sobretudo quando tais decisões impactam diretamente a vida das pessoas. Ao prever que cidadãos tenham o direito de questionar resultados e solicitar revisão humana, o marco legal afirma a primazia dos direitos fundamentais sobre qualquer ferramenta tecnológica. Essa prerrogativa reduz riscos de discriminação, assegura accountability e incentiva empresas a investir em modelos mais justos e transparentes, cientes de que a opacidade algorítmica não é mais aceitável.
Apesar dos avanços, o texto ainda precisa passar pelo crivo da Câmara dos Deputados, o que pode resultar em ajustes e refinamentos. Alguns pontos demandam discussão mais aprofundada, tais como a classificação de redes sociais como sistemas de alto risco, a obrigação de avaliações prévias antes da disponibilização de modelos no mercado e a delimitação mais clara das responsabilidades sobre conteúdos gerados por IA.
Há, portanto, espaço para aprimoramento, sobretudo no que diz respeito a temas que não foram contemplados em profundidade na proposta aprovada pelo Senado ou que demandam maior convergência entre diferentes partes interessadas.
É importante salientar que a aprovação deste marco não encerra o debate sobre a IA, mas inaugura uma nova etapa. À medida que as tecnologias evoluem, torna-se imprescindível revisitar a legislação, adaptá-la e ampliá-la para acompanhar inovações que hoje mal se desenham no horizonte.
A regulação da IA é um processo contínuo, exigindo diálogo permanente entre governos, setor privado, academia, sociedade civil e criadores de conteúdo. Ao mesmo tempo, deve-se manter o olhar atento às tendências internacionais, já que a IA não respeita fronteiras e, cada vez mais, a construção de consensos globais surge como caminho viável para enfrentar desafios comuns.
Em resumo, o Marco Legal da Inteligência Artificial no Brasil sinaliza uma tentativa de conciliar desenvolvimento tecnológico com um conjunto robusto de salvaguardas. Reconhecendo tanto o potencial quanto os riscos da IA, a proposta aprovada no Senado é mais do que um texto legal: é uma tomada de posição política e social, ancorada no reconhecimento de que a inovação não deve ser guiada apenas pelo lucro e pela eficiência, mas também pelo respeito à dignidade humana, à diversidade cultural e à equidade de oportunidades.
Se aprovada e implementada de forma coerente, essa iniciativa poderá contribuir para que o Brasil se consolide como um país capaz de liderar debates sobre o futuro da tecnologia, garantindo que o bem-estar e a criatividade humana permaneçam no centro da transformação digital.
Caio Laurino, fundador e CIO da Maitha.