A Associação Brasileira das Empresas de Software (ABES) o reconhece os esforços em torno da proposta de regulação da Inteligência Artificial (IA), com a publicação do Complementação de Voto ao PL 2338/23, no âmbito da Comissão Temporária Interna de Inteligência Artificial do Senado Federal (CTIA). Há avanços no texto apresentado pelo relator no dia 27/11/2024, em comparação com o texto anterior, de 04/07/2024. Porém, afirma que problemas estruturais permanecem e alguns pontos cruciais para a competitividade do Brasil, o desenvolvimento e investimento em setores como startups e data centers permanecem presentes.
O texto continua sendo mais prescritivo e restritivo do que o AI Act da União Europeia, que já vem sendo apontado como um fator de perda de competitividade para a União Europeia, e um exemplo de política pública que afugenta startups e pequenas e médias empresas. Hoje, 60% das empresas europeias indicam que a regulação é um obstáculo para investimentos e competitividade. Já 55% das pequenas e médias empresas dizem que a regulação é não só um obstáculo, mas seu maior desafio para crescer. É esse o modelo que o Brasil está buscando importar da Europa.
De forma geral, o PL 2338/23 continua focado em regular a tecnologia, e não o uso que se faz dela. Uma solução seria o que a indústria brasileira defende: que a Lei seja aplicada apenas aos sistemas de inteligência artificial de alto risco, de risco excessivo e de modelos de IA de propósito geral.
O projeto de lei ainda carece de muitos aprimoramentos, e o ideal é que esses aprimoramentos aconteçam ainda na CTIA. Os defensores da regulação alegam que "depois a Câmara dos Deputados vai corrigir os problemas". Mas sabemos que no ambiente de acirramento de posições do processo legislativo é impossível ter garantias nesse sentido. Além disso, cada etapa do processo legislativo deve ser pautada pelo objetivo – individual de cada congressista, e coletivo de cada casa – de aprovar o texto que entendam efetivamente ser o melhor para o País. Este objetivo claramente não converge com a eventual aprovação de um texto que sabidamente ainda contém problemas estruturais, para que sejam endereçados pela casa revisora.
Ressalte-se, ainda, que o novo texto foi apresentado com inúmeras alterações no voto anterior e pautado para votação apenas 3 dias úteis depois, o que inviabiliza o aprofundamento dos debates sobre a proposta reformulada, com seus múltiplos efeitos para a competitividade da economia brasileira.
Por isso, o PL 2338/23 ainda está distante de uma regulação capaz de impulsionar o desenvolvimento responsável da tecnologia, a despeito dos avanços pontuais que vem sendo promovidos a cada novo relatório. O texto ainda precisa ser amadurecido antes de ser votado na CTIA.
EXEMPLOS DE PROBLEMAS NO PL 2338/23:
1-) O regime de direitos autorais proposto inviabiliza o aprendizado de máquina no Brasil, com as regras mais restritivas do mundo para treinamento de modelos de IA. Não existe inteligência artificial sem abundância de dados para treinar as máquinas. Quanto mais dados disponíveis para treinamento e maior a segurança jurídica para o desenvolvedor de IA, maior será o número de empresas inovando e investimentos em startups e data centers. Diversos países, como Japão, Singapura, Israel e EUA adotaram abordagens flexíveis em direitos autorais, dando segurança jurídica para a mineração de dados no desenvolvimento de IA. O Brasil está indo no caminho inverso, sendo inclusive mais restritivo que as regras da União Europeia!
O PL 2338/23 exige medidas que inviabilizam o treinamento de máquinas, como a identificação de cada conteúdo utilizado no aprendizado (art 62), a vedação da mineração para fins comerciais (art 63), e, neste último relatório, incluiu até a remuneração retroativa dos titulares das obras (art. 64 e 65), o que tornará financeiramente impraticável usar dados brasileiros e chegará a forçar empresas a fazer o destreinamento de máquinas.
Caso esse capítulo permaneça no texto, o Senado Federal vai afastar investimentos e atrasar o Brasil com relação ao resto do mundo, além de inviabilizar o desenvolvimento de modelos baseados em dados nacionais. Essas regras terão efeito cascata, afetando não apenas as empresas de tecnologia que desenvolvem modelos de IA, mas todas as startups que se utilizam de desses modelos de linguagem, ou que desenvolvem funcionalidades nas suas próprias áreas de atuação (como é o caso de fintechs, healthtechs e agritechs). Igualmente, o próprio setor público estaria sujeito aos efeitos destas limitações, seja diretamente como desenvolvedor ou como aplicador, o que resultaria, necessariamente, em uma menor oferta de serviços públicos de qualidade baseados em alta tecnologia para os cidadãos.
Treinamento de modelos de IA, com a necessária utilização de dados em abundância sobre cultura e o conhecimento produzido no país, deveria ser encarada como atividade de interesse nacional, para que o Brasil avance no desenvolvimento da tecnologia, na atração de investimentos em data centers e possa se tornar competitivo no cenário global. Sem isso, os modelos de IA brasileiros não conseguirão acessar dados no Brasil e entender contextos locais. O país não será competitivo em sua soberania.
É importante destacar, também, que a exclusão do escopo do PL dos 'serviços que se limitem ao provimento de infraestrutura de armazenamento e transporte de dados empregados em sistemas de IA' não teria efeitos de impulsionar o setor de data centers no Brasil, se mantidos os dispositivos que inviabilizam o treinamento de modelos.
As limitações impostas ao treinamento de modelos podem levar a uma redução drástica de demanda para os serviços de armazenamento e transporte de dados mencionados. Para além das atividades de treinamento de modelos que potencialmente deixariam de gerar demandas para os data centers, a possível redução no processamento de sistemas de IA de forma geral, tende a reduzir o desenvolvimento, distribuição e implementação da IA que ocorrem através dos data centers, neutralizando a atratividade do País para investimentos neste setor, com impactos em empregos e receita.
Recomendação: As questões de direito autoral devem ser endereçadas em outro projeto de lei. Caso o Senado continue insistindo em abordar esse tema na regulação de IA, recomenda-se suprimir no artigo 62 a identificação de conteúdo, permitir a mineração para fins comerciais (art 63, II e § 2º), suprimir remuneração (64 e 65).
2) Generaliza o risco dos sistemas de IA generativa (GenAI), presumindo que todos esses sistemas possuem potencial de alto risco, independentemente do seu uso ou aplicação, e promove regulação desproporcional. Isso pode levar a um excesso de regulação, impactando negativamente o desenvolvimento, a inovação e o uso de tecnologias de IA que não apresentam riscos significativos. Desenvolvedores de sistemas de IA generativa serão obrigados a cumprir requisitos complexos e dispendiosos mesmo em casos onde o uso da tecnologia não apresentar riscos significativos. Isso desestimula a inovação.
Da mesma forma, as pequenas e médias empresas, muitas vezes as mais inovadoras, podem ser desproporcionalmente afetadas por custos adicionais, o que limita sua capacidade de competir no mercado.
O problema é que a atual redação da seção V (artigos 29 e 30) pressupõe que sistemas de IA generativa apresentam altos riscos intrínsecos, o que não é verdade. Apenas se um determinado sistema de IA generativa for classificado como de alto risco, as obrigações adicionais previstas na seção V deveriam se aplicar.
Além disso, no inciso XXX, a definição de risco sistêmico—"potenciais efeitos adversos negativos decorrentes de um sistema de IA de propósito geral e generativo com impacto significativo nos direitos fundamentais individuais e sociais"— é muito ampla.
Recomendação: Limitar as obrigações da Seção V (artigos 29 e 30) às aplicações de alto risco. E, o inciso XXX, a definição de risco sistêmico deve se alinhar com definições internacionais, como o limite de 10^26 FLOPs da Ordem Executiva de IA dos EUA e com definições de risco sistêmico do NIST (National Institute of Standards and Technology).
3) Traz sérios riscos à liberdade de expressão: o PL 2338/23 confere poder normativo, regulatório, fiscalizatório e sancionatório para o poder executivo, com um escopo amplo e indeterminado sobre aplicações de internet. O texto inclui expressamente plataformas de internet na categoria de 'alto risco' e como passíveis de regulação infralegal. O inciso XIII do art. 14 coloca trata a curadoria, difusão, recomendação e distribuição de conteúdo (os feeds das redes, por exemplo) como sistemas de alto risco, passíveis de regulação infralegal por ente apontado pelo Poder Executivo.
Recomendação: Suprimir o inciso XIII do art. 14 e a totalidade do art. 15 (ou alternativamente deixar expresso que recomendação de conteúdo só poderá entrar na lista por lei específica). Dar nova redação ao caput do art. 31 e ao caput do art. 42 para suprimir as referências às expressões "integridade da informação, liberdade de expressão, acesso à informação e pluralismo democrático".
Os exemplos acima, sem pretensão exaustiva, refletem a necessidade de aprofundamento da análise das alterações, considerando o prazo exíguo entre o oferecimento do voto e a proposta de inclusão na pauta. A ABES permanece à disposição para apoiar os esforços em torno do tema, com vistas à promoção da competitividade do setor de tecnologia nacional, inclusão e capacitação dos brasileiros e brasileiras.
4) Uma regulação que incida sobre a tecologia, os sistemas de IA, e não sobre o seu uso, desestimula a inovação, sem gerar salvaguardas ou proteções à sociedade: há definições no PL 2338/23 que classificam sistemas de IA como de alto risco, sem necessariamente referenciar os usos. Uma regulação efetiva deve focar nos usos para que não puna a tecnologia e avance na regulação do contexto de uso da tecnologia, trazendo efetividade para o regulador e segurança jurídica para o regulado.
Por outro lado, limitações à tecnologia em si, ao sistema, incutem uma falsa percepção de proteção social, uma vez que o risco apenas ocorreria se e quando acontecesse a inserção do sistema no mercado. Em comparação a outros segmentos, seria como restringir o desenvolvimento de compostos químicos que podem ser lesivos, sem considerar a possibilidade de usos medicinais, por exemplo.
Além do mais, boa parte dos sistemas de IA são customizáveis e uma regulação focada no seu uso seria?mais?eficiente.
Recomendação: Na Seção III (Alto Risco), substituir referências a 'sistemas de alto risco' por 'usos de alto risco'. Art. 14 ('Considera-se de alto risco o uso de sistema de IA empregado para as seguintes finalidades e contextos de usos, levando-se em conta a probabilidade e a gravidade dos impactos adversos sobre pessoa ou grupos afetados, nos termos da regulamentação'); Art. 15 ('Caberá ao SIA regulamentar a classificação da lista dos usos de IA de alto risco'); Art. 16 ('A regulamentação da lista e classificação de novos usos de IA de alto risco será precedida de procedimento que garanta participação social e de análise de impacto regulatório).