A IA (inteligência artificial) está cada vez mais presente na vida cotidiana e não há dúvidas acerca dos diversos benefícios que se pode obter com o uso adequado dessa ferramenta, que vem sendo rapidamente aprimorada.
Entretanto, o desenvolvimento de uma IA requer necessariamente a coleta massiva de informações, que podem incluir dados pessoais e sensíveis. Assim, é essencial que todas as empresas que pretendem usar esses dados para treinar uma IA generativa observem rigorosamente o arcabouço legal e regulatório vigente sobre a proteção de dados pessoais.
Após a Meta, empresa proprietária do WhatsApp, Instagram e Facebook, ter anunciado que, a partir do dia 26 de junho, iria utilizar dados pessoais para treinamento de seus sistemas de IA, a gigante da tecnologia passou a enfrentar desafios diretamente ligados à proteção de dados pessoais.
Primeiro na Europa, após a Nouyb (None of Your Business), organização sem fins lucrativos que se concentra em questões de privacidade comercial a nível europeu, apresentar queixas, em 11 países, contra a empresa, sob alegação de que as alterações na política de privacidade da Meta permitiriam o uso ilegal de dados pessoais para treinar um tipo de IA indefinido.
Talvez, as lideranças da big tech não esperavam ter de lidar com esse enfrentamento no Sul Global. Porém, no dia 02 de julho, o Conselho Diretor da Autoridade Nacional de Proteção de Dados (ANPD), por meio de uma Medida Preventiva, suspendeu a vigência da nova política de privacidade da empresa no Brasil, no que toca à parte relativa ao uso de dados pessoais para fins de treinamento de sistemas de IA generativa.
A ANPD destacou a utilização de hipótese legal inadequada, informações insuficientes, o que acarreta ofensa ao princípio da transparência, e riscos significativos para crianças e adolescentes, em razão do tratamento dos dados pessoais sem as devidas salvaguardas, como principais motivos para a medida.
A decisão da ANPD de determinar a suspensão cautelar do tratamento de dados pessoais para treinamento da IA da Meta, traz à tona um debate de extrema relevância sobre os limites da IA na vida das pessoas.
É inegável que a IA é capaz de revolucionar e melhorar significativamente a vida das pessoas, em diversos setores. Porém, o avanço tecnológico deve, necessariamente, estar alinhado com os princípios norteadores da legislação de proteção de dados pessoais.
Os sistemas de inteligência artificial que sejam desenvolvidos sem a observância rigorosa de salvaguardas eficazes, destinadas a garantir a proteção dos titulares de dados, podem trazer riscos a direitos fundamentais em razão dos possíveis vieses discriminatórios, que têm se revelado existentes aqui e ao redor do mundo.
O desenvolvimento de uma nova tecnologia sem a observância do Privacy by Design, que significa que a privacidade dos dados dos titulares deve ser garantida desde a concepção de qualquer novo projeto, produto ou serviço, pode gerar enormes prejuízos e até eventual descontinuidade de uma tecnologia.
A decisão inédita da ANPD reforça seu papel como uma autoridade-chave na regulação da IA e destaca a necessidade de um equilíbrio cuidadoso entre inovação tecnológica e proteção de dados.
Aqueles que ainda consideram a proteção de dados pessoais como uma pauta secundária precisarão enfrentar esse debate cada vez mais essencial. O avanço da IA deve ser acompanhado por uma vigilância rigorosa e uma regulamentação adequada para garantir que os benefícios da tecnologia não venham à custa dos direitos fundamentais.
Vivian Azevedo, advogada responsável pela área de Privacidade e Proteção de Dados do Bhering Cabral Advogados.