No terceiro debate na Câmara dos Deputados sobre a proposta para coibir a disseminação de fake news na internet (Projeto de Lei 2630/20) não houve consenso sobre as regras previstas para a moderação de conteúdo pelas redes sociais e sobre a melhor forma de coibir ataques à honra nas redes.
O deputado Nereu Crispim (PSL-RS) criticou a possibilidade de anonimato em ataques nas redes sociais, especialmente contra políticos, disse que Justiça é lenta para decidir sobre os ataques à honra pessoal; e acusou as plataformas de não responder de forma efetiva às denúncias de difamação feitas pelos cidadãos.
"Temos que tirar o anonimato. Cidadão de bem não vai ter problema nenhum em ter seus dados lá, só o criminoso vai ter essa preocupação", opinou. Para ele, para coibir ataques à honra, é preciso divulgar o CPF e a identidade dos usuários.
João Guilherme Bastos, do Instituto Nacional de Ciência e Tecnologia em Democracia Digital, no entanto, disse que expor esses dados não vai impedir ataques à honra, e ressaltou que os dados pessoais poderão ser usados para fins ilícitos.
A diretora-executiva do site Aos fatos – plataforma de checagem de informações públicas -, Tai Nalon, foi além e afirmou que "os grandes motores de desinformação na rede não são as 'tias do zap', não são os usuários desinformados, mas políticos com mandatos e influência na rede", com contas verificadas.
Decisão judicial
Bia Barbosa, da Coalizão Direitos na Rede, concordou com Nereu Crispim de que a Justiça poderia ser mais célere e ativa. Mas considerou acertada a previsão contida no Marco Civil da Internet de que um provedor de aplicações só pode ser responsabilizado por determinado conteúdo se não cumprir decisão judicial que o obrigue a removê-lo.
Isso não impede que as plataformas tenham suas políticas de uso para remoção de conteúdo.
Ela considerou essencial que seja mantido no texto do projeto de lei o direito de o usuário ser notificado quando um conteúdo de sua autoria for removido pela plataforma, e ressaltou que hoje nem sempre isso é feito pelas empresas.
Além disso, para que a liberdade de expressão não seja violada, ela defendeu a manutenção no texto do direito de o usuário contestar a remoção de um determinado conteúdo e o direito de resposta na mesma medida e alcance do conteúdo considerado inadequado.
O advogado e professor da UERJ Carlos Affonso Souza foi um dos que manifestou essa preocupação. Ele considerou excessivo, por exemplo, obrigar as plataformas a notificar os usuários não apenas em relação a conteúdos e contas removidas, mas em relação a denúncias recebidas pela plataforma.
Em relação ao direito de resposta, ele observou que algumas plataformas como Wikipedia e YouTube têm hoje formas de moderação descentralizadas, operadas pelo próprio usuário – os youtubers podem, por exemplo, remover comentários. E questionou como seria assegurado o direito de resposta na mesma medida e alcance do conteúdo considerado inadequado nesses casos.
Política do Google
A gerente de políticas públicas do Google no Brasil, Juliana Nolasco Ferreira, também considerou excessivo o artigo 12 da proposta. Em sua opinião, a obrigação de notificar o usuário não deveria existir no caso de denúncia.
Ela garantiu aos parlamentares que a empresa já está alinhada aos objetivos da lei e que já "leva a sério o compromisso de combate à desinformação", elaborando relatórios de transparência, por exemplo, conforme previsto pelo projeto.
Segundo Juliana, no YouTube são aplicados os seguintes princípios: remover conteúdos que violem políticas de uso da plataforma; recomendar conteúdos de qualidade; reduzir disseminação de conteúdos duvidosos ou prejudiciais; e recompensar criadores confiáveis.
Para a remoção, os conteúdos são identificados por máquinas e revisados por humanos, e os usuários também podem sinalizar conteúdos que violem os termos de uso. Juliana reconhece, no entanto, que o processo não é isento de erros, e, neste caso, o usuário pode recorrer, e o vídeo ser reincluído.
"No primeiro trimestre de 2020, 6,1 milhões de vídeos foram removidos do YouTube, mais da metade deles relacionados a spam, práticas enganosas e golpes e segurança infantil", informou. E, segundo ela, 49% desses conteúdos foram removidos antes da primeira visualização.
Punição
Para o professor Rony Vainzof, especialista em direito digital, a Justiça não deve ser a porta de entrada para todas as decisões sobre remoção de conteúdos e de contas, e deve se limitar a resolver controvérsias.
Na visão dele, a lei deve obrigar as plataformas a ter mecanismo para garantir o contraditório e a ampla defesa e ter regras para remoção de contas inautênticas, por exemplo – conforme já consta no PL 2630/20.
Ele defendeu ainda a previsão legal de novos tipos penais para punir quem financia a desinformação em escala industrial – o que hoje não está no texto.
Para Vainzof, a lei deve criar obrigações mínimas para as plataformas, e o restante das regras deve ficar para uma "autorregulação regulada" – por exemplo, para um código de conduta.
O projeto em análise na Câmara prevê a elaboração desse código pelo Conselho de Transparência e Responsabilidade na Internet, que será instituído pelo Congresso, com participação dos setores públicos, privado, da sociedade civil e da academia.
A deputada Margarete Coelho (PP-PI) também acredita que a autorregulação pelas plataformas – regulamentada pela lei – é a forma mais eficiente para coibir a desinformação e proteger a democracia. Ela salientou ainda que hoje a legislação brasileira já oferece meios para busca de reparação aos danos à honra pessoal. As informações são da Agência Câmara.