Plataformas de vídeo e redes sociais tornaram-se ferramentas poderosas para a criação de conteúdo e compartilhamento de informações. No entanto, a propagação de "fake news" e outros conteúdos que acabam violando a lei, ou os termos de uso das próprias plataformas, também se tornou uma preocupação crescente.
Diante disso, uma questão vem sendo levantada, cada vez mais, tanto por usuários quanto pelos próprios criadores de conteúdo, além da comunidade jurídica: a plataforma tem legitimidade para remover uma publicação, uma imagem ou vídeo? Ou isso configura uma forma de censura?
Com efeito, remover postagens ou comentários sempre gera preocupações sobre a liberdade de expressão (direito fundamental), no sentido de que a plataforma – uma entidade privada – poderia, unilateralmente, interferir no direito de comunicação do indivíduo.
Como equilibrar, então, a proteção dos usuários, a responsabilidade pelo ambiente digital seguro, sem restringir a fala, o fluxo de ideias, o debate? Só numa leitura superficial já é possível perceber como a linha entre moderação e censura pode ser tênue.
Mas uma decisão recente do Superior Tribunal de Justiça (STJ) lançou luzes sobre o debate, esclarecendo o papel das plataformas digitais em situações em que o conteúdo publicado gera controvérsias ou pode impactar o bem-estar da população – ou até mesmo a saúde pública.
O caso julgado [1] envolveu o YouTube, que removeu vídeos do médico que recomendava formas de tratamento contra a Covid-19 que não eram endossadas pela Organização Mundial de Saúde (OMS). Segundo o tribunal, a plataforma estava dentro de seus direitos ao agir, pois o conteúdo desrespeitava diretrizes internas que visam preservar a segurança e a confiança dos usuários.
A legislação atual – o Marco Civil da Internet – diz que, se receber uma ordem judicial para remover alguma publicação considerada ofensiva (ilícita), a empresa pode ser responsabilizada, se não agir. Isso não significaria, porém, que o provedor de internet só pode agir mediante determinação da Justiça.
De acordo com o STJ, as plataformas possuem autonomia para remover conteúdos que violem seus próprios termos de uso, as "regras da casa" que os usuários aceitam ao criar uma conta.
Por outro lado, é importante destacar que essas ações de moderação, se não forem bem conduzidas, podem gerar novas preocupações, como a prática de "shadowbanning" — quando o usuário tem seu conteúdo limitado ou ocultado sem ser notificado formalmente.
A transparência e a clareza nos procedimentos de moderação, portanto, são essenciais para evitar que esse tipo de mecanismo seja interpretado como uma forma de censura.
Portanto, a remoção de conteúdo pode ser legítima, para garantir que o ambiente digital esteja seguro, de modo que a plataforma não seja conivente com a disseminação de conteúdos ilícitos — sem a necessidade de intervenção judicial em todos os casos.
Em resumo, a mensagem é clara: tanto as empresas quanto os usuários precisam assumir responsabilidade pelo que circula na internet. Em um cenário onde uma postagem tem o potencial de impactar milhares — ou milhões — de pessoas, as plataformas podem agir quando identificam ilegalidade ou indícios de ilicitude.
Notas:
[1] REsp 2.139.749
Gabriel Fortes, Especialista em Direito Digital e Compliance, Mestre em Direito Constitucional, Head de Segurança da Informação do escritório Fortes Nasar Advogados.
Marianna Cardim, estudante de Direito e estagiária na área de Direito Digital do escritório Fortes Nasar Advogados.