O presidente do Supremo Tribunal Federal (STF), ministro Luís Roberto Barroso, defendeu que as plataformas digitais devem ser responsabilizadas por conteúdos de terceiros caso deixem de tomar as providências necessárias para remover postagens com teor criminoso. Barroso apresentou nesta quarta-feira (18) seu voto no julgamento de dois recursos que discutem a responsabilidade civil das plataformas da internet por conteúdos de terceiros e a possibilidade de remoção de material ofensivo ou que incite ódio, sem a necessidade de ordem judicial. Em seguida, o julgamento foi suspenso com pedido de vista do ministro André Mendonça.
Proteção insuficiente
Para o presidente, o artigo 19 do Marco Civil da Internet (Lei 12.965/2014), que trata da responsabilização das plataformas digitais por conteúdos de terceiros, não dá proteção suficiente a direitos fundamentais, como a dignidade da pessoa humana, e a valores importantes para a democracia.
Barroso considera que, se a plataforma for notificada de que algo representa crime, como a criação de perfil falso (crime de falsa identidade), não é necessária ordem judicial de retirada. "Não há fundamento constitucional para um regime que incentiva que as plataformas permaneçam inertes após tomarem conhecimento de claras violações da lei penal", afirmou.
Crimes contra a honra
Contudo, ele considera haver situações, como nos crimes contra a honra, em que a remoção do conteúdo só deve ocorrer após ordem judicial. Segundo ele, ainda que se alegue a existência de injúria, calúnia ou difamação, a postagem deve permanecer, sob pena de violação à liberdade de expressão. "A supervisão judicial é necessária para evitar a censura e tentativas de silenciar pessoas ou ocultar fatos criminosos ainda pendentes de apuração", disse.
Dever de cuidado
Para o presidente, em vez de monitoramento ativo, com responsabilidade, independentemente de notificação, por cada conteúdo individual, as empresas devem ter o chamado dever de cuidado, ou seja, devem trabalhar para reduzir os riscos sistêmicos criados ou potencializados por suas plataformas. As medidas, a seu ver, devem minimizar esses riscos e seus impactos negativos sobre direitos individuais e coletivos, segurança e estabilidade democrática.
Assim, as plataformas devem atuar proativamente para que seu ambiente esteja livre de conteúdos gravemente nocivos, como pornografia infantil e crimes graves contra crianças e adolescentes, indução, instigação ou auxílio a suicídio ou a automutilação, tráfico de pessoas, atos de terrorismo, abolição violenta do Estado Democrático de Direito e golpe de Estado.
Prerrogativa do Congresso
Barroso salientou que o Marco Civil da Internet é reflexo do momento em que a lei foi editada e que havia consenso de que a supervisão judicial era a melhor maneira de evitar censura e remoções arbitrárias. Contudo, desde então surgiram novas tecnologias e formatos de interação na internet, e essa mudança de cenário tornou a proteção oferecida pela lei insuficiente.
O ministro fez um apelo ao Congresso Nacional para que estude a criação de um regime jurídico para esse tema que regule as medidas necessárias para avaliar e minimizar riscos, defina as sanções e crie órgão regulador responsável pela análise de conformidade das plataformas. "Essa prerrogativa é do Congresso. Nós só estamos atuando porque ainda não há lei", disse.
Casos concretos
No RE 1037396 (Tema 987 da repercussão geral), relatado pelo ministro Dias Toffoli, o Facebook Serviços Online do Brasil Ltda. questiona decisão do Tribunal de Justiça de São Paulo (TJ-SP) que determinou a exclusão de um perfil falso da rede social. Já o RE 1057258 (Temas 533), relatado pelo ministro Luiz Fux, o Google Brasil Internet S.A. contesta decisão que a responsabilizou por não excluir do Orkut uma comunidade criada para ofender uma pessoa e determinou o pagamento de danos morais. Nos dois casos, os relatores rejeitaram os recursos apresentados pelas empresas.