STF Retoma Julgamento sobre Responsabilidade das Plataformas Digitais
Nesta quinta-feira (5), o Supremo Tribunal Federal (STF) pré-comercializou mais uma vez a validade das regras que abordam a responsabilidade das plataformas digitais em relação a conteúdos veiculados por usuários. Esta foi a quarta sessão dedicada ao assunto, que deve contar com a finalização do voto do ministro Dias Toffoli.
O voto do outro relator, Luiz Fux, está programado para ser apresentado na próxima semana. Toffoli já argumentou que a norma atual, que exige ordem judicial para a remoção de conteúdos, é inconstitucional.
- Além disso, ele concluiu que as plataformas devem agir proativamente ao serem notificadas por vítimas ou seus advogados, eliminando a necessidade de uma decisão judicial prévia.
- A notificação deve ocorrer especialmente em casos que envolvem crimes graves.
Retomada do Caso
Durante a sessão, Toffoli reforçou seu ponto de vista. Assim que começou a discutir as maneiras de identificação de conteúdos e perfis inadequados, Alexandre de Moraes solicitou a palavra. Ele afirmou que métodos de identificação para robôs e usuários já estão disponíveis. Como exemplo, destacou a situação em que um usuário deve clicar em imagens para acessar certas páginas, uma técnica que ajuda a diferenciar humanos de bots.
Apesar disso, Moraes criticou a falta de “boa vontade” das empresas em implementar essas ferramentas. “Por que não existem métodos para detectar perfis inautênticos? Isso acontece porque as plataformas se beneficiam de mais robôs e discursos de ódio, o que potencializa os lucros. Portanto, precisamos decidir se vamos permitir um capitalismo selvagem nas redes sociais ou se vamos aplicar a constituição nesse ambiente também”, afirmou Moraes.
“O que aconteceu em 8 de janeiro demonstrou a falência do sistema de autorregulação das redes sociais”.
O Voto de Toffoli
Em sua apresentação, Toffoli reiterou que, nas situações de conteúdos ofensivos, as plataformas digitais devem agir imediatamente ao serem notificadas extrajudicialmente. Neste caso, não é necessário esperar por uma decisão judicial. A ideia é expandir a regra existente no Marco Civil da Internet, que já abrange postagens com cenas de nudez ou imagens pessoais, para outros tipos de conteúdo.
Toffoli ainda assinalou que, em situações extremas, as plataformas devem retirar conteúdos sem a necessidade de notificação. Se não o fizerem, elas poderão ser responsabilizadas de maneira objetiva e precisarão provar sua inocência na Justiça.
Casos de Responsabilidade
Os ministros analisam dois recursos que questionam se as redes sociais podem ser responsabilizadas por danos causados por conteúdos de usuários publicados em suas plataformas, mesmo sem uma ordem judicial anterior para a remoção das postagens.
A questão é se esses aplicativos podem ser condenados ao pagamento de indenizações por danos morais devido à não remoção de postagens ofensivas, como discursos de ódio ou fake news, sem uma determinação clara da Justiça.
Marco Civil da Internet
As discussões envolvem a aplicação de um trecho do Marco Civil da Internet, que regula o uso da internet no Brasil desde 2014. Esta lei estabelece direitos e deveres tanto para usuários quanto para empresas de tecnologia.
Segundo um dos artigos, as plataformas só serão responsabilizadas por conteúdos ofensivos se não tomarem ação após a solicitação judicial. O foco do STF agora é definir como as plataformas devem reagir a conteúdos que se oponham a direitos e que incitem ódio ou espalhem desinformação.
A Corte precisa elaborar uma tese que será usada em processos similares nas instâncias inferiores. De acordo com dados do Conselho Nacional de Justiça, há pelo menos 345 casos com questões semelhantes aguardando decisão no STF.