Ministro Luiz Fux discute segurança jurídica após palestra
O ministro Luiz Fux, do Supremo Tribunal Federal (STF), participou de uma sessão de perguntas sobre segurança jurídica nesta sexta-feira (2). Durante a conversa, Fux comentou sobre um tema relevante: a inconstitucionalidade de um artigo do Marco Civil da Internet.
Na última quarta-feira (11), Fux esclareceu que o artigo que isenta redes sociais de responsabilidade sobre conteúdo criminoso postado por usuários é, na sua visão, inconstitucional. O STF começou a avaliação de dois recursos que debatem se as plataformas podem ser responsabilizadas por danos de conteúdos publicados por usuários sem uma ordem judicial prévia para a remoção.
“Resta clara a insuficiência inconstitucional do regime de responsabilidade insculpido no artigo 19 do Marco Civil. A imunidade civil trazida pelo dispositivo só permite responsabilização das empresas provedoras no caso de descumprimento de ordem judicial de remoção”, declarou Fux, durante a leitura do voto.
De acordo com o ministro, os conteúdos considerados ofensivos devem ser removidos imediatamente após a notificação da plataforma. Fux e o ministro Dias Toffoli concordaram que, uma vez notificados, as plataformas têm a obrigação de agir sem delongas.
“Eu entendo, estamos de acordo, no meu modo de ver, notificada a remoção tem que ser imediata. Inverter o ônus da judicialização. É a plataforma que tem que fazer o que faz hoje. Pedir autorização ao juízo para botar de novo”, argumentou.
Na semana anterior, Toffoli havia concluído seu primeiro voto sobre o caso, propondo que as redes sociais devem ser responsabilizadas por conteúdos de usuários, mantendo o conceito de sinalização de que o atual regime é inconstitucional.
- O voto de Toffoli sugere que as plataformas devem agir quando notificados pelas vítimas ou seus advogados, sem precisar de autorização judicial.
- Em casos de crimes graves, as plataformas devem agir proativamente.
Responsabilidade das plataformas digitais
Na sessão de julgamento, Toffoli destacou que as plataformas devem remover conteúdos quando notificadas extrajudicialmente. Este princípio, que já se aplica a conteúdos de nudez, deve ser expandido a outras categorias de conteúdo.
“Se não fizerem, estão sujeitas à responsabilidade objetiva — ou seja, respondem por danos independente de culpa da parte delas”, estabeleceu Toffoli.
Toffoli detalhou situações em que as plataformas precisam agir:
- Crimes contra o Estado Democrático de Direito;
- Atos de terrorismo;
- Indução ao suicídio ou automutilação;
- Racismo;
- Violência contra crianças, adolescentes e pessoas vulneráveis;
- Violência contra mulheres;
- Infrações sanitárias em emergências de saúde pública;
- Tráfico de pessoas;
- Incitação a violência física ou sexual;
- Divulgação de informações inverídicas que possam gerar violência.
O relator do caso, Dias Toffoli, foi pioneiro na leitura do voto, mas ainda precisa esperar os demais ministros se posicionarem sobre o assunto.
Entenda o Marco Civil da Internet
O Marco Civil da Internet, em vigor desde 2014, atua como uma constituição para o uso da rede no Brasil. Ele define direitos e deveres para usuários e plataformas digitais, afirmando que estas só são responsabilizadas por conteúdos ofensivos se não agirem após uma ordem judicial.
Acontece que a questão crucial é como as plataformas devem atuar frente a conteúdos que possam prejudicar direitos e incitar ódio. Essa decisão do STF pode criar uma tese que servirá de base para casos similares nas instâncias inferiores.
Atualmente, o Conselho Nacional de Justiça registra 345 casos em espera de resolução no STF, todos relacionados à mesma temática.
.