1 em cada 3 Moderadores Remove Fotos e Vídeos Ilegais ou Perturbadores nas Redes Sociais
Importante: esta reportagem contém detalhes que podem ser perturbadores para alguns leitores.
A BBC teve a oportunidade de explorar, nos últimos meses, um universo oculto e sombrio, onde pode-se encontrar o pior conteúdo disponível online. Esse material, muitas vezes ilegal, abrange desde decapitações e assassinatos em massa até abusos infantis e discursos de ódio, o que acaba chegando ao exército global de moderadores de conteúdo.
Embora o trabalho desses moderadores passe despercebido pela maioria, eles se dedicam a analisar e remover conteúdos denunciados por usuários ou identificados automaticamente pelas ferramentas tecnológicas.
O Trabalho dos Moderadores
A segurança na internet é uma questão em crescente relevância, e empresas de tecnologia enfrentam pressões constantes para eliminar rapidamente material prejudicial. Apesar de investimentos em soluções tecnológicas, a decisão final sobre a remoção de conteúdo ainda recai em boa parte sobre moderadores humanos.
Esses profissionais, frequentemente contratados por empresas terceirizadas, atuam nas principais redes sociais, como Instagram, TikTok e Facebook, e estão situados em diversos locais ao redor do mundo.
Durante a produção da série da BBC Rádio 4 “The Moderators”, conversei com vários moderadores que compartilharam suas experiências e que, desde então, deixaram seus empregos. A maioria reside no leste africano, e suas histórias são repletas de angústia. Algumas gravações que fizemos eram tão chocantes que não puderam ser transmitidas. Após essas gravações, muitas vezes, meu produtor e eu ficávamos em silêncio, refletindo sobre o que acabávamos de ouvir.
“Se você pegar seu celular e for ao TikTok, verá uma série de atividades e danças, coisas alegres. Mas, por trás disso, eu moderava pessoalmente centenas de vídeos horríveis e traumatizantes,” diz Mojez, ex-moderador de Nairóbi, Quênia.
“Eu assumi aquilo para mim. Deixei que minha saúde mental absorvesse o golpe para que os usuários comuns pudessem prosseguir com suas atividades na plataforma,” ele acrescenta.
Ações Judiciais e Sindicato
Atualmente, diversas ações judiciais estão em andamento, alegando que o trabalho dos moderadores comprometeu sua saúde mental. Alguns ex-moderadores do leste africano uniram-se para formar um sindicato.
“De fato, a única coisa que me impede de assistir a uma decapitação ao acessar uma rede social é que alguém em um escritório, em algum lugar, está analisando aquele conteúdo para mim,” afirma Martha Dark, ativista da organização Foxglove, que apoia as ações judiciais.
Em 2020, a Meta (anteriormente conhecida como Facebook) concordou em pagar um acordo de US$ 52 milhões (cerca de R$ 300 milhões) a moderadores que apresentaram problemas de saúde mental em decorrência de seus trabalhos. O processo foi iniciado por Selena Scola, uma ex-moderadora dos Estados Unidos, que descreveu o papel destes profissionais como “guardiões de almas” devido à quantidade de vídeos que assistem.
Todos os ex-moderadores com quem conversei usaram a palavra “trauma” para descrever o impacto do trabalho sobre eles. Alguns relataram dificuldades para dormir e se alimentar.
Um ex-moderador compartilhou a história de um colega que entrava em pânico ao ouvir um bebê chorando, enquanto outro confessou ter dificuldades para interagir com a família devido ao conteúdo perturbador que visualizou.
O Orgulho da Moderação
Apesar do impacto negativo do trabalho, muitos moderadores expressam um orgulho profundo pela função que desempenham na proteção dos usuários contra o conteúdo nocivo.
Um deles desejou ter um uniforme e um distintivo, comparando-se a bombeiros ou paramédicos. David, um moderador que pediu para permanecer no anonimato, afirmou: “Nem um só segundo foi mal empregado.” Ele trabalhou com material que ajudou a treinar o chatbot ChatGPT, assegurando que não reproduzisse conteúdos perturbadores.
Avanços Tecnológicos e Dúvidas sobre a IA
Dave Willner, ex-chefe de confiança e segurança da OpenAI, apontou que sua equipe desenvolveu uma ferramenta rudimentar de moderação baseada na tecnologia do chatbot, que conseguiu identificar conteúdo prejudicial com uma taxa de precisão de 90%.
“Quando percebi que isso realmente funcionava, me engasguei um pouco. As ferramentas de IA não ficam entediadas ou cansadas; elas são infatigáveis,” afirmou.
No entanto, nem todos acreditam que a IA seja a solução definitiva para os desafios enfrentados pela moderação online. O professor de comunicação e democracia Paul Reilly, da Universidade de Glasgow, advertiu que a IA pode ser problemática, bloqueando excessivamente a liberdade de expressão e perdendo nuances que moderadores humanos conseguem captar.
“A moderação humana é essencial, mas o número de moderadores é insuficiente e o trabalho é extremamente prejudicial para os profissionais,” conclui.
Respostas das Empresas de Tecnologia
Entramos em contato com as empresas mencionadas na série. Um porta-voz do TikTok declarou que a empresa reconhece a dificuldade do trabalho de moderação e se esforça para criar um ambiente de apoio para seus funcionários, oferecendo suporte clínico e programas para promover o bem-estar dos moderadores.
O TikTok também ressaltou que a maioria dos vídeos é analisada inicialmente por tecnologia automatizada, que remove uma quantidade significativa de conteúdo prejudicial.
A OpenAI afirmou reconhecer a importância do trabalho de moderadores humanos para treinar suas ferramentas, e que eles implementam políticas de bem-estar para proteger suas equipes. A Meta revelou que exige que seus parceiros ofereçam apoio contínuo com profissionais capacitados, assegurando que moderadores possam ajustar suas ferramentas para desfocar imagens delicadas.