Moderadores: Desafios e Saúde Mental nas Redes Sociais

1 em cada 3 Moderadores Remove Fotos e Vídeos Ilegais ou Perturbadores nas Redes Sociais

Nota: As imagens são meramente ilustrativas e, em sua maioria, geradas pelo MidJourney.

1 em cada 3 Moderadores Remove Fotos e Vídeos Ilegais ou Perturbadores nas Redes Sociais

Importante: esta reportagem contém detalhes que podem ser perturbadores para alguns leitores.

A BBC teve a oportunidade de explorar, nos últimos meses, um universo oculto e sombrio, onde pode-se encontrar o pior conteúdo disponível online. Esse material, muitas vezes ilegal, abrange desde decapitações e assassinatos em massa até abusos infantis e discursos de ódio, o que acaba chegando ao exército global de moderadores de conteúdo.

Embora o trabalho desses moderadores passe despercebido pela maioria, eles se dedicam a analisar e remover conteúdos denunciados por usuários ou identificados automaticamente pelas ferramentas tecnológicas.

O Trabalho dos Moderadores

A segurança na internet é uma questão em crescente relevância, e empresas de tecnologia enfrentam pressões constantes para eliminar rapidamente material prejudicial. Apesar de investimentos em soluções tecnológicas, a decisão final sobre a remoção de conteúdo ainda recai em boa parte sobre moderadores humanos.

Esses profissionais, frequentemente contratados por empresas terceirizadas, atuam nas principais redes sociais, como Instagram, TikTok e Facebook, e estão situados em diversos locais ao redor do mundo.

Durante a produção da série da BBC Rádio 4 “The Moderators”, conversei com vários moderadores que compartilharam suas experiências e que, desde então, deixaram seus empregos. A maioria reside no leste africano, e suas histórias são repletas de angústia. Algumas gravações que fizemos eram tão chocantes que não puderam ser transmitidas. Após essas gravações, muitas vezes, meu produtor e eu ficávamos em silêncio, refletindo sobre o que acabávamos de ouvir.

“Se você pegar seu celular e for ao TikTok, verá uma série de atividades e danças, coisas alegres. Mas, por trás disso, eu moderava pessoalmente centenas de vídeos horríveis e traumatizantes,” diz Mojez, ex-moderador de Nairóbi, Quênia.

“Eu assumi aquilo para mim. Deixei que minha saúde mental absorvesse o golpe para que os usuários comuns pudessem prosseguir com suas atividades na plataforma,” ele acrescenta.

Ações Judiciais e Sindicato

Atualmente, diversas ações judiciais estão em andamento, alegando que o trabalho dos moderadores comprometeu sua saúde mental. Alguns ex-moderadores do leste africano uniram-se para formar um sindicato.

“De fato, a única coisa que me impede de assistir a uma decapitação ao acessar uma rede social é que alguém em um escritório, em algum lugar, está analisando aquele conteúdo para mim,” afirma Martha Dark, ativista da organização Foxglove, que apoia as ações judiciais.

Em 2020, a Meta (anteriormente conhecida como Facebook) concordou em pagar um acordo de US$ 52 milhões (cerca de R$ 300 milhões) a moderadores que apresentaram problemas de saúde mental em decorrência de seus trabalhos. O processo foi iniciado por Selena Scola, uma ex-moderadora dos Estados Unidos, que descreveu o papel destes profissionais como “guardiões de almas” devido à quantidade de vídeos que assistem.

Todos os ex-moderadores com quem conversei usaram a palavra “trauma” para descrever o impacto do trabalho sobre eles. Alguns relataram dificuldades para dormir e se alimentar.

Um ex-moderador compartilhou a história de um colega que entrava em pânico ao ouvir um bebê chorando, enquanto outro confessou ter dificuldades para interagir com a família devido ao conteúdo perturbador que visualizou.

O Orgulho da Moderação

Apesar do impacto negativo do trabalho, muitos moderadores expressam um orgulho profundo pela função que desempenham na proteção dos usuários contra o conteúdo nocivo.

Um deles desejou ter um uniforme e um distintivo, comparando-se a bombeiros ou paramédicos. David, um moderador que pediu para permanecer no anonimato, afirmou: “Nem um só segundo foi mal empregado.” Ele trabalhou com material que ajudou a treinar o chatbot ChatGPT, assegurando que não reproduzisse conteúdos perturbadores.

Avanços Tecnológicos e Dúvidas sobre a IA

Dave Willner, ex-chefe de confiança e segurança da OpenAI, apontou que sua equipe desenvolveu uma ferramenta rudimentar de moderação baseada na tecnologia do chatbot, que conseguiu identificar conteúdo prejudicial com uma taxa de precisão de 90%.

“Quando percebi que isso realmente funcionava, me engasguei um pouco. As ferramentas de IA não ficam entediadas ou cansadas; elas são infatigáveis,” afirmou.

No entanto, nem todos acreditam que a IA seja a solução definitiva para os desafios enfrentados pela moderação online. O professor de comunicação e democracia Paul Reilly, da Universidade de Glasgow, advertiu que a IA pode ser problemática, bloqueando excessivamente a liberdade de expressão e perdendo nuances que moderadores humanos conseguem captar.

“A moderação humana é essencial, mas o número de moderadores é insuficiente e o trabalho é extremamente prejudicial para os profissionais,” conclui.

Respostas das Empresas de Tecnologia

Entramos em contato com as empresas mencionadas na série. Um porta-voz do TikTok declarou que a empresa reconhece a dificuldade do trabalho de moderação e se esforça para criar um ambiente de apoio para seus funcionários, oferecendo suporte clínico e programas para promover o bem-estar dos moderadores.

O TikTok também ressaltou que a maioria dos vídeos é analisada inicialmente por tecnologia automatizada, que remove uma quantidade significativa de conteúdo prejudicial.

A OpenAI afirmou reconhecer a importância do trabalho de moderadores humanos para treinar suas ferramentas, e que eles implementam políticas de bem-estar para proteger suas equipes. A Meta revelou que exige que seus parceiros ofereçam apoio contínuo com profissionais capacitados, assegurando que moderadores possam ajustar suas ferramentas para desfocar imagens delicadas.

Eduardo Azevedo

Visuailzer co-founder

Desenvolvedor com mais de 15 anos de experiência. Especialista em automações utilizando Inteligência Artificial, também atua em DevOps e Infraestrutura, desenvolvendo soluções inovadoras para otimizar processos e melhorar a eficiência de sistemas empresariais

Veja Também

  • All Posts
    •   Back
    • Inteligência Artificial
    • Negócios
    • Produtividade
    • Tecnologia
    • Política

Assuntos Relacionados

  • All Posts
  • Dicas e Tutoriais
  • Notícias
    •   Back
    • Inteligência Artificial
    • Negócios
    • Produtividade
    • Tecnologia
    • Política