ChatGPT Congela ao Mencionar David Mayer

ChatGPT Congela ao Mencionar David Mayer

Nota: As imagens são meramente ilustrativas e, em sua maioria, geradas pelo MidJourney.

Descoberta Curiosa no ChatGPT: Nome de David Mayer Gera Congelamento

Usuários da plataforma de IA conversacional ChatGPT descobriram um fenômeno intrigante durante o último fim de semana: o popular chatbot recusa-se a responder perguntas quando se trata do nome “David Mayer”. Quando questionado sobre isso, o chatbot simplesmente congela. O que se seguiu foram teorias da conspiração, mas uma explicação mais comum pode estar por trás desse comportamento estranho.

A notícia se espalhou rapidamente, fazendo com que cada vez mais pessoas tentassem fazer o serviço reconhecer o nome. Sem sucesso: cada tentativa de fazer o ChatGPT soletrar esse nome específico resulta em falhas ou até mesmo interrupções abruptas durante a pronúncia.

“Não consigo produzir uma resposta”, afirma, se é que diz algo.

Mas o que começou como uma curiosidade isolada logo se expandiu, à medida que as pessoas descobriram que não era apenas David Mayer que o ChatGPT não consegue nomear.

Outros nomes que também causam pane no serviço incluem: Brian Hood, Jonathan Turley, Jonathan Zittrain, David Faber e Guido Scorza. (Sem dúvida, mais nomes foram descobertos desde então, portanto esta lista não é exaustiva.)

Quem São Esses Nomes?

Quem são esses homens? E por que o ChatGPT parece ter aversão a eles? A OpenAI não respondeu a repetidas indagações, então nos resta juntar as peças do quebra-cabeça da melhor forma possível.

Alguns desses nomes podem pertencer a qualquer número de pessoas, mas logo se descobriu um fio de conexão: são figuras públicas ou semi-públicas que podem ter preferido que certas informações fossem “esquecidas” pelos motores de busca ou pelos modelos de IA.

Brian Hood, por exemplo, imediatamente se destaca porque, se for o mesmo, escrevi sobre ele no ano passado aqui. Hood, um prefeito australiano, acusou o ChatGPT de descrevê-lo falsamente como o autor de um crime de décadas atrás que, na verdade, ele havia denunciado.

Apesar de seus advogados terem contatado a OpenAI, nenhuma ação judicial foi movida. Como ele disse ao Sydney Morning Herald no início deste ano: “O material ofensivo foi removido e eles lançaram a versão 4, substituindo a versão 3.5.”

O Que Pode Estar Acontecendo?

No que diz respeito aos proeminentes donos dos outros nomes, David Faber é um repórter de longa data da CNBC. Jonathan Turley é advogado e comentarista da Fox News, que foi “swatted” (ou seja, uma falsa chamada ao 911 enviou a polícia armada para sua casa) no final de 2023. Jonathan Zittrain também é um especialista legal que falou extensivamente sobre o “direito de ser esquecido”. E Guido Scorza está no conselho da Autoridade de Proteção de Dados da Itália.

Não estão exatamente na mesma linha de trabalho, mas não é uma seleção aleatória. Cada uma dessas pessoas é alguém que, por alguma razão, pode ter solicitado formalmente que informações sobre elas online fossem restringidas de alguma forma.

Voltando ao caso de David Mayer, não há advogado, jornalista, prefeito ou qualquer pessoa notável com esse nome que alguém consiga encontrar (com desculpas aos muitos David Mayers respeitáveis por aí).

No entanto, havia um Professor David Mayer, que lecionou drama e história, especializando-se nas conexões entre o final da era vitoriana e o início do cinema. Mayer faleceu no verão de 2023, aos 94 anos. Por muitos anos antes disso, o acadêmico britânico-americano enfrentou problemas legais e online por ter seu nome associado a um criminoso procurado que usava o nome como pseudônimo, a ponto de ser incapaz de viajar.

Mayer lutou continuamente para desassociar seu nome do terrorista de um braço só, mesmo enquanto continuava a ensinar até seus últimos anos.

Reflexões Finais

Então, o que podemos concluir com tudo isso? Sem uma explicação oficial da OpenAI, nossa suposição é que o modelo absorveu uma lista de pessoas cujos nomes exigem um tratamento especial. Seja devido a questões legais, de segurança ou privacidade, esses nomes provavelmente têm regras especiais, assim como muitos outros nomes e identidades.

Por exemplo, o ChatGPT pode alterar sua resposta quando você pergunta sobre um candidato político, após associar o nome que você escreveu a uma lista correspondente.

Existem muitas dessas regras especiais, e cada solicitação passa por várias formas de processamento antes de ser respondida. Contudo, essas regras de pós-processamento raramente são divulgadas ao público, exceto em anúncios de política, como: “o modelo não preverá resultados eleitorais para qualquer candidato a cargo público”.

O que provavelmente ocorreu foi que uma dessas listas, que são quase certamente mantidas ou atualizadas automaticamente, foi de alguma forma corrompida com um código defeituoso que, ao ser acionado, fez o agente de chat congelar. Para ser claro, isto é apenas nossa especulação com base no que aprendemos, mas não seria a primeira vez que uma IA agiu de forma estranha devido a orientações pós-treinamento que não foram bem aplicadas.

Como costuma ocorrer com essas situações, o princípio de Hanlon se aplica: não atribua à malícia (ou conspiração) o que pode ser explicado adequadamente pela estupidez (ou erro de sintaxe).

Todo esse drama é um lembrete útil de que esses modelos de IA não são mágica. Eles são autocompletar extremamente sofisticados, monitorados e interferidos ativamente pelas empresas que os desenvolvem. Da próxima vez que você pensar em obter informações de um chatbot, considere se pode ser melhor ir direto à fonte.

Eduardo Azevedo

Visuailzer co-founder

Desenvolvedor com mais de 15 anos de experiência. Especialista em automações utilizando Inteligência Artificial, também atua em DevOps e Infraestrutura, desenvolvendo soluções inovadoras para otimizar processos e melhorar a eficiência de sistemas empresariais

Veja Também

  • All Posts
    •   Back
    • Inteligência Artificial
    • Negócios
    • Produtividade
    • Tecnologia
    • Política

Assuntos Relacionados

  • All Posts
  • Dicas e Tutoriais
  • Notícias
    •   Back
    • Inteligência Artificial
    • Negócios
    • Produtividade
    • Tecnologia
    • Política