A AI Generativa: Magia ou Trabalho Humano?
A inteligência artificial generativa pode parecer mágica, mas por trás do desenvolvimento desses sistemas, existem verdadeiros exércitos de funcionários em empresas como Google, OpenAI e outras. Chamados de “engenheiros de prompts” e analistas, esses profissionais avaliam a precisão das respostas dos chatbots para melhorar suas capacidades.
No entanto, uma nova diretriz interna repassada pelo Google para os contratados que trabalham no projeto Gemini, documentada pelo Techcrunch, gerou preocupações de que o Gemini poderia ser mais suscetível a gerar informações imprecisas sobre tópicos altamente sensíveis, como saúde, para o público em geral.
Avaliação de Respostas AI
Para aprimorar o Gemini, os contratados que trabalham com a GlobalLogic, uma empresa de outsourcing pertencente à Hitachi, são frequentemente solicitados a avaliar as respostas geradas pela inteligência artificial com base em fatores como a “veracidade”.
Até recentemente, esses contratados podiam “pular” certos prompts, ou seja, podiam optar por não avaliar várias respostas geradas pela IA se o pedido estivesse muito fora de sua área de especialização. Por exemplo, um contratado poderia pular uma solicitação que fizesse uma pergunta técnica sobre cardiologia, pois não tinha formação científica.
Mudança nas Diretrizes
Na semana passada, a GlobalLogic anunciou uma mudança vinda do Google, informando que os contratados não podem mais pular esses prompts, independentemente de sua experiência na área.
A correspondência interna vista pelo Techcrunch mostra que, anteriormente, as diretrizes diziam: “Se você não possui uma expertise crítica (por exemplo, programação, matemática) para avaliar este prompt, por favor, pule esta tarefa.” Agora, as novas diretrizes afirmam: “Você não deve pular prompts que exigem conhecimento especializado.” Em vez disso, os contratados devem “avaliar as partes do prompt que entendem” e incluir uma nota informando que não possuem conhecimento na área.
Isso gerou preocupações diretas sobre a precisão do Gemini em certos tópicos, já que os contratados às vezes são encarregados de avaliar respostas técnicas sobre questões como doenças raras, nas quais não possuem formação.
“Eu pensei que a intenção de pular era aumentar a precisão ao passar para alguém que entende mais?” comentou um contratado em correspondência interna, conforme reportado pelo Visualizer.
Novas Restrições de Avaliação
Agora, os contratados só podem pular prompts em duas situações: se estiverem “completamente faltando informações”, como o prompt ou resposta completa, ou se contiverem conteúdo prejudicial que requer formulários de consentimento especiais para serem avaliados, conforme indicam as novas diretrizes.
Até o fechamento dessa matéria, o Google não respondeu aos pedidos de comentários do Techcrunch.