Google Lança Modelo de IA para Identificar Emoções

Google apresenta novo modelo de IA com capacidade de "identificar" emoções

Nota: As imagens são meramente ilustrativas e, em sua maioria, geradas pelo MidJourney.

Google apresenta novo modelo de IA com capacidade de “identificar” emoções

A Google revelou, na última quinta-feira, a nova família de modelos de IA PaliGemma 2, que possui uma característica curiosa: a capacidade de “identificar” emoções. Esses modelos podem analisar imagens, permitindo que a IA gere legendas e responda a perguntas sobre as pessoas que “vê” nas fotos.

“PaliGemma 2 gera legendas detalhadas e contextualmente relevantes para as imagens”, informou a Google em um post no blog compartilhado com a TechCrunch. “Esse modelo vai além da simples identificação de objetos, descrevendo ações, emoções e a narrativa geral da cena.”

Como funciona o PaliGemma 2

O PaliGemma 2 é baseado no conjunto de modelos abertos Gemma da Google, mais especificamente, na série Gemma 2.

No entanto, a identificação de emoções não funciona automaticamente; o PaliGemma 2 precisa ser ajustado para essa finalidade. Apesar disso, especialistas ouvidos pela TechCrunch expressaram preocupação com a possibilidade de um detector de emoções disponível ao público.

“Isso é muito preocupante para mim”, disse Sandra Wachter, professora de ética de dados e IA no Oxford Internet Institute, à TechCrunch. “Acho problemático supor que podemos ‘ler’ as emoções das pessoas. É como perguntar a uma Magic 8 Ball para dar conselhos.”

O desafio da detecção de emoções

  • No decorrer dos anos, startups e gigantes da tecnologia tentaram construir IA que detectasse emoções.
  • Alguns alegam ter conseguido, mas a ciência permanece em bases empíricas frágeis.

A maioria dos detectores de emoções se baseia nos trabalhos iniciais de Paul Ekman, psicólogo que teorizou que os humanos compartilham seis emoções fundamentais: raiva, surpresa, nojo, prazer, medo e tristeza. Estudos subsequentes, no entanto, levantaram dúvidas sobre a hipótese de Ekman, demonstrando que existem diferenças significativas na forma como pessoas de diferentes origens expressam suas emoções.

“A detecção de emoções não é algo possível de forma geral, porque as pessoas vivenciam emoções de maneiras complexas”, afirmou Mike Cook, pesquisador da Queen Mary University especializado em IA, à TechCrunch. “Certamente, pensamos que podemos identificar o que os outros estão sentindo apenas ao observá-los. Muitas pessoas, ao longo dos anos, tentaram, como agências de espionagem ou empresas de marketing.”

Questões éticas e consequências práticas

A consequência preocupante é que sistemas que detectam emoções tendem a ser não confiáveis e tendenciosos, influenciados pelas suposições de seus criadores. Uma pesquisa do MIT de 2020 mostrou que modelos de análise facial poderiam desenvolver preferências não intencionais por determinadas expressões, como o sorriso. Trabalhos mais recentes sugerem que modelos de análise emocional atribuem emoções mais negativas a rostos de pessoas negras do que a rostos de pessoas brancas.

A Google afirma ter realizado “extensos testes” para avaliar os preconceitos demográficos no PaliGemma 2, encontrando “baixos níveis de toxicidade e profanidade” em comparação com padrões da indústria. No entanto, a empresa não divulgou a lista completa de benchmarks utilizados, nem indicou quais testes foram conduzidos.

Regulamentação e preocupações com o uso indevido

O único benchmark divulgado pela Google é o FairFace, um conjunto de milhares de fotos de pessoas. A empresa afirma que o PaliGemma 2 teve um bom desempenho no FairFace. No entanto, alguns pesquisadores criticaram essa métrica como um indicador de viés, observando que o FairFace representa apenas um número restrito de grupos raciais.

“Interpretar emoções é uma questão bastante subjetiva que vai além do uso de apoio visual e está profundamente embutida em contextos pessoais e culturais”, disse Heidy Khlaaf, cientista-chefe de IA no AI Now Institute. “A pesquisa mostrou que não podemos inferir emoções apenas a partir das características faciais.”

Os sistemas de detecção de emoções têm gerado controvérsia entre reguladores em outros países, que buscam limitar o uso dessa tecnologia em contextos de alto risco. O AI Act, uma importante peça da legislação de IA na UE, proíbe escolas e empregadores de implementarem detectores de emoções.

“Se essa chamada ‘identificação emocional’ for baseada em pressupostos pseudocientíficos, há implicações significativas em como essa capacidade pode ser usada, perpetuando e discriminando falsamente grupos marginalizados”, alertou Khlaaf.

Reflexões sobre inovação responsável

Questionada sobre os perigos do lançamento público do PaliGemma 2, uma porta-voz da Google afirmou que a empresa confia em seus testes para identificar danos representacionais relacionados a perguntas visuais e legendas. “Nós realizamos avaliações robustas dos modelos PaliGemma em relação à ética e à segurança, incluindo a segurança infantil e a segurança de conteúdo”, acrescentou.

No entanto, Wachter não está convencida de que isso seja suficiente. “A inovação responsável significa que você pensa nas consequências desde o primeiro dia em que entra no laboratório e continua a fazê-lo durante todo o ciclo de vida de um produto”, concluiu. “Posso pensar em inúmeras questões potenciais que podem levar a um futuro distópico, em que suas emoções determinam se você consegue um emprego, um empréstimo ou se é admitido na universidade.”

Eduardo Azevedo

Visuailzer co-founder

Desenvolvedor com mais de 15 anos de experiência. Especialista em automações utilizando Inteligência Artificial, também atua em DevOps e Infraestrutura, desenvolvendo soluções inovadoras para otimizar processos e melhorar a eficiência de sistemas empresariais

Veja Também

  • All Posts
    •   Back
    • Inteligência Artificial
    • Negócios
    • Produtividade
    • Tecnologia
    • Política

Assuntos Relacionados

  • All Posts
  • Dicas e Tutoriais
  • Notícias
    •   Back
    • Inteligência Artificial
    • Negócios
    • Produtividade
    • Tecnologia
    • Política