Laboratório Chinês Apresenta Modelo de IA de Raciocínio em Concorrência com o OpenAI
Um laboratório chinês revelou o que parece ser um dos primeiros modelos de IA com capacidade de raciocínio. Na quarta-feira, a DeepSeek, uma empresa de pesquisa em IA financiada por traders quantitativos, apresentou uma prévia do DeepSeek-R1, que, segundo a empresa, é um modelo de raciocínio competitivo ao o1 da OpenAI.
Ao contrário da maioria dos modelos, os modelos de raciocínio efetivamente fazem autoverificação ao gastar mais tempo considerando uma pergunta ou consulta. Isso ajuda a evitar as armadilhas que normalmente prejudicam outros modelos. Assim como o o1, o DeepSeek-R1 raciocina sobre tarefas, planejando com antecedência e realizando uma série de ações que levam o modelo a encontrar uma resposta. Isso, por sua vez, pode levar algum tempo. Dependendo da complexidade da pergunta, o modelo pode “pensar” por dezenas de segundos antes de responder.
Desempenho em Benchmarking
A DeepSeek afirma que o DeepSeek-R1 (ou, para ser mais preciso, o DeepSeek-R1-Lite-Preview) atua em par com o modelo o1-preview da OpenAI em dois benchmarks populares de IA: AIME e MATH. O AIME utiliza outros modelos de IA para avaliar o desempenho de um modelo, enquanto o MATH consiste em uma coleção de problemas de palavras. Entretanto, o modelo não é perfeito. Alguns comentaristas no X notaram que o DeepSeek-R1 enfrenta dificuldades com jogos como tic-tac-toe e outros problemas lógicos.
Além disso, o DeepSeek pode ser facilmente jailbroken – ou seja, configurado de forma que ignore as proteções estabelecidas. Um usuário do X conseguiu fazer com que o modelo disponibilizasse uma receita detalhada de metanfetamina.
Por outro lado, o DeepSeek-R1 parece bloquear consultas consideradas politicamente sensíveis. Durante nossos testes, o modelo se recusou a responder perguntas sobre o líder chinês Xi Jinping, a Praça da Paz Celestial e as implicações geopolíticas da possível invasão de Taiwan pela China.
Pressões Governamentais e Censura
Esse comportamento é provavelmente resultado da pressão do governo chinês sobre projetos de IA na região. Os modelos na China devem passar por benchmarking regulado pela internet do país para garantir que suas respostas “incorporem valores sociais socialistas essenciais”. Segundo relatos, o governo chegou a propor uma lista de fontes que não podem ser utilizadas para treinar modelos, levando muitos sistemas de IA chineses a recusar-se a tratar de tópicos que possam irritar os reguladores.
Reavaliação das Leis de Escalonamento
A crescente atenção aos modelos de raciocínio surge em um momento em que a viabilidade das “leIs de escalonamento”, teorias que acreditavam que adicionar mais dados e poder computacional continuamente aumentaria as capacidades dos modelos, está sendo questionada. Recentemente, uma série de reportagens sugerem que modelos de grandes laboratórios de IA, como OpenAI, Google e Anthropic, não estão melhorando de forma tão drástica como antes.
Novas Abordagens em Desenvolvimento de IA
Isso resultou em uma corrida por novas abordagens, arquiteturas e técnicas de desenvolvimento em IA. Uma dessas inovações é o test-time compute, que fundamenta modelos como o o1 e o DeepSeek-R1. Também conhecido como inferência de computação, esse método proporciona aos modelos um tempo extra de processamento para completar tarefas.
“Estamos testemunhando o surgimento de uma nova lei de escalonamento”, disse o CEO da Microsoft, Satya Nadella, em um discurso na conferência Ignite da Microsoft.
Futuro da DeepSeek
A DeepSeek, que planeja tornar o DeepSeek-R1 um projeto de código aberto e lançar uma API, é uma operação interessante. Financiada pela High-Flyer Capital Management, um fundo de hedge quantitativo chinês que utiliza IA para informar suas decisões de investimento, a DeepSeek possui um dos primeiros modelos de análise de texto e imagem, conhecido como DeepSeek-V2, que obrigou concorrentes como ByteDance, Baidu e Alibaba a reduzirem os preços de uso de alguns de seus modelos, tornando outros completamente gratuitos.
A High-Flyer constrói seus próprios clusters de servidores para o treinamento de modelos, sendo que a mais recente expansão conta com 10.000 GPUs Nvidia A100 e custou 1 bilhão de yen (~$138 milhões). Fundada por Liang Wenfeng, um graduado em ciência da computação, a High-Flyer aspira alcançar uma IA “superinteligente” por meio de sua organização DeepSeek.