Nvidia registra lucros de mais de US$ 19 bilhões no último trimestre
A Nvidia anunciou recentemente que obteve mais de US$ 19 bilhões em lucros líquidos durante o último trimestre, mas isso não foi suficiente para tranquilizar os investidores quanto à continuidade do seu crescimento acelerado. Durante uma teleconferência sobre os resultados financeiros, os analistas questionaram o CEO Jensen Huang sobre como a Nvidia se adaptará caso as empresas de tecnologia comecem a adotar novos métodos para aprimorar seus modelos de inteligência artificial (IA).
Métodos emergentes de IA aquecem o debate
Um dos métodos que gerou bastante discussão foi o modelo o1 da OpenAI, também conhecido como “test-time scaling”. Esse conceito propõe que os modelos de IA podem fornecer respostas melhores se forem dados mais tempo e poder computacional para “pensar” sobre as perguntas. Especificamente, esse método adiciona mais capacidade computacional à fase de inferência da IA, que é tudo o que ocorre depois que um usuário pressiona enter em seu comando.
A visão do CEO da Nvidia
Huang foi questionado pelos investidores se estava observando uma mudança dos desenvolvedores de modelos de IA para esses novos métodos, e como os chips mais antigos da Nvidia se adaptariam à inferência de IA. O executivo enfatizou que o modelo o1 e o conceito de test-time scaling, de forma mais ampla, poderão desempenhar um papel significativo nos negócios da Nvidia no futuro, chamando-o de “um dos desenvolvimentos mais empolgantes” e “uma nova lei de escalonamento”.
“Estamos bem posicionados para a mudança,” afirmou Huang.
Interação com líderes da indústria
As declarações de Huang estavam alinhadas com o que o CEO da Microsoft, Satya Nadella, disse em um evento da empresa: o modelo o1 representa uma nova forma da indústria de IA melhorar seus modelos. Isso é significativo para a indústria de chips, pois enfatiza mais a inferência de IA. Embora os chips da Nvidia sejam o padrão de ouro para o treinamento de modelos de IA, há uma crescente competição com startups bem financiadas que estão criando chips de inferência ultra-rápidos, como Groq e Cerebras.
O futuro da inferência de IA
Apesar dos relatos recentes de que as melhorias em modelos generativos estão desacelerando, Huang tranquilizou os analistas, afirmando que os desenvolvedores ainda estão aprimorando seus modelos ao aumentar os recursos computacionais e dados durante a fase de pré-treinamento.
O CEO da Anthropic, Dario Amodei, também comentou durante uma entrevista no Cerebral Valley Summit em San Francisco que não está percebendo uma desaceleração no desenvolvimento de modelos.
“A escalabilidade do pré-treinamento de modelos fundamentais está intacta e continua,” disse Huang.
A confiança dos investidores e a concorrência no setor
Esta é, sem dúvida, a mensagem que os investidores da Nvidia queriam ouvir, uma vez que as ações da fabricante de chips dispararam mais de 180% em 2024, impulsionadas pela venda de chips de IA que empresas como OpenAI, Google e Meta utilizam para treinar seus modelos. No entanto, parceiros da Andreessen Horowitz e vários outros executivos de IA já alertaram anteriormente que esses métodos estão começando a mostrar retornos decrescentes.
A evolução da Nvidia
Huang observou que a maior parte das cargas de trabalho computacionais da Nvidia atualmente se concentra no pré-treinamento de modelos de IA — não na inferência. Porém, ele atribui isso mais ao estado atual do mundo da IA. O CEO acredita que um dia haverá mais usuários executando modelos de IA, levando a um aumento na inferência de IA. Huang ressaltou que a Nvidia é a maior plataforma de inferência do mundo e que a escala e a confiabilidade da empresa proporcionam uma enorme vantagem em comparação com startups.
“Esperamos que um dia o mundo faça uma tonelada de inferência, e é nesse momento que a IA realmente terá sucesso,” declarou Huang.
Huang concluiu: “Todos sabem que, se inovarem em cima de CUDA e da arquitetura da Nvidia, poderão inovar mais rapidamente, e sabem que tudo deve funcionar.”