China Lança IA para Concorrer com OpenAI

China Lança IA para Concorrer com OpenAI

Empresas chinesas lançam modelos de IA que competem com os da OpenAI As empresas da China seguem firmes na criação de modelos de inteligência artificial que desafiam as capacidades dos sistemas desenvolvidos pela OpenAI e por outras empresas de IA dos Estados Unidos. Esta semana, a MiniMax, uma startup apoiada pela Alibaba e pela Tencent, anunciou o lançamento de três novos modelos: MiniMax-Text-01, MiniMax-VL-01 e T2A-01-HD. A MiniMax já levantou cerca de 850 milhões de dólares em investimentos e atualmente é avaliada em mais de 2,5 bilhões de dólares. Detalhes dos novos modelos da MiniMax O MiniMax-Text-01 é um modelo focado apenas em texto, enquanto o MiniMax-VL-01 tem a capacidade de entender tanto imagens como textos. Já o T2A-01-HD é um gerador de áudio, especializado em transformar texto em fala. A MiniMax afirma que o MiniMax-Text-01, que possui 456 bilhões de parâmetros, supera modelos como o Gemini 2.0 Flash, lançado recentemente pelo Google, em benchmarks que avaliam a habilidade de modelos em resolver problemas matemáticos e responder perguntas factuais. Comparações e desempenho Os parâmetros de um modelo estão relacionados à sua capacidade de solucionar problemas, e geralmente, quanto mais parâmetros, melhor é a performance. No que diz respeito ao MiniMax-VL-01, a empresa informa que ele rivaliza o Claude 3.5 Sonnet, da Anthropic, em avaliações que exigem compreensão multimodal. Enquanto o MiniMax-VL-01 não supera o Gemini 2.0 Flash em muitos desses testes, os modelos GPT-4o da OpenAI e Llama 3.1 da Meta também sobressaem em várias avaliações. Inovações e características únicas Um ponto a destacar sobre o MiniMax-Text-01 é o seu extenso contexto. O contexto, ou janela de contexto de um modelo, se refere à quantidade de informação que ele pode processar antes de gerar uma resposta. Com uma janela de 4 milhões de tokens, o MiniMax-Text-01 pode analisar cerca de 3 milhões de palavras de uma vez — o equivalente a mais de cinco cópias de “Guerra e Paz”. Para efeito de comparação, isso representa aproximadamente 31 vezes o tamanho da janela de contexto dos modelos GPT-4o e Llama 3.1. O T2A-01-HD, por sua vez, é um gerador de áudio otimizado para criar fala sintética com opção de ajuste de cadência, tom e tenor em cerca de 17 idiomas, incluindo inglês e chinês. Além disso, ele consegue clonar uma voz a partir de apenas 10 segundos de gravação. Disponibilidade e restrições Embora os novos modelos da MiniMax sejam “abertamente” disponíveis, isso não significa que sejam totalmente livres. O MiniMax-Text-01 e o MiniMax-VL-01 não são verdadeiramente open source, pois a empresa não liberou os componentes necessários para recriá-los do zero. Além disso, eles estão sob licença restritiva da MiniMax, que proíbe o uso dos modelos para melhorar IA concorrentes e exige licenças especiais de plataformas com mais de 100 milhões de usuários ativos mensais. Controvérsias e implicações legais A MiniMax, fundada em 2021 por ex-funcionários da SenseTime, já teve seus produtos envolvidos em polêmicas. O aplicativo Talkie, que usa avatares de figuras públicas como Donald Trump e Taylor Swift, foi removido da App Store da Apple por razões “técnicas” não especificadas, e muitos desses indivíduos não deram consentimento para serem retratados. Recentemente, a MiniMax também enfrentou acusações de plágio, com a iQIYI, um serviço de streaming chinês, processando a empresa por alegadamente ter treinado seus modelos utilizando conteúdos protegidos por direitos autorais. Novas diretrizes do governo dos EUA Os novos modelos chegam em um momento em que a administração Biden está propondo restrições mais rigorosas para a exportação de tecnologia de IA para a China. As empresas chinesas já tinham limitações na compra de chips de IA avançados, mas as novas regras podem resultar em restrições ainda maiores para a aquisição de tecnologia de semicondutores. Na quarta-feira, a administração Biden anunciou medidas adicionais que visam impedir a exportação de chips sofisticados para a China. Com isso, fábricas de chips e empresas de embalagem que desejam exportar certos modelos estarão sujeitas a requisitos de licenciamento mais amplos, a menos que adotem maior rigor na supervisão das transações com clientes chineses. Opinião O avanço da MiniMax e o lançamento de seus novos modelos demonstram que a competição na área de IA está cada vez mais acirrada. No entanto, as questões de ética e legislação são cruciais. Como vimos, os modelos de IA não apenas transformam a tecnologia, mas também levantam questões importantes sobre direitos autorais e consentimento. O que se espera é uma discussão mais aberta e clara sobre como essas tecnologias devem ser regulamentadas e utilizadas no futuro.

Aumento nas inscrições e IA no recrutamento no Reino Unido

Aumento nas inscrições e IA no recrutamento no Reino Unido

Empregadores Enfrentam Aumento de Inscrições no Reino Unido De acordo com as estatísticas mais recentes, os empregadores estão sendo inundados por candidaturas a vagas. No Reino Unido, por exemplo, empresas que oferecem programas de treinamento para recém-formados receberam uma média de 140 candidaturas por vaga em 2024, o que representa um aumento de 59% em relação a 2023, segundo o Instituto dos Empregadores Estudantis. Apesar de algumas apreensões por parte de recrutadores, várias empresas estão recorrendo a plataformas de IA para ajudar nesse processo. Isso se torna ainda mais relevante com a geração Z, que agora já supera a população dos Millennials. Maki Alcança Financiamento Significativo A Maki, que oferece um agente de IA conversacional para entrevistas de emprego e triagem de candidatos, recentemente levantou $28,6 milhões em uma rodada de financiamento da Série A, liderada pela Blossom Capital do Reino Unido. Também participaram o DST Global e investidores já existentes como Frst, GFC, e Picus Capital. Anteriormente, a empresa já havia arrecadado €11 milhões em rodadas de financiamento anteriores. Os recursos serão utilizados para acelerar o roadmap de produtos, expandir para os EUA e aumentar a equipe. Como Funciona a Plataforma da Maki? Fundada em 2022 por Maxime Legardez, Paul-Louis Caylar e Benjamin Chino, a plataforma da Maki realiza entrevistas com os candidatos via voz, vídeo ou texto. A empresa afirma ter experimentado um crescimento superior a 300% em 2024, após conquistar contratos de contratação em mais de 50 mercados, com empresas como H&M, BNP Paribas, PwC, Deloitte, FIFA, Abercrombie e Capgemini. Além disso, afirma que sua plataforma pode agilizar o processo de contratação, melhorar a experiência dos candidatos e reduzir a rotatividade de funcionários. A Revolução da IA nas Entrevistas Os agentes baseados em IA da Maki conversam com os candidatos em linguagem natural e podem automatizar até 80% do processo, resultando em uma redução de 3 vezes no tempo de contratação. Em uma entrevista com a TechCrunch, Maxime Legardez, CEO da Maki, comentou: “Usamos IA para criar agentes que nossos clientes podem personalizar, replicando tarefas realizadas por humanos na recrutamento. Nossos agentes podem identificar, triagem, agendar e entrevistar candidatos.” Um dos agentes desenvolvidos para a H&M, chamado Maria, pode realizar ligações para os candidatos ou atuar como um avatar visual em chamadas de vídeo. Legardez explica: “Temos um avatar embutido com a Synthesia, o que proporciona uma experiência bastante visual. Ela pode falar 24/7 com candidatos em vários idiomas, realizando conversas de 5, 10 ou 15 minutos para avaliar centenas de habilidades”. Um Processo de Recrutamento Diferente Legardez destacou que, se isso parece impessoal, está longe de ser. Quando um candidato é rejeitado, recebe um feedback personalizado e dicas para melhorar suas chances na próxima vez, tornando-o também um bom embaixador da marca. Ele ainda disse: “98% dos candidatos da BNP Paribas afirmam que este é o melhor processo de recrutamento de suas vidas, aumentando sua disposição para se juntar ao banco.” A Importância da Diversidade Apesar do que se fala sobre a morte da Diversidade, Equidade e Inclusão (DEI), Legardez revelou que a Maki apresenta menos viés que humanos: “Fomos auditados pelo estado de Nova York e comprovou-se que nossa IA gera menos viés racial, de gênero e idade. Quanto mais dados temos, melhor podemos calibrá-la.” Será que a contratação com IA realmente levará a uma força de trabalho mais diversa no futuro? Concorrência e Futuro da Maki A Maki enfrenta concorrência de empresas como SHL, EON, Pymetrics e Saville, além de Recruit CRM, BrainTrust, Recruitee e Manatal. No entanto, Legardez afirma que a Maki se diferencia por não oferecer apenas software tradicional de RH, mas sim “trabalhando por meio de nossos agentes, automatizando o trabalho humano”. Em uma declaração, Ophelia Brown, sócia da Blossom Capital, disse: “Acreditamos que os agentes da Maki têm o potencial de permitir que grandes organizações alcancem um novo nível de eficiência e tomada de decisão, redefinindo como o RH impulsiona o sucesso dos negócios.” Essa captação de recursos entra em uma tendência crescente, especialmente hoje, com o lançamento de um novo produto de IA do LinkedIn chamado Jobs Match, que oferece conselhos imediatos sobre a viabilidade de candidatar-se a vagas específicas. Conclusão É impressionante como a tecnologia de IA está transformando o recrutamento e aumentando a concorrência por vagas de emprego. Com a Maki liderando o caminho, podemos esperar que a contratação de talentos se torne não apenas mais eficiente, mas também mais inclusiva. Será que em breve veremos mais empresas optando por ferramentas de IA? Acompanhe as novidades! .

OpenAI Facilita Cadastro no ChatGPT pelo Telefone

OpenAI Facilita Cadastro no ChatGPT pelo Telefone

OpenAI Permite Cadastro no ChatGPT Usando Apenas Número de Telefone A OpenAI iniciou os testes de uma nova funcionalidade que permite a novos usuários do ChatGPT se registrarem apenas com um número de telefone, sem a necessidade de um e-mail. Essa novidade foi identificada pelo engenheiro de software Tibor Blaho e está disponível em fase beta nos EUA e na Índia. Como Funciona o Cadastro Com essa nova opção, os usuários podem criar uma conta na plataforma de chatbot da OpenAI fornecendo apenas seu número de telefone. No entanto, existem algumas restrições importantes: Usuários que se inscrevem usando um número não podem mudar para um dos planos pagos da OpenAI, como o ChatGPT Plus ou o ChatGPT Pro, sem verificar a conta via e-mail. A autenticação de múltiplos fatores também não é suportada sem um e-mail válido. Uma vez que um número é usado para criar uma conta, ele fica bloqueado de ser utilizado para novas contas. A OpenAI explicou que reutilizar ou reciclar números de telefone pode causar erros e que, atualmente, não há solução alternativa. “Você precisaria entrar em contato com o suporte ou aguardar até uma atualização futura do sistema, prevista para 2025, que pode resolver essa questão,” disse a empresa em uma nova sessão de perguntas e respostas em seu site. Expansão e Novos Recursos A OpenAI não tem planos de expandir o cadastro por telefone para outras regiões. A empresa busca maneiras de aumentar seu alcance, especialmente possibilitando o uso do ChatGPT a um número maior de pessoas. Em dezembro, a OpenAI lançou uma experiência que permite a usuários nos EUA interagir com o ChatGPT por telefone gratuitamente durante 15 minutos mensais. Além disso, a OpenAI integrou o ChatGPT ao WhatsApp, embora com funcionalidades limitadas e um número restrito de interações por dia. Crescimento e Finanças Atualmente, o ChatGPT conta com mais de 300 milhões de usuários semanais, contribuindo com bilhões para os cofres da empresa. De acordo com a CNBC, a OpenAI espera uma receita de $3,7 bilhões em 2024. No entanto, a companhia ainda está longe de ser lucrativa. Apesar de ter levantado mais de $6,6 bilhões apenas no ano passado, a OpenAI reportou uma perda de $5 bilhões no ano fiscal de 2024, devido a despesas como aluguel de escritório, contratação de pessoal e infraestrutura de treinamento de IA. A empresa está considerando aumentar o preço de suas assinaturas, uma vez que o CEO Sam Altman afirmou que a OpenAI está perdendo dinheiro com seu plano mais caro. Considerações Finais A nova funcionalidade de cadastro com telefone apresenta um passo interessante para facilitar o acesso ao ChatGPT, mas as restrições ainda podem ser um obstáculo para muitos usuários. Além de expandir sua base de clientes, a OpenAI precisa encontrar um equilíbrio para se tornar lucrativa sem comprometer a experiência do usuário.

Rockfish Revoluciona o Mercado com Dados Sintéticos

Rockfish Revoluciona o Mercado com Dados Sintéticos

A Rockfish e a Revolução dos Dados Sintéticos Nos últimos anos, Vyas Sekar costumava ligar para seu amigo Muckai Girish, da época da faculdade, para discutir possíveis ideias de startups. Geralmente, as conversas terminavam sem muito mais. No entanto, quando Sekar ligou para Girish no início de 2022 com uma ideia sobre dados sintéticos, a conversa tomou outro rumo. Sekar e sua colega da Universidade Carnegie Mellon, Giulia Fanti, estavam empenhados em criar dados sintéticos para solucionar a crise de reprodutibilidade na academia. Enquanto Sekar via essa necessidade no meio acadêmico, Girish percebia que seus clientes enfrentavam o mesmo problema. Conversando com algumas empresas, a ideia foi rapidamente validada. “Naquele momento, parecia que era uma oportunidade real”, afirmou Girish, o CEO, em entrevista ao TechCrunch. “Foi isso que nos motivou. Nos meses seguintes, falamos com investidores e, mais importante, com empresas, e percebemos que esse era um problema significativo e que valia a pena dedicar nossas vidas a ele.” Assim nasceu a Rockfish, uma startup que utiliza IA generativa para criar dados sintéticos, ajudando empresas a integrar seus dados e quebrar silos informacionais. A Rockfish se conecta a provedores de banco de dados como AWS e Azure, auxiliando os usuários a escolher a melhor configuração de dados, levando em conta as políticas da empresa. Crescimento da Demanda por Dados Sintéticos Nos últimos tempos, os dados sintéticos vêm ganhando cada vez mais destaque no universo da IA. Quando a empresa foi lançada em junho de 2022, já havia uma crescente demanda nesse setor. Segundo Girish, a Rockfish queria garantir que seu produto se destacasse no mercado e se tornasse uma solução que as empresas utilizariam diariamente, não apenas ocasionalmente. Por esse motivo, o produto da Rockfish foi projetado para processar dados de maneira incessante, focando em informações operacionais. Esses dados incluem transações financeiras, cibersegurança e cadeias de suprimentos, que estão sempre em fluxo e mudam constantemente. Girish acredita que essa abordagem ajuda a Rockfish a se diferenciar dos concorrentes. No momento, a Rockfish já trabalha com várias empresas, incluindo a Conviva, uma plataforma de análise de streaming, além de departamentos governamentais como o Exército dos EUA e o Departamento de Defesa dos EUA. Investimento e Futuro da Rockfish Recentemente, a Rockfish anunciou uma rodada de investimento de US$ 4 milhões, liderada pela Emergent Ventures, com participação da Foster Ventures, TEN13 e Dallas VC. Com isso, a empresa já contabiliza cerca de US$ 6 milhões em investimentos totais. Anupam Rastogi, sócio-gerente da Emergent Ventures, disse ao TechCrunch que acompanhava Sekar desde antes da fundação da Rockfish. Para ele, a decisão de investir se baseou em “equipe, mercado e produto, nessa ordem”. Ele comentou que o foco da Rockfish em construir soluções para empresas a tornava uma escolha ideal para a Emergent. “A equipe é composta por cientistas de dados de altíssima qualidade, com vários PhDs”, disse Rastogi. “Este é um campo que consideramos muito tecnicamente sofisticado, e ter essa força técnica ao redor da mesa é fundamental. Eles já realizaram um grande trabalho fundamental no setor, não apenas na empresa, mas em toda a indústria.” Futuro Concorrente no Mercado de Dados Sintéticos A Rockfish espera que seu foco ajude a criar uma vantagem competitiva, mas é inegável que o mercado de dados sintéticos provavelmente ficará cada vez mais saturado. Muitas empresas de IA estão se voltando para dados sintéticos à medida que a concorrência aumenta. Já existem várias startups nesse espaço, como a Tonic AI, que levantou mais de US$ 45 milhões, e a Mostly AI, que obteve US$ 31 milhões em investimentos. Girish comentou que a Rockfish planeja aprimorar sua abordagem sobre dados sintéticos, integrando outros tipos de modelos, como modelos espaciais. A intenção é melhorar ainda mais suas funcionalidades de ponta a ponta. “Não se trata apenas de pegar dados aleatórios da internet e gerar dados sintéticos”, explicou Girish. “Não há garantia de que funcionará bem. Mas se você juntar tudo isso para as empresas, é realmente relevante e realista. Essa é a chave e fazer isso de maneira constante é o que consideramos útil.” Considerações Finais Com a Rockfish se destacando em um espaço competitivo, é interessante observar como a startup irá se posicionar à medida que o mercado de dados sintéticos se expande. Será que seu foco em soluções operacionais e integração constante realmente a ajudará a se destacar? Vamos acompanhar de perto os próximos passos dessa empresa que já demonstra grande potencial.

Microsoft Lança Copilot Chat com Pagamento por Uso

Microsoft Lança Copilot Chat com Pagamento por Uso

Microsoft Lança Plano Flexível de AI para Clientes Corporativos A Microsoft acaba de anunciar um plano de pagamento por uso para seus clientes corporativos. Esse novo modelo agrupa diversas, mas não todas, as funcionalidades de produtividade com foco em inteligência artificial do Microsoft 365. O plano, chamado Copilot Chat, não deve ser confundido com o Copilot Business Chat ou o GitHub Copilot Chat. Ele utiliza o modelo de IA GPT-4o da OpenAI, permitindo que os usuários façam perguntas relacionadas a negócios, construam automações de fluxo de trabalho e até gerem imagens. Recursos e Preços do Copilot Chat Todas essas funcionalidades estavam disponíveis no Microsoft 365 Copilot, a extensão de IA empresarial da Microsoft. No entanto, o preço do 365 Copilot é fixo, custando $30 por usuário ao mês. “O Copilot Chat … adiciona serviços de pagamento por uso à nossa experiência de chat gratuita para clientes comerciais do Microsoft 365” — disse a Microsoft em um post de blog. A nova experiência do Copilot Chat está integrada no aplicativo Microsoft 365 Copilot, que é a versão renomeada do aplicativo do Microsoft 365. Por meio do aplicativo, os usuários podem solicitar que o Copilot, a experiência de chatbot da Microsoft sobre o GPT-4o, resuma pontos-chave de um arquivo enviado, elabore documentos de trabalho ou crie imagens geradas por IA. Além disso, a colaboração em projetos com colegas e IA é facilitada pela ferramenta Copilot Pages. Automação de Tarefas e Recursos Disponíveis A Microsoft está destacando especialmente a função de automação de tarefas do Copilot Chat, que é descrita como “agencial”. Usando o aplicativo Microsoft 365 Copilot, os usuários do Copilot Chat podem ativar “agentes” para automatizar tarefas básicas, como fornecer detalhes de contas antes de uma reunião de vendas ou enviar instruções a um trabalhador de campo. Os administradores de TI têm a opção de criar agentes para toda a organização, gerenciando seu uso e acesso. Os preços desses agentes serão cobrados com base no uso, mas a Microsoft não divulgou mais detalhes sobre isso até o momento. Prometemos atualizar esta matéria assim que tivermos mais informações. Limitações e Objetivos da Microsoft No entanto, o plano Copilot Chat não inclui muitos recursos que estão disponíveis no Microsoft 365 Copilot, como agentes pré-configurados ou capacidades de IA para aplicações como Microsoft Teams, Outlook, Word, Excel e PowerPoint. Os usuários do Copilot Chat também não terão acesso às opções de personalização que são oferecidas aos assinantes do Microsoft 365 Copilot, nem ao Copilot Analytics, ferramenta que mede o uso de IA na empresa. Parece evidente que o Copilot Chat é uma tentativa da Microsoft de convencer as empresas que ainda não adotaram o Microsoft 365 Copilot, oferecendo funcionalidades de automação por uso, enquanto busca gerar receita adicional de clientes com necessidades de IA menos complexas. Por outro lado, o Microsoft 365 Copilot não tem sido um sucesso retumbante para a gigante da tecnologia. Segundo o Business Insider, o Copilot, que a Microsoft afirma estar sendo utilizado por quase 70% das empresas da Fortune 500, tem se mostrado ineficiente e caro para muitas organizações. De acordo com uma pesquisa da Gartner, apenas 3,3% dos líderes de TI consideram que o Copilot trouxe valor significativo para as suas empresas. Pontos Finais sobre o Futuro da IA na Microsoft Em um memo interno recente, o CEO da Microsoft, Satya Nadella, afirmou que o foco da empresa em 2025 será em “aplicativos baseados em modelos de IA” que irão “reestruturar todas as categorias de aplicativos.” Na sua visão, há um grande potencial à frente, e ele destaca os aprendizados obtidos ao longo dos últimos dois anos. Olhando para o futuro, será interessante observar como essa nova abordagem da Microsoft irá impactar a experiência dos usuários e o mercado, especialmente em um cenário já repleto de ferramentas de IA.

Nvidia Investe em Robótica e IA com a Startup MetAI

Nvidia Investe em Robótica e IA com a Startup MetAI

Nvidia Investindo em Robótica e IA com MetAI A Nvidia tem apostado forte na construção de aplicações de IA industrial e robótica. Recentemente, lançou sua plataforma Omniverse e o Mega, um framework do Omniverse Blueprint que permite criar gêmeos digitais para operar essas aplicações. Além disso, a empresa está investindo em startups de gêmeos digitais para dar um impulso em seus projetos. O Avanço da MetAI A startup taiwanesa MetAI desenvolveu um modelo capaz de criar gêmeos digitais prontos para simulação, ou “SimReady”, utilizando inteligência artificial e tecnologia 3D. Esse processo transforma arquivos CAD em ambientes 3D funcionais em questão de minutos. Agora, a Nvidia está apoiando a MetAI em sua primeira rodada de financiamento, que totaliza US$ 4 milhões. Essa é a primeira vez que a gigante dos chips investe em uma startup de Taiwan. Outros investidores incluem Kenmec Mechanical Engineering, Solomo Technology, SparkLabs Taiwan, Addin Ventures e Upstream Ventures. A Nova Onda da IA A próxima fase da IA, chamada de IA física generativa, depende de ambientes simulados precisos para treinar e validar robôs em sistemas autônomos, essencial para criar IA operacional antes da implementação. A MetAI acredita que os gêmeos digitais que ajuda a criar serão fundamentais nesse processo. “Os gêmeos digitais foram vistos como uma barreira de entrada para IA física devido aos meses, até anos, necessários para seu desenvolvimento,” comentou Daniel Yu, CEO e cofundador da MetAI, em uma entrevista. Diferenciação no Mercado A MetAI foca em gêmeos digitais impulsionados por IA, especialmente para fábricas de semicondutores, armazéns inteligentes e automação. A empresa também gera dados sintéticos em ambientes de gêmeos digitais habilitados para IA. Renton Hsu, cofundador e CTO da MetAI, possui um histórico em engenharia 3D e IA. Ele começou a trabalhar com gêmeos digitais ao desenvolver aplicações de software de IA para empresas, onde encontrava soluções para clientes que não tinham dados suficientes para treinar seus sistemas. Assim, percebeu que poderia integrar tecnologia 3D com IA para criar soluções sintéticas. Inovação Reconhecida A MetAI ganhou destaque ao vencer uma competição realizada pela Nvidia, tornando Hsu um “embaixador da IA Jetson” no país. No entanto, a MetAI não está sozinha nesse espaço; enfrenta concorrentes de várias empresas, desde gigantes como Siemens e Dassault até startups focadas em dados sintéticos. Para se diferenciar, a MetAI destaca sua abordagem única. Ao invés de priorizar eficiência operacional ou integrações com IoT, a empresa utiliza modelos generativos e layouts impulsionados por IA para criar gêmeos digitais específicos para treinamento e implementação de IA física. Colaborações e Resultados Expectados Após dois anos de atividade, a startup já atende alguns clientes e está gerando receitas através de parcerias nas indústrias de manufatura e automação. A previsão é que, neste ano, a MetAI consiga um faturamento de US$ 3 milhões de um único projeto. “A integração da MetAI com o NVIDIA Omniverse representa um avanço transformador para gêmeos digitais industriais e IA física em simulações”, afirmou Nico Caprez, gerente de desenvolvimento corporativo da Nvidia. Em 2023, a MetAI colaborou com a Kenmec para criar gêmeos digitais para armazéns automatizados, reduzindo drasticamente o tempo necessário para simulações de gêmeos digitais de milhares de horas para apenas 3 minutos. Planos para o Futuro Com a nova rodada de investimentos, a MetAI planeja expandir sua equipe de pesquisa e desenvolvimento para acelerar o lançamento de suas estratégias de mercado. Além disso, a startup taiwanesa pretende abrir um escritório nos EUA e mudar sua sede na segunda metade de 2025. Daniel Yu destaca a importância de Taiwan como campo de testes, onde colabora com líderes da indústria para garantir que suas soluções sejam robustas e escaláveis. “Dada a sua dimensão e a demanda por soluções baseadas em simulação, estamos ampliando nosso mercado para os EUA, além de focar em oferecer soluções completas, incluindo SaaS e agentes de IA vertical”, afirmou Yu. Conclusão Com inovações promissoras e um suporte sólido da Nvidia, a MetAI está se posicionando como uma força crescente no campo da robótica e da inteligência artificial industrial. Seu foco em soluções eficientes e escaláveis pode mudar o jogo para muitos setores.

Meta Desafia OpenAI com Llama 3 e Questões Legais

Meta Desafia OpenAI com Llama 3 e Questões Legais

Meta em Foco: Concorrendo com OpenAI e Desafios Legais Recentemente, mensagens internas divulgadas por um tribunal revelaram que executivos e pesquisadores da Meta estavam obcecados em superar o modelo GPT-4 da OpenAI durante o desenvolvimento do Llama 3. Isso ocorreu em meio a um processo judicial sobre direitos autorais de IA, conhecido como Kadrey v. Meta. “Honestamente… Nosso objetivo precisa ser o GPT-4,” afirmou Ahmad Al-Dahle, VP de IA Generativa da Meta, em uma mensagem de outubro de 2023 destinada ao pesquisador Hugo Touvron. “Temos 64 mil GPUs a caminho! Precisamos aprender a construir a fronteira e vencer esta corrida.” Foco na Competitividade Ainda que a Meta lance modelos de IA abertos, os líderes da empresa estavam mais preocupados em vencer concorrentes que não costumam divulgar os pesos de seus modelos, como Anthropic e OpenAI, que os mantêm por trás de uma API. Executivos e pesquisadores da Meta elevaram o Claude da Anthropic e o GPT-4 da OpenAI como padrões de excelência a serem alcançados. A startup francesa de IA Mistral, um dos maiores concorrentes abertos da Meta, também foi mencionada várias vezes nas mensagens internas, mas com um tom desdenhoso. “Mistral é um troco para nós,” disse Al-Dahle em uma mensagem. “Deveríamos ser capazes de fazer melhor,” acrescentou. Pressão e Agilidade no Desenvolvimento Hoje, as empresas de tecnologia estão em uma corrida para superar umas às outras com modelos de IA de ponta. No entanto, esses documentos judiciais revelam o quão competitivos os líderes de IA da Meta realmente eram – e continuam a ser. Eles mencionaram em várias conversas sobre como estavam “muito agressivos” em obter os dados certos para treinar o Llama. Em um momento, um executivo chegou a afirmar que “Llama 3 é literalmente tudo o que me importa”, em uma mensagem enviada a colegas. Os promotores neste caso alegam que os executivos da Meta, em sua corrida para lançar modelos de IA, ocasionalmente cortaram caminhos, utilizando livros protegidos por direitos autorais no processo. Touvron observou em uma mensagem que a mistura de conjuntos de dados utilizada para o Llama 2 “era ruim” e comentou como a Meta poderia usar uma combinação melhor de fontes de dados para aprimorar o Llama 3. Ele e Al-Dahle discutiram a possibilidade de utilizar o conjunto de dados LibGen, que contém obras protegidas por direitos autorais, da Cengage Learning, Macmillan Learning, McGraw Hill e Pearson Education. Meta em Busca de Melhoria “Temos os conjuntos de dados certos lá?” perguntou Al-Dahle. “Há alguma coisa que você queria usar, mas não conseguiu por alguma razão estúpida?” Mark Zuckerberg, CEO da Meta, já afirmou que está tentando reduzir a diferença de desempenho entre os modelos de IA Llama e os fechados, como os da OpenAI e Google. As mensagens internas mostram a intensa pressão dentro da empresa para alcançar esse objetivo. “Este ano, o Llama 3 é competitivo com os modelos mais avançados e líder em algumas áreas,” disse Zuckerberg em uma carta de julho de 2024. “A partir do ano que vem, esperamos que os futuros modelos Llama se tornem os mais avançados do setor.” Lançamento do Llama 3 e Desafios Legais Quando a Meta lançou o Llama 3 em abril de 2024, o modelo de IA aberto se mostrou competitivo com os líderes fechados da Google, OpenAI e Anthropic, e superou opções abertas da Mistral. No entanto, os dados usados pela Meta para treinar seus modelos – que Zuckerberg supostamente autorizou a usar, apesar de seu status de direitos autorais – estão agora sob análise em várias ações judiciais em andamento. É interessante observar como a luta por inovações em IA pode gerar não apenas grandes avanços, mas também desafios éticos e legais. O que você acha dessa corrida? Será que o desempenho deve ser priorizado sobre a ética no desenvolvimento de IA?

ChatGPT Lança Agendamento de Tarefas

ChatGPT Lança Agendamento de Tarefas

Novos Recursos do ChatGPT: Agendamento de Lembretes Os usuários pagantes do ChatGPT da OpenAI agora podem solicitar que o assistente virtual agende lembretes e tarefas recorrentes. Essa nova funcionalidade em versão beta, chamada tasks, começará a ser disponibilizada para os usuários do ChatGPT Plus, Team e Pro ao redor do mundo nesta semana. Com tasks, é possível definir lembretes simples, como “Lembre-me quando meu passaporte vencer em seis meses”. O assistente irá enviar uma notificação no dispositivo onde a função estiver ativada. Além disso, os usuários poderão pedir solicitações recorrentes ao assistente, como “Toda sexta-feira, me dê um plano de fim de semana baseado na minha localização e nas previsões do tempo” ou “Me envie um resumo de notícias todos os dias às 7h”. A Evolução para Agentes de IA A nova função de tarefas parece ser o primeiro passo da OpenAI rumo a modelos de inteligência artificial que podem agir de forma mais independente, conhecidos como agentes de IA. O CEO da OpenAI, Sam Altman, afirmou que 2025 será um ano significativo para esses agentes, até mesmo mencionando que eles “farão parte do mercado de trabalho” este ano. Embora a funcionalidade de tasks seja uma versão limitada de um sistema autônomo, ela permite que os usuários agendem lembretes, algo que já era esperado de assistentes como Siri e Alexa. Como Funciona a Nova Função de Tarefas Os usuários podem acessar a função de tasks selecionando a opção “4o com tarefas agendadas” em um menu suspenso no ChatGPT. A partir daí, eles podem enviar mensagens ao assistente informando qual lembrete ou ação desejam criar. Em algumas ocasiões, o ChatGPT pode sugerir tarefas com base nas conversas anteriores. É possível gerenciar as tarefas ao conversar com o assistente em qualquer plataforma, ou através de uma aba de gerenciamento dedicada, que está disponível apenas na versão web do aplicativo. Pela nova funcionalidade, o ChatGPT pode navegar na web em um horário estabelecido, mas não fará buscas contínuas em segundo plano nem realizará compras. Por exemplo, você pode solicitar que o ChatGPT verifique ingressos para concertos da sua banda favorita uma vez por mês, mas não é possível pedir que o assistente alerte você assim que os ingressos forem liberados, nem que ele efetue a compra para você. O Futuro das Assistentes de IA A OpenAI afirma que está usando esse período beta para compreender melhor como as pessoas usam a função de tasks antes de torná-la amplamente disponível no aplicativo móvel e na versão gratuita do ChatGPT. Para este lançamento beta, a empresa avisa que não é possível agendar tarefas por meio do Advanced Voice Mode. Embora assistentes de IA baseados em modelos de linguagem tenham expandido o que os computadores podem fazer, ainda enfrentam dificuldades com tarefas simples que smartphones realizam. OpenAI, Google e outros desenvolvedores de modelos de IA têm se esforçado para encontrar soluções criativas para que seus assistentes consigam agendar temporizadores e criar lembretes. Com sistemas agentes mais avançados, surgem também aí potenciais complicações. A funcionalidade de tasks exibe um conjunto controlado de capacidades agentes, mas os sistemas de segurança da OpenAI podem ser colocados à prova nos próximos meses, conforme mais sistemas inteligentes independentes entram em operação. Considerações Finais A novidade do agendamento de lembretes e tarefas tem tudo para facilitar a vida dos usuários, mas também levanta questões sobre a segurança e o controle dessas novas tecnologias. Estamos dando passos importantes em direção a sistemas de IA mais autônomos, e é fundamental que continuemos a discutir e entender suas implicações.

Apple se une ao consórcio UALink para IA

Apple se une ao consórcio UALink para IA

Apple integra consórcio para desenvolver tecnologia de conexão de chips em data centers de IA A Apple se uniu a um consórcio chamado Ultra Accelerator Link Consortium, que está criando uma tecnologia de próxima geração para conectar chips em data centers de inteligência artificial. Esse consórcio desenvolve um padrão conhecido como UALink, destinado a conectar chips de aceleradores de IA encontrados em um número crescente de fazendas de servidores. A partir de terça-feira, a Apple passou a ser um membro do conselho do consórcio, ao lado da Alibaba e da empresa de semicondutores Synopsys. Novas oportunidades para a IA Rebeca Loop, diretora de arquitetura de plataformas da Apple, afirmou que o UALink “mostra grande potencial” para resolver os desafios de conectividade e para criar novas oportunidades de expansão das capacidades e demandas de IA. Segundo Loop, “a Apple possui um longo histórico de inovação e colaboração em tecnologias que impulsionam nossa indústria”. Ela também expressou entusiasmo em fazer parte do conselho do UALink. Objetivos do UALink O objetivo do UALink é interligar chips que vão desde GPUs até soluções personalizadas, a fim de acelerar o treinamento, o aperfeiçoamento e a execução de modelos de IA. Baseado em padrões abertos, como o Infinity Fabric da AMD, os primeiros produtos do UALink devem ser lançados nos próximos anos. Membros relevantes e sua ausência Entre os membros do consórcio UALink estão a Intel, AMD, Google, AWS, Microsoft e Meta. Curiosamente, a Nvidia, que é a maior produtora de aceleradores de IA, não faz parte do consórcio. Isso pode ser pela oferta da Nvidia de sua própria tecnologia de interconexão, o NVLink, que conecta chips dentro de um cluster de data centers. Foco em IA e infraestrutura A inclusão da Apple no UALink acontece em um momento em que a empresa está aumentando seus investimentos em infraestrutura para apoiar a Apple Intelligence, sua suíte de recursos de produtos baseados em IA. De acordo com o The Wall Street Journal, a Apple está desenvolvendo um novo chip de servidor para melhorar a eficiência de seus data centers de IA. Desafios e revisões Algumas capacidades da Apple Intelligence recebendo críticas mistas. Por exemplo, minha colega Sarah Perez descreveu-as como “entediantes e práticas”. Recentemente, a Apple anunciou que atualizaria um desses recursos, os alertas de notícias resumidos por IA, após usuários reportarem que viam manchetes imprecisas, incluindo uma alegação de que o tenista Rafael Nadal havia se assumido como gay.

Jovem Empreendedor Lança Empresa de Contabilidade com AI

Jovem Empreendedor Lança Empresa de Contabilidade com AI

Jovem Empreendedor Lança Nova Empresa de Contabilidade com AI Aos 24 anos, Pryce Yebesi já possui uma venda significativa em seu currículo: a venda de sua empresa de faturamento em criptomoedas, a Utopia Labs, para a Coinbase, embora o valor não tenha sido divulgado. Alguns fundadores têm talento para criar mais de uma empresa. Na última segunda-feira, Yebesi anunciou o lançamento de sua nova startup, a Open Ledger, que integra software de contabilidade automatizado em ferramentas já utilizadas por empresas de diferentes tamanhos. Ele conseguiu levantar $3 milhões em uma rodada de financiamento liderada pela Kindred Ventures e Blank Ventures. Insights da Utopia e Visão para o Futuro Yebesi contou que a ideia da Open Ledger surgiu enquanto ainda trabalhava na Utopia Labs, onde atuou como diretor de produto. Ele percebeu que muitas empresas ainda utilizavam softwares de contabilidade ultrapassados. “Quando desenvolvemos produtos de faturamento na Utopia, conseguimos economizar de 70 a 80% do tempo que nossos clientes gastavam com tarefas contábeis. Essa experiência me levou a perceber a necessidade de soluções de contabilidade mais integradas e flexíveis”, afirmou Yebesi à TechCrunch. Após a venda de sua empresa, Yebesi atuou como empreendedor residente na Universidade de Washington em St. Louis, onde colaborou com pequenas empresas e identificou que outros fundadores também enfrentavam problemas semelhantes com software contábil. Ele se uniu a Ashtyn Bell, que na época trabalhava com pesquisa em AI em uma firma de capital de risco e anteriormente liderou produto na Candy Digital, para criar a Open Ledger. Solução Avançada e Competitiva A Open Ledger oferece funcionalidades contábeis na forma de componentes embutidos, APIs e um banco de dados de livros contábeis. Isso permite a categorização, reconciliação e relatórios financeiros baseados em AI. Yebesi comentou: “Open Ledger agrega e orquestra cada fonte de dados para as empresas, permitindo que a IA execute funções contábeis com todo o contexto financeiro necessário.” Embora já existam competidores no mercado, como QuickBooks e outras startups como Layer e Teal, Yebesi destaca que a abordagem da Open Ledger é inovadora. “Reimaginamos a camada de dados das transações financeiras”, comentou. Desenvolvimento de AI e Futuro Promissor Ele revelou que a equipe levou sete meses desenvolvendo fluxos de trabalho em AI para permitir que os bancos de dados de transações interagissem com modelos de linguagem sem expor os dados dos consumidores. “Com isso, pretendemos minimizar limitações de contexto, latência e problemas de segurança”, disse Yebesi. O processo de captação de recursos foi tranquilo, e a Open Ledger se conectou à Kindred, seu investidor principal, porque a firma havia investido na rodada inicial da Utopia. Outros investidores incluem o Adventure Fund, Jonathan Chang da Brex, Guy Friedman, CEO da SteadyMD, e Zach Abrams, que recentemente vendeu sua empresa, a Bridge, para a Stripe por um bilhão de dólares. Perspectivas para o Futuro A Open Ledger já firmou alguns contratos, mas Yebesi não revelou detalhes sobre os parceiros. A empresa atua com empresas de SaaS, fintechs e bancos, que por sua vez atendem pequenos e médios negócios. Atualmente, a empresa está em fase beta, com planos de lançamento completo até o final deste mês. O capital levantado será usado para contratações, com foco em talentos para produto, engenharia e desenvolvimento de negócios. “Estamos investindo bastante na contratação de talentos, treinando modelos de trabalho financeiro internamente e tomando cuidados com compliance desde o início”, disse Yebesi. A próxima meta da empresa é alcançar pelo menos um milhão de usuários finais até o final deste ano. “Mantemos uma equipe enxuta”, acrescentou. “Queremos ajudar milhares de pequenas empresas a passarem mais tempo com seus clientes e menos tempo fechando seus livros de contabilidade”. Repare que o mercado para soluções contábeis está em constante evolução. Uma abordagem centrada no cliente, com o uso inteligente de tecnologia, pode ser a chave para o sucesso em um espaço tão competitivo.