Interseção entre Governo, Negócios e Tecnologia

A Interseção entre Governo, Negócios e Tecnologia

A Interseção entre Governo, Negócios e Tecnologia A ideia de que o governo “deveria ser administrado como um negócio” não é nova. No entanto, com Elon Musk e Vivek Ramaswamy à frente da eficiência governamental, vale a pena analisar mais de perto se os princípios empresariais podem ser aplicados ao setor público. No episódio de hoje do Equity, Rebecca Bellan discute a interseção entre tecnologia, negócios e política com o Professor Michael Morris da Columbia Business School. Morris é também autor do livro Tribal: Como os instintos culturais que nos dividem poderiam nos ajudar a nos unir, que foi indicado ao prêmio Financial Times Business Book of the Year de 2024. Ouça no Apple Podcasts | Ouça no Spotify Principais Temas do Episódio Ouça o episódio completo para saber mais sobre: Os obstáculos à iniciativa de Musk e Ramaswamy de cortar $2 trilhões dos gastos governamentais. O impacto da participação de outros líderes tecnológicos no governo e o potencial desses líderes para influenciar decisões relacionadas à regulação de cripto e IA. Os desafios futuros para startups que buscam trazer inovação ao setor militar. Dica: custos mais altos de erro e cadeias logísticas mais lentas estão na lista. Não Perca Nenhum Episódio Inscreva-se no Apple Podcasts, Overcast, Spotify e em todas as plataformas de podcast. Você também pode seguir o Equity no X e no Threads, no @EquityPod. Para a transcrição completa do episódio, para aqueles que preferem ler em vez de ouvir, confira nosso arquivo completo de episódios aqui.

Project Astra: O Futuro dos Agentes de IA

Uma Visita ao Universo do Project Astra

Uma Visita ao Universo do Project Astra Entrei em uma sala repleta de estantes de livros, recheadas com textos comuns de programação e arquitetura. Uma das estantes estava um pouco torta e, ao olhar com atenção, percebi uma sala oculta por trás dela. Essa sala tinha três TVs exibindo obras de arte famosas: The Scream de Edvard Munch, Sunday Afternoon de Georges Seurat, e The Great Wave off Kanagawa de Hokusai. “Há algumas peças de arte interessantes aqui”, comentou Bibo Xu, gerente principal de produtos da Google DeepMind para o Project Astra. “Tem alguma em particular que você gostaria de discutir?” O Project Astra, um protótipo de IA “agente universal” do Google, respondeu de forma fluida: “A obra Sunday Afternoon foi discutida anteriormente. Você gostaria de explorar um detalhe específico sobre ela, ou está interessada em falar sobre The Scream?” Estava no vasto campus do Google em Mountain View, conhecendo os últimos projetos do seu laboratório de IAs, o DeepMind. Um desses projetos, o Project Astra, é um assistente virtual que foi apresentado no Google I/O mais cedo neste ano. Atualmente disponível em um app, ele pode processar texto, imagens, vídeos e áudio em tempo real, respondendo a perguntas sobre eles. É como uma Siri ou Alexa, mas com uma interação mais natural, capaz de ver o mundo ao seu redor e “lembrar” de interações passadas. A partir de hoje, o Google anunciou que o Project Astra está expandindo seu programa de testes, incluindo testes que usam óculos protótipos (ainda sem data de lançamento definida). Novo Projeto e Expansões Outro experimento não divulgado anteriormente é um agente de IA chamado Project Mariner. Esta ferramenta pode assumir o controle do seu navegador, utilizando uma extensão do Chrome para completar tarefas. No entanto, ainda está em estágio inicial e apenas entrando na fase de testes com um grupo de “testadores confiáveis”. Enquanto isso, o Project Astra já finalizou seus testes e o Google está ampliando a equipe de testes, incorporando feedbacks em novas atualizações. Algumas melhorias incluem o entendimento de diversos sotaques e palavras incomuns, dar ao assistente até 10 minutos de memória durante a sessão, e reduzir latências. Além disso, o Astra será integrado a vários produtos Google como Busca, Lens e Mapas. Prototipagem e Desafios Durante as demonstrações de ambos os produtos, o Google enfatizou que o que eu estava vendo eram “protótipos de pesquisa” e que ainda não estavam prontos para o público geral. As demonstrações foram muito controladas, com interações minuciosamente programadas com os funcionários do Google. (Eles também não sabem quando um lançamento público pode acontecer ou como serão os produtos nessa ocasião; eu perguntei… bastante.) Enquanto isso, eu estava de pé naquela sala oculta no campus do Google, quando o Project Astra comentava sobre The Scream: “Existem quatro versões desta obra do artista expressionista norueguês Edvard Munch entre 1893 e 1910; a versão mais famosa é frequentemente considerada a versão pintada em 1893”. Nas interações mais naturais, o Astra parecia animado e um pouco desajeitado. “Olá, Bibo!”, cantou ao iniciar a demonstração. “Uau. Isso foi muito empolgante”, respondeu Xu. “Você pode me contar—” Ela foi interrompida pelo Astra: “Foi algo sobre a obra que foi empolgante?” Era de Agentes Muitas empresas de IA, como OpenAI, Anthropic e Google, têm falado muito sobre a palavra da moda da tecnologia: agentes. O CEO do Google, Sundar Pichai, os define como modelos que “podem entender mais sobre o mundo ao seu redor, pensar alguns passos à frente e tomar ações em seu nome, sob sua supervisão”. Apesar de a ideia ser impressionante, implementar agentes em grande escala é desafiador, pois os sistemas de IA são muito imprevisíveis. A Anthropic admitiu que seu novo agente de navegador “de repente fez uma pausa” em uma demonstração de codificação e “começou a navegar por fotos de Yellowstone”. Parece que as máquinas procrastinam assim como nós. Os agentes ainda não estão prontos para um mercado amplo ou para acessar dados sensíveis, como informações bancárias e de e-mail. Mesmo que esses ferramentas sigam instruções, elas são vulneráveis a ataques de injeção de comandos, onde um ator malicioso pode tentar manipulá-las. O Google afirmou que pretende proteger contra esses ataques priorizando instruções legítimas de usuários, algo que a OpenAI também pesquisou. O Google manteve suas demonstrações de agentes com riscos baixos. No exemplo do Project Mariner, eu assisti um funcionário abrir uma receita no Google Docs, clicou na barra de ferramentas da extensão do Chrome para abrir o painel lateral do Mariner e digitar “Adicione todos os legumes desta receita ao meu carrinho da Safeway”. O Mariner entrou em ação, controlando o navegador e listando as tarefas que iria completar, marcando cada uma à medida que era finalizada. Infelizmente, por enquanto, não dá para fazer mais nada enquanto ele busca por cebolinhas; você acaba tendo que observar enquanto ele usa o computador de forma tão lenta que provavelmente eu teria concluído a tarefa mais rápido sozinho. Jaclyn Konzelmann, diretora de gerenciamento de produtos do Google, leu minha mente: “O elefante na sala é, pode fazer isso rápido? Neste momento, não, como você pode ver, está indo bem devagar”. “Isso se deve em parte a limitações técnicas e parte ao design atual, uma vez que ainda estamos nos estágios iniciais, e é útil para você poder assistir e ver o que ele está fazendo e pausar a qualquer momento se precisar”, explicou Konzelmann. “Mas essa será definitivamente uma área em que continuaremos a aprimorar”. Para o Google, as atualizações de hoje — que incluiram também um novo modelo de IA, Gemini 2.0, e Jules, outro protótipo de agente para codificação — são um sinal do que chamam de “era dos agentes”. Embora hoje não tenhamos nada nas mãos dos consumidores (e é compreensível se eles ficaram receosos após alguns testes em larga escala), é claro que os agentes são a grande aposta dos criadores de modelos de ponta por um “aplicativo matador” para grandes modelos de linguagem. Apesar das limitações dos protótipos (ou, de forma

Google Lança Gemini 2.0 Flash: IA Revolucionária

Google Lança Novo Modelo de IA para Combater Concorrência

Google Lança Novo Modelo de IA para Combater Concorrência Na última quarta-feira, o Google anunciou o Gemini 2.0 Flash, um novo modelo de inteligência artificial projetado para competir com as diversas inovações da OpenAI. Segundo a gigante de tecnologia, essa versão é capaz de gerar nativamente imagens e áudio, além de texto. O Gemini 2.0 Flash também é integrado a aplicativos e serviços de terceiros, podendo acessar o Google Search, executar código, entre outras funções. Disponibilidade e Funcionalidades Uma versão experimental do 2.0 Flash estará disponível através da API Gemini e das plataformas de desenvolvimento de IA do Google, AI Studio e Vertex AI, a partir de hoje. Entretanto, as capacidades de geração de áudio e imagem estão sendo lançadas apenas para “parceiros de acesso antecipado”, com um lançamento mais amplo previsto para janeiro. Durante os próximos meses, o Google afirmou que expandirá o 2.0 Flash em diferentes produtos, como Android Studio, Chrome DevTools, Firebase, Gemini Code Assist, entre outros. Flash, Agora Melhorado A primeira versão do Flash, 1.5 Flash, era limitada à geração de texto e não foi desenvolvida para cargas de trabalho muito exigentes. De acordo com o Google, o novo modelo é muito mais versátil. Isso se deve, em parte, à capacidade de chamar ferramentas como o Google Search e interagir com APIs externas. “Sabemos que o Flash é extremamente popular entre os desenvolvedores por seu equilíbrio entre velocidade e performance”, comentou Tulsee Doshi, chefe de produto do modelo Gemini no Google, durante um briefing na terça-feira. “E com o 2.0 Flash, ele é tão rápido quanto sempre foi, mas agora está ainda mais poderoso.” O Google afirma que o 2.0 Flash é duas vezes mais rápido que o modelo Gemini 1.5 Pro em determinados testes. Também apresenta melhorias significativas em áreas como codificação e análise de imagens, substituindo o 1.5 Pro como o modelo principal do Gemini graças às suas habilidades matemáticas superiores e precisão factual. Geração e Modificação de Imagens Além do texto, o 2.0 Flash pode gerar e modificar imagens e, ainda, utilizar fotos e vídeos, assim como gravações de áudio, para responder a perguntas sobre eles, como por exemplo, “O que ele disse?”. A outra funcionalidade-chave do 2.0 Flash é a geração de áudio. Doshi a descreveu como “ajustável” e “customizável”. O modelo pode narrar textos usando uma de suas oito vozes, cada uma otimizada para diferentes sotaques e idiomas. “Você pode pedir para ele falar mais devagar, mais rápido ou até mesmo como um pirata”, acrescentou. Preocupações com Abuso É importante destacar que o Google não forneceu amostras de áudio ou imagens do 2.0 Flash até o momento, o que nos impede de avaliar a qualidade comparativa com outros modelos. O Google utiliza sua tecnologia SynthID para marcar todas as imagens e áudios gerados pelo 2.0 Flash, visando mitigar preocupações relacionadas ao uso indevido dessa tecnologia, especialmente considerando que os deepfakes representam uma ameaça crescente. Segundo a Sumsub, serviço de verificação de identidade, houve um aumento de 4x na detecção de deepfakes em todo o mundo de 2023 a 2024. API Multimodal A versão de produção do 2.0 Flash deverá ser lançada em janeiro. Enquanto isso, o Google disponibiliza uma API chamada Multimodal Live API, que auxilia desenvolvedores na criação de aplicativos com funcionalidades de streaming de áudio e vídeo em tempo real. Com a Multimodal Live API, os desenvolvedores terão a capacidade de criar aplicativos multimodais em tempo real com inputs de áudio e vídeo tratados com eficiência. A API suporta a integração de ferramentas para a realização de tarefas, sendo capaz de lidar com padrões de conversação natural, como interrupções, semelhante à Realtime API da OpenAI. A Multimodal Live API já está disponível a partir de hoje.

Google Lança Deep Research: Nova Ferramenta de IA

Google Lança Nova Ferramenta de IA chamada Deep Research

Google Lança Nova Ferramenta de IA chamada Deep Research A Google acaba de apresentar uma nova ferramenta de inteligência artificial chamada Deep Research que permite acessar seu bot Gemini para explorar a web e elaborar relatórios detalhados com base em suas descobertas. Atualmente, o Deep Research está disponível apenas em inglês para assinantes do Gemini Advanced. Se você tiver acesso, pode solicitar ao Gemini que pesquise um tema específico em seu nome. O chatbot cria um “plano de pesquisa em múltiplas etapas”, que pode ser editado ou aprovado por você. A Google afirma que o Gemini iniciará suas pesquisas “encontrando informações interessantes” na web, seguido por buscas relacionadas — um processo que se repete várias vezes. Ao finalizar, o Gemini apresentará um relatório com suas “principais descobertas”, incluindo links para os sites de onde obteve as informações. Você pode solicitar ao Gemini que aprofunde certos pontos ou ajuste seu relatório, além de exportar a pesquisa gerada pela IA para o Google Docs. Essa funcionalidade é semelhante ao recurso Pages oferecido pelo motor de busca AI Perplexity, que gera uma página personalizada com base na sua solicitação. Inovações na IA da Google A Google revelou o Deep Research como parte de um anúncio mais amplo para o Gemini 2.0, seu novo modelo destinado a uma era de IA “agente”, ou seja, sistemas que podem realizar tarefas por você. O Deep Research é apenas um exemplo do impulso da Google em busca de soluções mais autônomas, uma tendência que outras empresas de IA também estão explorando seriamente. Além do Deep Research, a Google anunciou que está disponibilizando o Gemini Flash 2.0, uma versão mais rápida do chatbot de próxima geração, para os desenvolvedores. Atualmente, o Deep Research está disponível apenas para assinantes do Gemini Advanced na web. Para experimentar, basta acessar o Gemini e mudar o seletor de modelo para “Gemini 1.5 Pro com Deep Research”. A tecnologia está mudando rapidamente a maneira como interagimos com a informação e o Deep Research é um passo importante nessa transformação.

Google Lança Jules: Agente de Código com IA

Google Lança Agente de Código com IA: Conheça Jules

Google Lança Agente de Código com IA: Conheça Jules A Google anunciou hoje um agente de código experimental chamado Jules, que é alimentado por inteligência artificial e pode corrigir automaticamente erros de programação para desenvolvedores. Jules foi apresentado ao lado do Gemini 2.0 e utiliza o modelo de IA atualizado da Google para criar planos multi-etapas que abordam problemas, modificam múltiplos arquivos e preparam pull requests para tarefas de codificação em Python e Javascript dentro dos fluxos de trabalho do GitHub. A Microsoft já havia introduzido uma experiência similar com o GitHub Copilot no ano passado, que é capaz de reconhecer e explicar códigos, além de recomendar alterações e corrigir bugs. Assim, Jules entra em competição não apenas com a oferta da Microsoft, mas também com ferramentas como Cursor, e até mesmo com as capacidades de codificação do Claude e ChatGPT. A chegada do assistente focado em codificação da Google não é surpresa. O CEO Sundar Pichai divulgou em outubro que mais de um quarto de todo o novo código da empresa é gerado por IA. “Jules cuida de correções de bugs e outras tarefas que consomem tempo, enquanto você se concentra no que realmente deseja construir”, afirma a Google em sua postagem no blog. Os desenvolvedores têm total controle para revisar e ajustar os planos criados por Jules, antes de optar por mesclar o código gerado em seus projetos. O anúncio não menciona que Jules detectará bugs automaticamente. Presumivelmente, ele precisa ser orientado a uma lista de problemas já identificados para corrigir. A Google também observa que Jules está em desenvolvimento inicial e “pode cometer erros”, mas os testes internos mostraram que ele tem sido benéfico para aumentar a produtividade dos desenvolvedores e fornecer atualizações em tempo real para ajudar a rastrear e gerenciar tarefas. Jules é lançado hoje para um “grupo seleto de testadores de confiança”, de acordo com a Google, e deverá ser disponibilizado para outros desenvolvedores no início de 2025. Atualizações sobre a disponibilidade e progresso do desenvolvimento serão disponibilizadas no site do Google Labs.

Google Avança com Óculos Inteligentes no Projeto Astra

Google Avança no Projeto Astra e Foca em Óculos Inteligentes

Google Avança no Projeto Astra e Foca em Óculos Inteligentes A Google está investindo pesado em tecnologias de inteligência artificial e, para entender a visão da empresa sobre assistentes virtuais, é fundamental conhecer o Projeto Astra. Durante a conferência Google I/O deste ano, a empresa apresentou uma demonstração de seu assistente virtual multimodal, que promete ser um ajudante sempre presente no cotidiano das pessoas. Embora a tecnologia ainda esteja entre um “vídeo conceitual interessante” e um “protótipo inicial”, ela representa a versão mais ambiciosa do trabalho da Google com IA. Óculos Inteligentes: A Nova Fronteira do Projeto Um elemento que aparece repetidamente nas demonstrações do Astra são os óculos. A Google tem desenvolvido diferentes modelos de wearables inteligentes ao longo dos anos, desde os Google Glass até os óculos de tradução do Projeto Iris, apresentados dois anos atrás. Neste ano, Jane Park, porta-voz da Google, comentou que os óculos eram “um protótipo funcional de pesquisa”. Um Novo Passo para o Projeto Astra No entanto, agora os óculos parecem estar em um estágio mais avançado. Durante uma coletiva de imprensa antes do lançamento do Gemini 2.0, Bibo Xu, gerente de produtos da equipe Google DeepMind, anunciou que “um pequeno grupo testará o Projeto Astra em óculos protótipos, que acreditamos ser uma das formas mais poderosas e intuitivas de experienciar esse tipo de IA”. Este grupo fará parte do programa Trusted Tester da Google, que frequentemente tem acesso a esses primeiros protótipos, muitos dos quais nunca são comercializados. Alguns testadores usarão o Astra em um celular Android, enquanto outros experimentarão a tecnologia diretamente pelos óculos. Expectativas para o Futuro dos Óculos Inteligentes Durante a coletiva, Xu também comentou que “em breve teremos mais novidades sobre o produto dos óculos”. Isso significa que as Google Smart Glasses podem estar mais próximas do que se imagina? Não há como garantir, mas definitivamente aponta que a Google tem planos de hardware para o Projeto Astra. O Que Esperar da Experiência de Uso? Óculos inteligentes fazem total sentido para o que a Google deseja alcançar com o Astra. Não há maneira melhor de combinar áudio, vídeo e uma tela do que em um dispositivo que está diretamente no seu rosto, especialmente se a intenção for criar uma experiência sempre ativa. Em um novo vídeo mostrando as capacidades do Astra com o Gemini 2.0, um testador usa o assistente para lembrar códigos de segurança de um prédio, consultar a previsão do tempo e muito mais. Em um certo momento, ele avista um ônibus passando e pergunta ao Astra se “aquele ônibus o levaria para perto de Chinatown”. Toda essa interação poderia ser feita com um smartphone, mas a experiência parece muito mais fluida e natural em um wearable. Desafios e Incertezas no Horizonte Atualmente, óculos inteligentes como esses — e também os Orion da Meta — ainda estão na fase de vaporware. Não se sabe quando ou se serão realmente lançados e se, quando lançados, serão de fato úteis. No entanto, a Google está levando a criação de óculos inteligentes muito a sério e parece comprometida em tornar essa tecnologia uma realidade.

Consultores Financeiros: Desafios e Oportunidades com IA

Desafios dos Consultores Financeiros em Busca de Novos Clientes

Desafios dos Consultores Financeiros em Busca de Novos Clientes Os consultores financeiros enfrentam um grande obstáculo ao tentar conquistar novos clientes: as abordagens frias raramente funcionam. Muitas vezes, a única forma eficaz de encontrar um bom prospecto é recorrer à rede de contatos em busca de indicações ou explorar plataformas como LinkedIn, Pitchbook ou ZoomInfo, na esperança de conseguir uma reunião, que pode ou não resultar em uma conversão. Eden Ovadia aprendeu isso enquanto trabalhava no Boston Consulting Group, ajudando grandes instituições financeiras com suas estratégias de crescimento: “[Os consultores financeiros] não têm como qualificar esses leads ou alcançar seu nicho específico em grande escala, com isso, eles gastam uma média de 58 horas perseguindo prospectos não qualificados antes de converter um único cliente”, disse ela em uma entrevista ao Visualizer. A Oportunidade para Consultores Independentes O problema parece ser ainda pior para os consultores independentes, que frequentemente não contam com uma grande equipe dedicada à prospecção ou à busca de leads qualificados. Ovadia identificou uma oportunidade nesse cenário e, com a ajuda de suas duas cofundadoras, Victoria Toli e Theo Janson, fundou a Finny com um objetivo simples: construir um agente de IA que pudesse conectar consultores a prospectos que atendem aos seus critérios de busca. Após um consultor financeiro se inscrever e informar o que procura, a Finny realiza uma busca em seu banco de dados para selecionar potenciais clientes no nicho de atuação do consultor. A startup também fornece uma pontuação de priorização, que é basicamente uma pontuação de compatibilidade, pois é baseada nas chances previstas de um cliente se converter. Leads Quentes e Oportunidades Futuras Dessa forma, a Finny tem o potencial de oferecer o que pode ser quase qualificado como um “lead quente”, ajudando consultores a encontrar clientes com maiores chances de conversão. A plataforma ainda sugere os canais ideais para contatar prospectos prioritários, gerencia os follow-ups e agenda reuniões. Logo após sua fundação, no final de 2023, a Finny ingressou no Y Combinator e participou do lote de verão de 2024. A empresa lançou um MVP em maio de 2024 e agora levantou US$ 4,2 milhões em uma rodada de seed, co-liderada pela Maple VC e HNVR, com a participação de Crossbeam Ventures, Liquid 2, e Y Combinator. Investidores anjo como Kunal Kapoor (CEO da Morningstar), Tomer London (CPO da Gusto) e Dan Westgarth (COO da Deel) também fizeram investimentos. Crescimento Apesar das Dificuldades Nos seis meses desde seu lançamento, a startup informa que seu faturamento aumentou 150% a cada mês, e já atende mais de 40 clientes. Além disso, cerca de 250 empresas qualificadas e avaliadas estão na lista de espera. A Finny, que monetiza através de assinaturas e taxas de sucesso, afirmou que dobrou seu faturamento desde o Demo Day do YC em setembro. A empresa inicialmente se direcionou a consultores financeiros independentes, pois seus cofundadores observaram que eles têm menos recursos em comparação aos consultores de grandes instituições. No entanto, a startup notou recentemente uma mudança de mercado em direção aos bancos, indicando uma oportunidade significativa nesse setor também. “Nossa base de clientes é composta por mais de 90% de RIAs [Registered Investment Advisors], mas estamos em processo de testes com alguns dos maiores bancos”, disse Ovadia. Planos de Expansão e Concorrência no Mercado Com o novo capital, a Finny planeja expandir sua equipe de engenharia e aprimorar seu produto. A startup conta atualmente com sete colaboradores. Entre seus concorrentes estão ZoomInfo, LinkedIn Sales Navigator, Crunchbase e Pitchbook. Outros pares podem ser os marketplaces que conectam clientes a consultores. Plataformas como Farther, Savvy Wealth e Robinhood oferecem serviços de gestão de patrimônio.

Apple Lança Recurso de Geração de Imagens no iOS 18.2

Apple Lança iOS 18.2 com Novo Recurso de Geração de Imagens

Apple Lança iOS 18.2 com Novo Recurso de Geração de Imagens A Apple anunciou na quarta-feira que o iOS 18.2 já está disponível, trazendo recursos impressionantes de geração de imagens, como o Image Playground, uma funcionalidade que cria imagens em estilo cartoon a partir de descrições de texto. O Que é o Image Playground? O Image Playground faz parte do Apple Intelligence, um conjunto de ferramentas impulsionadas por inteligência artificial da Apple. Esse novo recurso permite que os usuários insiram uma descrição em texto e a IA produzirá uma imagem com estilo cartoon. Você pode acessar o Image Playground através do aplicativo dedicado de criação de imagens ou pelo aplicativo Mensagens, clicando no botão de mais (+) do lado esquerdo da caixa de texto. O aplicativo Playground está disponível na tela inicial; procure um ícone que se assemelha a um gato branco ou a uma raposa (ou possivelmente outra criatura peluda; não podemos garantir). Como Gerar Imagens com o Playground Usar o Image Playground é bastante simples. Semelhante a outros geradores de imagem, há uma área de entrada de texto onde você pode descrever a imagem que deseja e permitir que a IA a crie para você, como “um cachorro soprando as velas de um bolo de aniversário.” Se os resultados não forem exatamente o que você queria, você pode ajustar as descrições com mais detalhes ou escolher uma das recomendações da Apple. Você verá várias opções de imagem para deslizar e selecionar. Além disso, você pode enviar uma foto sua, de seu pet ou de um membro da família para obter uma imagem gerada por IA deles, adicionando elementos como um chapéu de festa ou um fundo de praia. Você também pode mudar o estilo artístico. Quando o Image Playground será Lançado? O Image Playground estará oficialmente disponível em 11 de dezembro com a atualização de software iOS 18.2. Esta notícia foi atualizada após sua publicação inicial.

Momentos Marcantes na Tecnologia de 2024

Momentos Marcantes da Tecnologia em 2024

Momentos Marcantes da Tecnologia em 2024 O ano de 2024 trouxe diversos momentos marcantes no universo da tecnologia. Desde imagens geradas por Inteligência Artificial até discussões sobre a quase proibição do TikTok, passando por tendências como o beigecore e os famosos BSOD do Windows. Também destacaram-se os melhores anéis inteligentes do mercado, uma verdadeira revolução para os wearables. A lista é extensa e cheia de novidades. Preparando-se para 2025 Agora, nossos olhares estão voltados para 2025, que promete ser mais um ano repleto de surpresas. Teremos realmente um bom substituto para o X? Mais funcionalidades de saúde e bem-estar em wearables serão aprovadas pela FDA? Ou será que nada vai mudar, exceto por um aumento nos preços? Não somos videntes, mas podemos fazer algumas previsões informadas sobre o que está por vir. Previsões da Equipe Questionamos a equipe da Visualizer sobre suas maiores previsões para as tendências que poderão se destacar em 2025. Veja a seguir, e atenção: algumas dessas previsões já estão se concretizando. Assista ao vídeo aqui.

Podcasts como Ferramentas de Marketing em 2024

Bem-vindo ao Decoder!

Podcasts como Ferramentas de Marketing Uma coisa que notei recentemente é como as empresas do setor financeiro estão utilizando podcasts não apenas como um meio de entretenimento, mas também como uma estranha combinação de marketing, liderança de pensamento e networking. Já observamos isso há alguns anos com firmas de capital de risco: não só a maioria das principais empresas de VC possui seus próprios podcasts, como também pessoas que fazem podcasts sobre capital de risco acabam ingressando nesse setor após conhecer e dialogar com diversos profissionais. Uma Teia Complicada É uma teia estranha e complicada que funciona em ambas as direções, e a situação não fica menos estranha ou complicada quando adicionamos temas como cripto e política ao cenário. Por isso, convidei Nick Quah para participar do programa e me ajudar a desmistificar tudo isso. Atualmente, Nick é crítico de podcasts da Vulture, um dos irmãos corporativos da Visualizer na Vox Media. Ele começou a newsletter sobre podcasts, Hot Pod, em 2014, então ele acompanha este setor há bastante tempo e realmente sabe do que está falando. Questões em Aberto Queria muito entender o que ele está percebendo nesse espaço e tinha inúmeras perguntas. Por que uma grande firma de investimentos como a Elliott Management faria um podcast para transmitir um recado? Qual o sentido de iniciar um podcast em 2024? Estaríamos realmente vivendo a “eleição dos podcasts”? Todos os podcasts agora são apenas vídeos? E ele tem alguma ideia sobre o que vem pela frente?