Meta Lança Novas Funcionalidades para Óculos Inteligentes

Meta Anuncia Novas Funcionalidades para Óculos Inteligentes Ray-Ban

Nota: As imagens são meramente ilustrativas e, em sua maioria, geradas pelo MidJourney.

Meta Anuncia Novas Funcionalidades para Óculos Inteligentes Ray-Ban

A Meta acaba de revelar três novas funcionalidades que estão sendo lançadas para seus óculos inteligentes Ray-Ban: IA ao vivo, traduções em tempo real e suporte ao Shazam. Tanto a IA ao vivo quanto a tradução em tempo real são exclusivas para membros do Programa de Acesso Antecipado da Meta, enquanto o suporte ao Shazam está disponível para todos os usuários nos Estados Unidos e no Canadá.

Primeiramente anunciadas no Meta Connect 2024, essas funcionalidades têm gerado grande expectativa. A IA ao vivo permite que você converse naturalmente com o assistente de IA da Meta, enquanto ele analisa continuamente seu ambiente. Por exemplo, se você estiver explorando a seção de hortifrutis em um supermercado, teoricamente poderá perguntar à IA da Meta algumas receitas com base nos ingredientes que está visualizando. A Meta afirma que os usuários poderão utilizar a função de IA ao vivo por cerca de 30 minutos com uma carga completa.

Já a tradução em tempo real possibilita que os óculos traduzam conversas entre o inglês e os idiomas espanhol, francês ou italiano. Você pode optar por ouvir as traduções pelos próprios óculos ou visualizar as transcrições em seu celular. É necessário baixar previamente os pares de idiomas e especificar qual idioma você fala em comparação ao idioma do seu interlocutor.

O suporte ao Shazam é um pouco mais simples. Você só precisa ativar o assistente de IA da Meta quando ouvir uma música, e ele deverá ser capaz de identificar o que você está escutando. Você pode conferir o CEO da Meta, Mark Zuckerberg, demonstrando essa funcionalidade em um vídeo no Instagram.

Vide o reel no Instagram.

Se você ainda não consegue ver essas funcionalidades, verifique se os seus óculos estão rodando o software v11 e se o aplicativo Meta View está na versão v196. Caso você ainda não faça parte do Programa de Acesso Antecipado, pode se inscrever através deste site: Programa de Acesso Antecipado da Meta.

Essas atualizações chegam em um momento em que as grandes empresas de tecnologia estão enfatizando assistentes de IA como a razão de ser dos óculos inteligentes. Na semana passada, o Google anunciou o Android XR, um novo sistema operacional para óculos inteligentes, posicionando seu assistente de IA Gemini como o aplicativo que pode revolucionar o mercado.

Além disso, o CTO da Meta, Andrew Bosworth, publicou um blog comentando que “2024 foi o ano em que os óculos de IA atingiram seu auge”. Nele, Bosworth também afirma que os óculos inteligentes podem ser a melhor forma de um “dispositivo verdadeiramente nativo de IA” e a primeira categoria de hardware a ser “completamente definida por IA desde o início”.

Felipe Massari

Visuailzer co-founder

Psicólogo e Neurocientista, especialista em Neuromarketing e Marketing Digital. Domina Engenharia de Prompts e Redes Neurais. Atua no Comercial e Vendas, unindo Ciência, Tecnologia e estratégia para criar soluções inovadoras e focadas em resultados para Empresas.

Veja Também

  • All Posts
    •   Back
    • Inteligência Artificial
    • Negócios
    • Produtividade
    • Tecnologia
    • Política

Assuntos Relacionados

  • All Posts
  • Dicas e Tutoriais
  • Notícias
    •   Back
    • Inteligência Artificial
    • Negócios
    • Produtividade
    • Tecnologia
    • Política