Óculos inteligentes Meta Ray-Ban recebem atualização para oferecer suporte a IA ao vivo, traduções e Shazam

A Meta atualizou seus óculos inteligentes Ray-Ban, aprimorando sua funcionalidade com IA ao vivo, traduções em tempo real e integração com Shazam. Esses recursos permitem o acesso mãos-livres às informações, facilitam a comunicação entre idiomas e ajudam a identificar músicas.

As atualizações visam melhorar a conveniência e o entretenimento para usuários nos EUA e no Canadá que fazem parte do programa de acesso antecipado, marcando um avanço significativo na tecnologia de óculos inteligentes.

Óculos Meta Smart ganham AI Boost

Os óculos inteligentes Ray-Ban Meta estão evoluindo rapidamente devido às frequentes atualizações de software e à introdução de novos recursos. Desde o seu lançamento no Connect, os usuários ganharam vários recursos, incluindo lembretes ativados por voz, acesso mãos-livres ao Spotify e Amazon Music, integração com Be My Eyes, configurações de volume adaptáveis ​​e uma variedade de opções de voz de celebridades para Meta AI.

Com o lançamento da atualização v11, os membros do Programa de Acesso Antecipado agora podem explorar novos recursos interessantes, como “IA ao vivo”, que usa análise de vídeo em tempo real para auxiliar nas tarefas diárias, e “tradução ao vivo”, que fornece conversão de idioma no local entre inglês e espanhol, francês ou italiano. Além disso, a integração do Shazam permite que os usuários identifiquem rapidamente qualquer música tocando nas proximidades, simplesmente perguntando: “Ei, Meta, que música é essa?”

Embora essas capacidades baseadas em IA ainda estejam sendo refinadas, o feedback dos usuários desempenhará um papel crucial na definição de melhorias futuras. Mais melhorias de software – e potencialmente novas surpresas – são esperadas em 2025, garantindo que os óculos Ray-Ban Meta continuem a se tornar mais inteligentes, mais úteis e mais agradáveis ​​de usar.

https://www.meta.com/blog/quest/ray-ban-meta-v11-software-update-live-ai-translation-shazam/

O que há de novo na atualização dos óculos Meta Smart?

Meta lançou uma grande atualização para seus óculos inteligentes. Esta atualização adiciona alguns recursos muito úteis. Isso inclui interações de IA ao vivo, traduções em tempo real e identificação de música usando Shazam. Esses novos recursos tornam os óculos muito mais úteis para as tarefas diárias.

Interações de IA ao vivo

O novo recurso mais interessante é a IA ao vivo. Agora você pode conversar com um assistente de IA através dos óculos. Ele pode responder perguntas, fornecer informações e até ajudá-lo em tarefas. Tudo isso é feito com as mãos livres, usando sua voz. Isso facilita a obtenção de informações sem tirar o telefone.

Traduções em tempo real

Os óculos agora podem traduzir conversas em tempo real. Isso é ótimo para viajar ou conversar com pessoas que falam idiomas diferentes. As traduções aparecem no seu campo de visão, para que você possa entender facilmente o que está sendo dito. Esse recurso pode quebrar barreiras linguísticas e tornar a comunicação muito mais fácil.

Integração Shazam

A Meta também adicionou o Shazam aos seus óculos inteligentes. Se você ouvir uma música que gosta, pode pedir aos seus óculos para identificá-la. As informações da música aparecerão na sua visualização. Isso facilita a descoberta de novas músicas sem a necessidade de retirar o telefone.

Como funcionam esses recursos?

Esses recursos usam câmeras, microfones e alto-falantes integrados aos óculos. Os óculos se conectam ao seu telefone via Bluetooth. O processamento da IA ​​é feito na nuvem, então você precisa de uma conexão com a internet para que esses recursos funcionem bem. Os óculos capturam áudio e vídeo. Essas informações são enviadas aos servidores do Meta, onde a IA realiza as tarefas solicitadas e envia as informações de volta aos óculos.

Benefícios desses novos recursos

Esses novos recursos oferecem vários benefícios:

  • Conveniência:Você pode acessar informações e realizar tarefas com as mãos livres.
  • Comunicação melhorada:As traduções em tempo real facilitam a conversa com pessoas que falam idiomas diferentes.
  • Entretenimento aprimorado:A integração do Shazam permite identificar rapidamente as músicas que você gosta.

Possíveis preocupações

Existem algumas preocupações potenciais a serem consideradas:

  • Privacidade:Algumas pessoas podem estar preocupadas em ter uma câmera gravando constantemente. Meta disse que está comprometida com a privacidade do usuário.
  • Vida útil da bateria:O uso desses recursos pode descarregar a bateria mais rapidamente.
  • Precisão:A precisão da IA ​​e das traduções pode variar dependendo da situação.

Comparação de recursos

RecursoDescriçãoBeneficiar
IA ao vivoAssistente de IA ativado por vozAcesso mãos-livres às informações
Traduções em tempo realTraduz conversas em tempo realMelhor comunicação entre idiomas
ShazamIdentifica música tocando nas proximidadesFácil descoberta de música

Acessibilidade e interface do usuário

A Meta se concentrou em tornar esses recursos fáceis de usar. Os comandos de voz são simples e intuitivos. As informações são exibidas claramente no campo de visão do usuário. Isso torna os óculos acessíveis a uma gama mais ampla de usuários.

Breve resumo:

  • Meta revela recursos de IA ao vivo para interações perfeitas sem palavras de ativação.
  • A atualização inclui tradução em tempo real e integração com Shazam para reconhecimento de música.
  • Todos os novos recursos atualmente disponíveis exclusivamente para membros do programa de acesso antecipado nos EUA e no Canadá.

A versão 11 do firmware lançada recentemente pela Meta traz atualizações transformadoras para os óculos inteligentes Ray-Ban Meta, mais notavelmente a introdução de IA ao vivo, tradução ao vivo e o recurso de reconhecimento de música Shazam. Essas melhorias visam elevar a experiência interativa dos usuários, colocando a Meta na vanguarda da tecnologia inteligente na indústria de óculos.

Apresentando Live AI: um companheiro de conversação

Com o recurso de IA ao vivo, o assistente de IA do Meta se torna muito mais envolvente. Conforme descrito durante o evento Meta Connect 2024, esta inovação permite que os usuários conversem continuamente com o assistente enquanto ele analisa a transmissão ao vivo da câmera frontal.

“Você pode fazer perguntas de acompanhamento, mudar de assunto e até mesmo interromper a IA sem precisar usar a palavra de ativação ‘Ei, Meta’”, observou Meta durante seu anúncio.

A capacidade de IA ao vivo facilita discussões em tempo real sobre o ambiente ao redor do usuário. Os usuários podem perguntar sobre o ambiente, aprimorando as conversas contextuais, como perguntar sobre itens à vista, o clima ou pontos de referência ao redor. Esta mudança fundamental em direção a uma experiência mais integrada posiciona a Meta como líder no mercado de óculos inteligentes, oferecendo funcionalidades que se assemelham à IA conversacional em diversas plataformas contemporâneas.

Além disso, um aprimoramento futuro sugerido pela Meta promete sugestões preventivas úteis que podem agilizar ainda mais as interações do usuário e enriquecer a funcionalidade geral.

Quebrando barreiras linguísticas com tradução ao vivo

Em um esforço para promover uma comunicação perfeita, o recurso de tradução ao vivo é uma adição notável. Ele permite que os usuários participem de conversas bidirecionais entre falantes de inglês e pessoas fluentes em espanhol, francês ou italiano.

Quando os usuários conversam com alguém que fala um desses idiomas, os óculos traduzem as palavras faladas para o inglês por meio de alto-falantes discretos, facilitando o acompanhamento natural das conversas. Os usuários também podem acessar uma transcrição de texto em seus dispositivos móveis emparelhados.

“O objetivo é melhorar o diálogo internacional sem esforço, combinando a tecnologia com a vida cotidiana”, enfatizou Meta em seu blog sobre esses avanços.

Leia mais:Apple cancela planos de câmera para Apple Watch e foca novamente em óculos inteligentes de IA

Este recurso atende à necessidade global de ferramentas de tradução eficazes, especialmente em ambientes multiculturais e multilíngues. Embora a tradução ao vivo do Meta tenda a ficar um pouco atrasada em comparação com ofertas semelhantes do Google, seu design viva-voz oferece uma experiência única que pode aprimorar as trocas em tempo real.

Descobrindo música com integração Shazam

Além das impressionantes atualizações de IA, a integração do Shazam torna a identificação de músicas mais fácil do que nunca. Os usuários podem simplesmente dizer: “Ei, Meta, Shazam esta música”, e os óculos inteligentes identificarão a faixa tocando em segundo plano.

Com o reconhecimento de música sendo um recurso popular em vários dispositivos, este novo desenvolvimento adiciona outra camada de entretenimento para os usuários dos óculos inteligentes Ray-Ban Meta, ao mesmo tempo que aprimora sua multifuncionalidade.

“Com essas capacidades, estamos ampliando os horizontes dos óculos inteligentes, tornando-os não apenas acessórios, mas ferramentas essenciais para o dia a dia”, afirmou o porta-voz da Meta durante a revelação do produto.

Disponibilidade e Perspectivas Futuras

Atualmente, os recursos de IA e tradução ao vivo estão disponíveis apenas para usuários selecionados que fazem parte do Programa de Acesso Antecipado nos EUA e no Canadá. Essa exclusividade permite que a Meta refine esses recursos com base no feedback do usuário antes de serem lançados para um público mais amplo. Os usuários interessados ​​​​podem se inscrever no Programa de Acesso Antecipado através do site oficial do Meta, o que lhes dá a chance de estar entre os primeiros a experimentar essas ferramentas inovadoras.

Embora esses novos recursos sinalizem avanços significativos na integração tecnológica em dispositivos vestíveis, a configuração atual vem com um aviso: Meta alerta os usuários que os recursos de IA e tradução ao vivo podem nem sempre funcionar perfeitamente. “Continuamos aprendendo o que funciona melhor e melhorando a experiência para todos”, observou a empresa em suas comunicações.

O recurso de reconhecimento de música Shazam é ​​mais amplamente acessível, embora por enquanto também esteja limitado à América do Norte.

O panorama geral

Estas atualizações também representam o impulso estratégico da Meta em meio a um cenário em evolução onde a concorrência no setor de realidade aumentada (AR) está se intensificando. Com projetos como os próximos óculos AR do Google e sistemas existentes como o Advanced Voice Mode da OpenAI, as inovações da Meta constituem uma parte fundamental de sua estratégia mais ampla que visa melhorar o envolvimento do usuário e a funcionalidade diária.

Além disso, os regulamentos da UE atrasaram a implementação destas funcionalidades de IA, concentrando-se, em vez disso, nos mercados da América do Norte. Em locais como França, Itália e Espanha, a implementação começou inicialmente em Novembro passado, preparando o terreno para a incorporação gradual de novas tecnologias em conformidade com as leis locais relativas à IA e à protecção de dados.

À medida que a Meta continua a aprimorar as capacidades de seus óculos inteligentes Ray-Ban, ela não está apenas fazendo progressos no espaço tecnológico de consumo, mas também estabelecendo uma referência sobre como os óculos inteligentes podem se adaptar à vida diária dos usuários.

“Com os óculos Ray-Ban Meta, estamos ultrapassando os limites do que os óculos podem alcançar em termos de utilidade e integração nas atividades diárias dos usuários”, concluiu um executivo sênior da Meta.

As possibilidades que acompanham esses desenvolvimentos podem parecer ilimitadas, especialmente porque antecipamos novas atualizações e expansões de recursos. Seja ajudando os usuários a navegar em conversas estrangeiras, recomendando as melhores roupas para uma ocasião ou simplesmente identificando uma música cativante, a última atualização do Meta mostra o potencial dos óculos inteligentes para transformar as experiências cotidianas.