Em um recente Ted TalkOs emocionantes óculos inteligentes XR do Google foram demonstrados ao público pela primeira vez. Embora tenhamos visto os óculos inteligentes antes, ele sempre esteve em vídeos altamente polidos, mostrando o Project Astra, onde nunca temos uma sensação verdadeira pelos recursos e funcionalidade no mundo real. Tudo o que mudou agora, e nosso primeiro vislumbre do futuro é muito emocionante. No entanto, futuro é muito a palavra operacional.
A demonstração do que os óculos inteligentes podem fazer ocupa a maior parte da apresentação de 16 minutos, que é introduzida pelo vice-presidente de realidade aumentada e estendida de Shahram Izadi. Ele começa com alguns antecedentes do projeto, que apresenta o Android XR em seu centro, o sistema operacional que o Google está construindo com a Samsung. Ele traz o Google Gemini para hardware XR, como fones de ouvido, óculos inteligentes e “fatores de forma que ainda nem sonhamos”.
Um par de óculos inteligentes é usado para a demonstração. O design é ousado, na medida em que os quadros são polidos pretos e “pesados”, bem como os óculos inteligentes de meta-baan. Eles apresentam uma câmera, alto -falante e um microfone para a IA ver e ouvir o que está acontecendo ao seu redor, e através de um link com o telefone, você poderá fazer e receber chamadas. Onde eles se separam do Ray-Ban Meta é com a adição de uma pequena tela de cor em lente.
Fone de ouvido e óculos
O que faz com que os óculos inteligentes do Android XR se destacem inicialmente na demonstração é a capacidade de Gemini de lembrar o que “viu”, e lembra corretamente o título de um livro que o usuário olhou e até observou onde foi deixado um cartão -chave do hotel. Essa memória de curto prazo tem uma ampla gama de usos, não apenas como um jogador de memória, mas como uma maneira de confirmar detalhes e organizar melhor o tempo também.
A visão da IA também é usada para explicar um diagrama em um livro e traduzir o texto em diferentes idiomas. Também traduz diretamente as línguas faladas em tempo real. A tela é colocada em ação quando Gêmeos é solicitado a navegar para um local de beleza local, onde as instruções são mostradas na lente. Gêmeos reage rapidamente às suas instruções, e tudo parece funcionar perfeitamente durante a demonstração ao vivo.

Seguindo os óculos inteligentes, o Android XR é mostrado trabalhando em um fone de ouvido completo. A experiência visual lembra a de O Headset Vision Pro da Apple, com várias janelas mostradas na frente do usuário e beliscão usadas para controlar o que está acontecendo. No entanto, Gemini foi a chave para usar o fone de ouvido Android XR, com a demonstração mostrando a capacidade da IA de descrever e explicar o que está sendo visto ou mostrado de maneira altamente conversacional.
Quando podemos comprá -lo?

Izadi closed the presentation saying, “We’re entering an exciting new phase of the computing revolution. Headsets and glasses are just the beginning. All this points to a single vision of the future, a world where helpful AI will converge with lightweight XR. XR devices will become increasingly more wearable, giving us instant access to information. While AI is going to become more contextually aware, more conversational, more personalized, working with us on our terms and in our language. We’re não aumentando mais nossa realidade, mas aumentando nossa inteligência. ”
É uma coisa tentadora e para quem viu o potencial em O Google Glass e já desfruta de Ray-Ban Meta, os óculos inteligentes em particular certamente parecem ser o próximo passo desejável na evolução dos óculos inteligentes cotidianos. No entanto, a ênfase deve estar no futuro, pois, embora os óculos pareciam estar quase prontos para a liberação pública, pode não ser o caso, pois o Google continua a provocação aparentemente interminável de seus óculos inteligentes.
Izadi não falou sobre uma data de lançamento para o dispositivo XR durante o TED Talk, o que não é um bom sinal, então quando eles provavelmente serão produtos reais que podemos comprar? Dizem que os óculos inteligentes demonstram ser uma colaboração adicional entre o Google e a Samsung – o fone de ouvido também é feito pela Samsung – e não deve ser lançado até 2026, de acordo com um relatório de O diário econômico coreanoque estende a possível data de lançamento além do final de 2025, como rumores anteriormente. Embora isso possa parecer muito tempo, na verdade está mais próximo do que a versão do consumidor dos óculos inteligentes do Meta Orion, que não se espera que atinjam lojas até o final de 2027.
Vai chegar tarde demais?

Considerando os óculos inteligentes mostrados durante o TED Talk parecem reunir aspectos de vidro, meta de Ray-Ban e Smartglasses como os de Halliday, além do assistente do Google Gemini que já usamos em nossos telefones e computadores agora, a longa espera contínua é surpreendente e frustrante.
Pior ainda, a sobrecarga de hardware usando a IA, além das muitas cópias e alternativas de Ray-Ban e o final de 2026 significa que o esforço do Google e a Samsung corre o risco de se tornar notícias antigas ou, eventualmente, lançar para um público incrivelmente cansado. O fone de ouvido Android XR, Conhecido como Projeto Moohanprovavelmente será lançado em 2025.
Talvez estejamos apenas impacientes, mas quando vemos uma demonstração com um produto que parece tão final e tentador, é difícil não querer em nossas mãos (ou em nossos rostos) mais cedo do que algum tempo no próximo ano.