Óculos da Meta sugerem músicas no Spotify com base no que você vê

Atualização dos óculos inteligentes integra o Meta AI ao Spotify e traz recurso para facilitar conversas em ambientes barulhentos
Pedro Spadoni17/12/2025 11h27
zuckerberg
Imagem: Mijansk786/Shutterstock
Compartilhe esta matéria
Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

Siga o Olhar Digital no Google Discover

A Meta começou a liberar uma atualização para seus óculos inteligentes nesta semana. O update amplia, de forma prática, o que o acessório consegue fazer no dia a dia. A principal novidade é uma integração entre Meta AI e Spotify que permite tocar músicas ou criar playlists com base no que o usuário está vendo. Junto disso, chega um recurso pensado para facilitar conversas em ambientes barulhentos.

As funções fazem parte da versão 21 do software dos óculos Ray-Ban Meta e Oakley Meta HSTN. A liberação é gradual e começa pelos usuários inscritos no programa Early Access, mas já indica o caminho da Meta: transformar os óculos inteligentes em assistentes ativos, capazes de conectar visão, áudio e contexto de forma quase automática.

Óculos inteligentes da Meta usam IA para sugerir músicas do Spotify a partir do ambiente

A integração com o Spotify é apresentada pela Meta como sua primeira experiência musical realmente multimodal (isto é, que cruza o que o usuário vê com ações dentro de um aplicativo). Na prática, basta um comando de voz para pedir que os óculos toquem uma música ou criem uma playlist que “combine” com a cena à frente.

spotify
Se a pessoa estiver olhando para a capa de um álbum, por exemplo, os óculos da Meta podem tocar uma música daquele artista no Spotify (Imagem: PJ McDonnell/Shutterstock)

O funcionamento é simples de entender. Se a pessoa estiver olhando para a capa de um álbum, por exemplo, os óculos podem tocar uma faixa daquele artista. Se o cenário for uma decoração de Natal ou um ambiente festivo, a IA tenta puxar músicas que combinem com aquele clima, usando os sistemas de recomendação do Spotify.

Segundo a Meta, a ideia é unir visão computacional (capacidade de reconhecer o que está no campo de visão da pessoa) com a personalização do Spotify, que já conhece os gostos do usuário. O resultado é uma trilha sonora pensada para aquele momento específico, sem que seja preciso pegar o celular ou procurar manualmente.

Mesmo assim, a própria empresa admite que o recurso ainda tem pé no experimental. Ele funciona mais como uma demonstração do que a Meta pretende fazer com IA multimodal do que como uma ferramenta essencial. Ainda assim, chama atenção por estar disponível em mais mercados, incluindo o Brasil, desde que o uso seja em inglês.

Novo recurso da Meta tenta facilitar conversas em locais barulhentos

A outra novidade da atualização é o Conversation Focus, recurso pensado para quem tem dificuldade de ouvir alguém em ambientes barulhentos. Anunciado meses atrás no evento Meta Connect, ele começa agora a chegar aos óculos compatíveis por meio do novo software.

Montagem mostrando mulher usando óculos Ray-Ban da Meta com recurso Conversation Focus ativado
Conversation Focus foi pensado para quem tem dificuldade de ouvir alguém em ambientes barulhentos (Imagem: Divulgação/Meta)

A ideia é usar os microfones direcionais e os alto-falantes abertos dos óculos para amplificar a voz da pessoa com quem o usuário está conversando. O som fica levemente destacado, o que ajuda a separar a fala do barulho ao redor.

O nível dessa amplificação pode ser ajustado pelo próprio usuário, seja com gestos no braço dos óculos, por comandos de voz ou pelas configurações do dispositivo. A ideia é adaptar o volume ao ambiente, por exemplo: um restaurante cheio, um trem lotado ou um evento ao ar livre.

Leia mais:

A Meta faz questão de deixar claro que o Conversation Focus não é um recurso médico nem uma ferramenta formal de acessibilidade. Ele é apresentado como um ganho prático para o uso cotidiano. Por enquanto, a função fica restrita aos Estados Unidos e ao Canadá, também via Early Access, nos modelos Ray-Ban Meta e Oakley Meta HSTN.

Pedro Spadoni
Redator(a)

Pedro Spadoni é jornalista formado pela Universidade Metodista de Piracicaba (Unimep). Já escreveu para sites, revistas e até um jornal. No Olhar Digital, escreve sobre (quase) tudo.