Meta actualiza sus gafas con Inteligencia Artificial: mejor escucha en entornos ruidosos y música “a la carta” con Spotify

Meta quiere que sus gafas con Inteligencia Artificial sigan mejorando después de la compra, como si fueran un dispositivo vivo que se actualiza con el tiempo. Con ese argumento —muy de temporada navideña— la compañía ha anunciado el despliegue de la actualización de software v21 para sus modelos Ray-Ban Meta y Oakley Meta HSTN, incorporando dos funciones que apuntan a un uso cotidiano: Conversation Focus, para entender mejor a la persona con la que se habla en lugares ruidosos, y una integración con Spotify que permite pedir música en función de lo que el usuario está viendo.

El anuncio llega en un momento en el que las “smart glasses” intentan salir del nicho de curiosidad tecnológica y convertirse en un accesorio con valor práctico. La apuesta de Meta pasa por reforzar el audio y la interacción por voz —dos ámbitos donde el usuario percibe mejoras inmediatas— y por empujar hacia experiencias “multimodales”, combinando visión (cámara) y comandos hablados para que el dispositivo responda al contexto, no solo a una orden.

Conversation Focus: subir la voz importante y bajar el ruido de fondo

La primera gran novedad es Conversation Focus, una función pensada para situaciones en las que el oído humano suele rendirse: un restaurante lleno, un vagón de tren, un concierto o un evento con música alta. Meta explica que la función utiliza los altavoces de tipo open-ear (que no aíslan completamente el oído) para amplificar la voz de la persona con la que se conversa, de forma que suene “ligeramente más alta” y sea más fácil distinguirla del ruido ambiente.

La compañía añade un detalle práctico: el nivel de amplificación se puede ajustar deslizando el dedo por la patilla derecha de las gafas o desde los ajustes del dispositivo, para adaptarlo a la intensidad del entorno.

Eso sí, por ahora el despliegue es limitado. Meta lo está activando primero para quienes formen parte de su Early Access Program, y en concreto para usuarios de Ray-Ban Meta y Oakley Meta HSTN en Estados Unidos y Canadá. Es decir: es una función real y ya en marcha, pero todavía no es un botón universal para todos los mercados.

Meta AI + Spotify: pedir una canción “que encaje con lo que estás viendo”

La segunda novedad es más llamativa por lo que representa: Meta y Spotify presentan lo que definen como la primera experiencia musical multimodal en estas gafas, capaz de combinar el contexto visual con la personalización del usuario. La mecánica es sencilla: el usuario puede decir “Hey Meta, play a song to match this view” (Meta mantiene el ejemplo en inglés) mientras mira una portada de álbum o una escena concreta, y el sistema genera música o una lista adaptada “a ese momento”.

La idea, en el fondo, es convertir el entorno en un “prompt” continuo: lo que se ve se transforma en señal para recomendar. Y ahí entra el punto crítico: la función se apoya en la capacidad de reconocimiento/visión por ordenador y en la personalización de Spotify para proponer una selección acorde a los gustos del usuario.

Meta matiza la disponibilidad: esta integración con Spotify está disponible solo en inglés, aunque se habilita en un listado amplio de países que incluye España, además de Australia, Austria, Bélgica, Brasil, Canadá, Dinamarca, Finlandia, Francia, Alemania, India, Irlanda, Italia, México, Noruega, Suecia, Emiratos Árabes Unidos, Reino Unido y Estados Unidos.

Un despliegue gradual y una señal de estrategia: que el “hardware” no sea el final

Más allá de las dos funciones concretas, el mensaje estratégico es claro: Meta quiere que las gafas se perciban como un producto que gana valor con el tiempo a través de actualizaciones. La propia compañía subraya que las actualizaciones se irán desplegando de forma gradual y que el acceso temprano depende del programa de pruebas, al que se puede apuntar el usuario mediante lista de espera.

En la industria, este tipo de mejoras también refuerza una tendencia: las smart glasses se están acercando cada vez más a ser “auriculares con superpoderes”, con el audio como eje y la cámara como sensor de contexto. Medios especializados han señalado, además, que esta clase de funciones —como generar música a partir de lo que se ve— también se han dejado entrever en demostraciones de productos rivales en el ecosistema de gafas con experiencias XR.

Queda por ver qué ritmo tendrá la expansión geográfica y qué parte de estas funciones acabará llegando a todos los usuarios sin pasar por programas de acceso temprano. Pero la v21 marca un punto interesante: Meta no está buscando solo que las gafas “hagan fotos y llamen”, sino que empiecen a resolver micro-problemas del día a día —o al menos, a intentarlo— con Inteligencia Artificial aplicada al contexto.


Preguntas frecuentes

¿Qué modelos reciben la actualización v21 de las gafas con Inteligencia Artificial de Meta?
Meta menciona Ray-Ban Meta y Oakley Meta HSTN como los modelos que estrenan estas novedades, con despliegue progresivo y prioridad para el Early Access Program.

¿Conversation Focus está disponible ya en España?
De momento, Meta indica que Conversation Focus se está habilitando para usuarios del Early Access Program en Estados Unidos y Canadá, por lo que su llegada a otros países dependerá del calendario de expansión.

¿La integración de Spotify con Meta AI funciona en español?
Meta señala que la función está disponible solo en inglés, aunque aparece habilitada en varios países, incluido España.

¿Cómo se ajusta el nivel de amplificación de Conversation Focus?
Según Meta, se puede ajustar deslizando el dedo por la patilla derecha de las gafas o desde los ajustes del dispositivo.

Scroll al inicio