
La promesa de la inteligencia artificial se vuelve tangible… y usable
Meta, en colaboración con EssilorLuxottica, ha dado un paso de gigante en la computación espacial con el despliegue de nuevas funcionalidades en sus gafas inteligentes Ray-Ban Meta. Desde abril de 2025, España ya se encuentra entre los países donde estos dispositivos permiten traducción de voz en tiempo real gracias a su integración con Meta AI. Esta actualización no solo mejora la accesibilidad, sino que marca el inicio de una nueva etapa en la interacción entre humanos y máquinas a través de wearables.
La traducción en tiempo real funciona actualmente entre cuatro idiomas: inglés, español, francés e italiano. A través de los altavoces integrados, los usuarios pueden escuchar la traducción en sus oídos mientras leen subtítulos desde su móvil con la app Meta View.
¿Cómo funciona exactamente?
- Basta con decir: “Hey Meta, traduce esto”.
- La IA comienza a captar la conversación.
- Traduce simultáneamente y transmite la respuesta en voz.
- Los subtítulos aparecen sincronizados en la app móvil.
- Funciona incluso sin conexión, siempre que los idiomas estén descargados previamente.
Según datos compartidos por Geeknetic, esta funcionalidad estaba limitada a EE.UU. y ya está habilitada también en España, Alemania, Francia, Italia, Dinamarca, Austria, Bélgica, Noruega y Finlandia.
Una herramienta útil para viajeros, profesionales y ciudadanos globales
Aunque todavía en una fase incipiente, la fluidez de la traducción es muy alta en entornos tranquilos, aunque puede resentirse si hay mucho ruido de fondo. En contextos como videollamadas, eventos o conversaciones cara a cara, ofrece un rendimiento más que notable.
Para el usuario medio, estas gafas representan un avance hacia una sociedad sin barreras idiomáticas, ideal para quienes asisten a ferias internacionales, mantienen relaciones personales o profesionales multilingües o simplemente desean desenvolverse en otro país sin depender del móvil o un traductor físico.
IA visual, música, mensajes y mucho más
La traducción es solo una parte del potencial que ofrecen las gafas. Meta ha incorporado funciones como:
- Identificación de objetos mediante IA visual.
- Reproducción de música desde Spotify o Apple Music.
- Envío y recepción de mensajes desde Instagram o WhatsApp.
- Llamadas por voz con reconocimiento de comandos.
- Reconocimiento de canciones similar a Shazam.
Según 20minutos, esta actualización marca un punto de inflexión en la evolución de los wearables hacia la computación espacial, antesala de la realidad mixta que Meta prevé desarrollar en los próximos años con sus futuras versiones.
¿Adiós a las academias de idiomas?
Aunque sería exagerado afirmar que estas gafas reemplazarán por completo el aprendizaje de idiomas, lo cierto es que su nivel de precisión —especialmente en frases cotidianas— abre un debate interesante sobre la necesidad de dominar otros idiomas en contextos funcionales.
Como señala El Español – Omicrono, esta funcionalidad podría “cambiar la forma en la que viajamos o socializamos en el extranjero”.
Perspectiva de futuro: la computación espacial ya está aquí
Este lanzamiento no es un fin en sí mismo, sino un paso intermedio hacia un futuro con gafas de realidad mixta accesibles, portátiles y con plena integración con el ecosistema digital. Meta apuesta por combinar estética (modelo Ray-Ban Wayfarer) con funcionalidades de vanguardia para popularizar este tipo de tecnologías.
La democratización de la IA en dispositivos cotidianos anticipa un nuevo paradigma: el ordenador ya no cabe en el bolsillo, ahora se lleva en la cara.