Meta y Ray-Ban anunciaron una serie de novedades en las gafas inteligentes que ambas empresas desarrollan. Gran parte de los cambios están enfocados en la inclusión de funciones de inteligencia artificial y en la traducción en tiempo real.
Durante el Meta Connect 2024, el evento anual de la compañía, también se dio a conocer un nuevo diseño, que se suma a los colores que ya están disponibles en el mercado.
El nuevo diseño de las Ray-Ban de Meta
Una de las novedades más destacadas de estas gafas es su nueva edición limitada con marco transparente. Este diseño retro, que recuerda a la estética de dispositivos icónicos como el Game Boy Color, ha captado la atención de los consumidores que buscan algo más que simples gafas de sol. Con solo 7.500 unidades disponibles, esta edición se vende por 429 dólares, 100 dólares más que la versión en negro estándar. Este marco transparente permite observar los complejos componentes tecnológicos que forman parte de su interior, un detalle que subraya su sofisticación tecnológica.
Además, Meta ha anunciado que próximamente lanzará una línea de lentes Transitions, en colaboración con EssilorLuxottica, que aumentarán la versatilidad de las gafas, permitiendo un uso más cómodo en distintas situaciones de luz.
Traducción en tiempo real: la novedad en Ray-Ban de Meta
Una de las actualizaciones más esperadas es la integración de la función de traducción en tiempo real. Hasta ahora, las Ray-Ban Meta solo ofrecían la posibilidad de traducir texto a partir de imágenes fijas, pero Meta ha prometido que, en los próximos meses, estas gafas podrán traducir conversaciones en directo entre varios idiomas, incluyendo inglés, español, francés e italiano. Esta funcionalidad será especialmente útil para aquellos que viajan con frecuencia o interactúan en entornos multilingües.
Cuando esta función esté disponible, los usuarios podrán hablar con alguien en otro idioma y escuchar la traducción directamente a través de los altavoces integrados en las gafas. Aunque la lista de idiomas es limitada en su lanzamiento, Mark Zuckerberg ha señalado que el equipo de Meta ya está trabajando para añadir más lenguas en el futuro.
Otro de los avances clave en la evolución de estas gafas es la incorporación de la función “Reminders”. Esta herramienta permite que las gafas capturen una imagen de lo que el usuario está viendo y, posteriormente, envíen una notificación al teléfono para recordarle ese momento. Es una especie de memoria visual que promete cambiar la forma en que los usuarios interactúan con su entorno. Ya no será necesario tomar notas o confiar en la memoria para recordar algo importante: las gafas lo harán por ti.
Además, esta función de IA va un paso más allá, al permitir que las gafas recuerden detalles esenciales, como el lugar donde estacionaste el coche o que envíen recordatorios de voz para realizar acciones en el futuro, todo sin la necesidad de sacar el teléfono del bolsillo.
La integración de IA en las gafas de Meta
Meta ha optimizado su asistente virtual Meta AI, el cual ahora permite una interacción más fluida y natural. Con solo decir “Hey, Meta”, los usuarios podrán iniciar una conversación y continuar haciéndolo sin necesidad de repetir el comando de activación.
De igual manera, la IA ha sido perfeccionada para interpretar el entorno visual del usuario de forma más precisa y sin la necesidad de comandos verbales adicionales como “mira y…”. Esto significa que las gafas podrán identificar objetos y dar información al instante, mejorando significativamente la experiencia del usuario en comparación con versiones anteriores.
Por otro lado, una de las funciones más esperadas es la capacidad de procesar vídeo en tiempo real. Con esta actualización, cuando un usuario esté explorando una nueva ciudad, podrá pedir a Meta AI que le sugiera lugares de interés o que le guíe en un recorrido personalizado basado en lo que esté viendo a través de las gafas. Esta característica también será útil en actividades cotidianas, como hacer la compra en el supermercado, donde la IA podrá ayudar a decidir qué preparar para comer basándose en los ingredientes a la vista.