Una nueva generación de gafas inteligentes ha llegado, y Meta está en el centro de todo. Además de Orion, el prototipo de Meta para las primeras gafas holográficas completas del mundo, la compañía anunció una importante actualización de sus gafas inteligentes Ray-Ban durante el evento Connect la semana pasada.
En lugar de decirte qué hay de nuevo, te daré una pista sobre la mayor novedad en las gafas Ray-Ban de Meta. ¿Lo adivinas?
Si tu respuesta fue IA (inteligencia artificial), ¡felicidades! Has ganado el juego de adivinanzas más fácil del mundo tecnológico.
Aunque no sorprende que Meta, como casi todas las compañías tecnológicas, esté introduciendo IA en sus gafas, el hecho de que sea esperado no le resta importancia. La IA puede no ser necesaria en todos los productos, pero podría ser una auténtica revolución para las gafas inteligentes.
Meta AI, pero con estilo
Por si no lo has notado, la IA está apareciendo en todas partes: en las búsquedas de Google, en Photoshop, y hasta en tu bandeja de entrada. Sin embargo, algunas de esas aplicaciones no tendrán éxito; en este momento, hay una especie de mentalidad de «tirar IA a la pared y ver qué se queda pegado».
Pero algunas de esas aplicaciones de IA sí se quedarán, y tras usar brevemente las gafas Ray-Ban de Meta, estoy convencido de que las gafas inteligentes serán uno de esos casos de uso.
Existen muchos obstáculos para hacer realidad las gafas inteligentes, como la miniaturización, pero encontrar un nuevo método de entrada será una de las mayores prioridades. Si las gafas inteligentes van a ser «la próxima gran cosa» después de los smartphones, necesitarán estar llenas de funciones, pero ser igual de intuitivas que nuestros queridos dispositivos de vidrio.
Además, necesitarán una interfaz de usuario (UI) que la gente entienda como fácil de usar. El problema es que no hay una pantalla táctil en unas gafas inteligentes. En el futuro, estas gafas podrían adoptar algún tipo de control por gestos o seguimiento ocular, similar al Apple Vision Pro, pero esa tecnología aún no es viable en un dispositivo tan pequeño.
Por ahora, tenemos una cosa: los asistentes de voz. Meta ya ha aprovechado ese potencial, ya que la última actualización de sus Ray-Ban viene precargada con Meta AI. Tuve la oportunidad de probar Meta AI en un evento reciente y, aunque aún está en proceso de mejora, puedo ver claramente su atractivo.
La inclusión de modelos de lenguaje de gran tamaño (LLM) promete hacer que los asistentes de voz sean mucho más inteligentes. Por naturaleza, los LLM son mejores para comprender el lenguaje natural y pueden ejecutar comandos más complejos y con varios pasos.
Por ejemplo, puedes ponerte las gafas Ray-Ban inteligentes, mirar una receta en francés y decir: «Oye Meta, traduce esta receta para mí». Hice exactamente eso en el espacio de demostración de Meta. Los resultados no fueron perfectos: tuve que enfocar mucho la vista en la tarjeta, y la IA no escuchó bien mi solicitud en una sala ruidosa, pero con algunos ajustes, lo logramos.
Con un asistente de voz más potente gracias a la IA, las gafas inteligentes podrían no necesitar de inmediato una interfaz más compleja y refinada. ¿Quieres reproducir música, tomar una foto o configurar una alarma? Solo tienes que decirlo en voz alta. Meta AI ya promete ir más allá de las tareas básicas que ofrecen los asistentes de voz actuales.
Por ejemplo, Meta AI puede identificar objetos en tu campo de visión y proporcionarte información sobre ellos. Eso significa que podrías tener tu momento de «¿qué es eso?» con un par de zapatos o mirar una obra de arte y recibir más información sobre su autor.
Todavía es temprano, pero esta conexión entre la visión por computadora y el flujo interminable de información en la web se siente genuinamente novedosa y, con el tiempo, será muy práctica.
El futuro comienza ahora
Hay mucho trabajo por hacer antes de llegar a nuestro futuro con Orion, pero está claro que Meta AI será un paso crucial en ese camino. De la misma manera que Meta AI promete simplificar la interfaz de usuario en dispositivos como el Quest, también pavimentará el camino para las gafas inteligentes en sus primeras etapas, como las Ray-Ban de Meta.
Aún tengo dudas sobre la utilidad total de los LLM, pero si hay algo en lo que son excepcionales, es en entendernos. Ha llevado tiempo que los asistentes de voz maduren, pero con los LLM, podríamos finalmente llegar a ese punto.
Tanto Amazon como Apple han prometido versiones mucho más funcionales de sus asistentes de voz Alexa y Siri, respectivamente, y Meta AI ya está comenzando a aprovechar esa potencia de los LLM.
La IA puede no desencadenar una revolución inmediata en las gafas inteligentes, pero podría ser la clave para convencernos de que realmente valen la pena nuestra inversión.