Razer Project Motoko
Project Motoko: probamos los auriculares con cámaras que traducen menús, recomiendan recetas y ayudan a jugar
Tienen cámaras integradas capaces de analizar lo que el usuario está viendo y responder mediante inteligencia artificial. Ese es el concepto de Project Motoko, el prototipo de Razer que ha captado todas las miradas en el MWC
En el universo de ferias tecnológicas como el MWC abundan los prototipos diseñados para llamar la atención durante unos minutos antes de desaparecer entre decenas de novedades. Sin embargo, en el espacio de Qualcomm había un dispositivo que lograba detener a los visitantes durante varios minutos frente a cada demostración.
No se trataba de un smartphone, ni de unas gafas inteligentes. A primera vista parecía un accesorio mucho más sencillo: unos auriculares de diadema. Pero bastaba con acercarse un poco más para descubrir un detalle que cambiaba por completo su naturaleza tecnológica. En cada lado del dispositivo se escondían pequeñas cámaras.
Razer Project Motoko en el MWC
El prototipo se llama Project Motoko y es un concepto desarrollado por Razer que combina audio, visión artificial e inteligencia artificial en un único wearable. La idea que lo sustenta es sorprendentemente simple y es que el dispositivo puede ver lo mismo que el usuario y responder a preguntas en tiempo real a través del audio.
Auriculares que «ven» el entorno
Durante las demostraciones, los responsables explicaban la disposición de las cámaras y el funcionamiento general del dispositivo. Después, se colocaban los auriculares para iniciar la interacción con la inteligencia artificial.
El sistema utiliza dos pequeñas cámaras situadas aproximadamente a la altura de los ojos del usuario. Desde esa posición capturan la escena en primera persona, enviando la imagen a un sistema de inteligencia artificial que analiza el contexto y genera respuestas.
Razer Project Motoko
De esta forma, los auriculares no solo escuchan preguntas, sino que también interpretan lo que el usuario está mirando en cada momento.
Traducción instantánea
Una de las primeras pruebas fue la traducción de texto. Sobre la mesa había un menú escrito en japonés. El usuario simplemente dirige la mirada hacia la carta y pide la traducción.
En cuestión de segundos, la inteligencia artificial responde en voz alta con el contenido del menú. La interacción no termina ahí. A continuación, el usuario pregunta cuál sería la opción más saludable.
Razer Project Motoko
El sistema analiza los platos disponibles, selecciona una recomendación concreta y además genera la frase necesaria para pedirla en japonés.
La demostración ilustró la capacidad de actuar como un asistente contextual capaz de interpretar el entorno y proporcionar información útil en tiempo real.
De la cocina a los videojuegos
La segunda demostración cambia completamente de escenario. Sobre la mesa se colocan varios ingredientes de cocina. El usuario pregunta entonces qué receta podría preparar con lo que está viendo.
Project Motoko identificó los alimentos y propuso un plato que puede elaborarse con ellos. A continuación describía los pasos básicos para cocinarlo. En una variación de la demo, el usuario pedía que la explicación se realice en italiano, y el sistema respondía inmediatamente en ese idioma.
Project Motoko identificó los alimentos y propuso un plato
La tercera prueba estaba pensada para el mundo del gaming. En una pantalla aparece una partida de Minecraft y el usuario consultaba qué estrategia debería seguir.
La inteligencia artificial analizó la escena del juego y sugirió cómo aprovechar los recursos disponibles o qué estructuras convendría construir. La interacción recordaba a un entrenador virtual que observaba la partida y aconsejaba al jugador.
Varios modelos de IA
Más allá de las demostraciones, el concepto tecnológico detrás de Project Motoko también plantea una solución interesante. El prototipo está diseñado para funcionar con distintos modelos de inteligencia artificial, lo que abre la puerta a elegir entre varios asistentes.
Durante la presentación se mencionaba la posibilidad de utilizar sistemas como ChatGPT, Grok o Gemini, algo inusual en el ecosistema actual de wearables inteligentes.
Esta interoperabilidad podría convertirse en uno de los elementos diferenciales del dispositivo, ya que permitiría cambiar de modelo según las preferencias del usuario o las capacidades de cada plataforma.
El prototipo está diseñado para funcionar con distintos modelos de inteligencia artificial
Project Motoko se presentó en el Mobile World Congress como un prototipo en desarrollo y no como un producto comercial. Sin embargo, el interés que despertó entre los asistentes revela hasta qué punto este tipo de dispositivos puede representar una nueva categoría tecnológica.
La combinación de cámaras, micrófonos y auriculares crea una interfaz natural entre el usuario y la inteligencia artificial. En lugar de mirar una pantalla o escribir preguntas, el usuario simplemente observa el mundo y conversa con el asistente.
Las demostraciones realizadas en Barcelona se centraban en situaciones cotidianas como traducir un menú, cocinar con los ingredientes disponibles o mejorar la estrategia en un videojuego. Pero detrás de esos ejemplos se esconde una idea más ambiciosa como es convertir los auriculares en una extensión permanente de la inteligencia artificial.
Un dispositivo que escucha, ve y responde sobre el mundo que nos rodea. Una propuesta todavía experimental, pero que invita a imaginar cómo podrían evolucionar los wearables inteligentes en los próximos años.