El sistema de ‘sonar’ impulsado por IA en las gafas inteligentes es un avance revolucionario que abre nuevas posibilidades en el campo de la interacción persona-máquina. Al rastrear la mirada del usuario y sus expresiones faciales, las gafas pueden interpretar mejor las emociones y las intenciones, lo que resulta en una experiencia más personalizada y eficiente.
Investigadores de Cornell han desarrollado dos tecnologías pioneras que permiten el seguimiento de la mirada y las expresiones faciales mediante el uso de señales acústicas, similar al sonar. Este avance es significativamente más eficiente en términos de consumo energético que las herramientas similares basadas en cámaras y es lo suficientemente compacto para ser integrado en smartglasses comerciales, así como en dispositivos de realidad virtual (VR) y realidad aumentada (AR).
Las tecnologías, denominadas GazeTrak y EyeEcho, utilizan altavoces y micrófonos montados en el armazón de unas gafas para emitir ondas de sonido inaudibles que rebotan en el rostro del usuario. Estas ondas reflejadas por los movimientos faciales y de los ojos son captadas por los micrófonos. GazeTrak se destaca por ser el primer sistema de seguimiento ocular que opera completamente con señales acústicas. Por otro lado, EyeEcho es el primer sistema basado en gafas capaz de detectar expresiones faciales de manera continua y precisa, reproduciéndolas en tiempo real a través de un avatar.
Ambos dispositivos pueden operar varias horas con una sola carga de batería de smartglasses y más de un día en dispositivos de VR. “Son pequeños, económicos y consumen muy poca energía, por lo que pueden usarse diariamente sin agotar la batería”, explica Cheng Zhang, profesor asistente de ciencias de la información en el Cornell Ann S. Bowers College of Computing and Information Science y director del Laboratorio de Interfaces Informáticas Inteligentes para Interacciones Futuras (SciFi) que desarrolló estos dispositivos.
En entornos de VR, la capacidad de recrear detalladamente las expresiones faciales y los movimientos de la mirada mejora significativamente la interacción entre usuarios, comenta Ke Li, estudiante doctoral que lideró el desarrollo de GazeTrak y EyeEcho. Además, el uso de señales de sonido reduce las preocupaciones sobre la privacidad, un aspecto cada vez más relevante dado el aumento del uso de cámaras en productos comerciales.
Las aplicaciones de GazeTrak y EyeEcho van más allá de la mejora de experiencias en VR. GazeTrak podría utilizarse con lectores de pantalla para asistir a personas con visión reducida mientras navegan por internet, y ambos sistemas podrían servir para diagnosticar o monitorizar enfermedades neurodegenerativas como el Alzheimer y el Parkinson, dado que estos trastornos se manifiestan en movimientos oculares anormales y en una menor expresividad facial.