Este sistema es la segunda generación. En marzo de 2012 se había introducido a EYECAN, que se montó en unos lentes y cuenta con un sensor que reconoce el movimiento de la pupila para permitir que el usuario seleccione elementos de una pantalla con el simple hecho de mover sus ojos.
Ahora, EYECAN+ deja atrás los lentes o cualquier otro accesorio y fue convertido en una barra que se instala por debajo del monitor de una PC; este sistema reconoce a la persona y se calibra desde la primera vez para identificar fácilmente los comandos que el usuario emite, todo a través de su mirada.
Esta interacción es “simple” en cierto grado, pues basta con mover las pupilas y parpadear para simular las acciones que se realizan con un mouse tradicional; el movimiento del puntero se traduce en el desplazamiento de la pupila, mientras que los “clics” se ejecutan cuando se parpadea.
En la investigación de Samsung se trabajó con Hyung-Jin Shin, estudiante universitario que nació cuadripléjico y ha colaborado desde hace tiempo para perfeccionar la precisión de EYECAN+. Así como él lo muestra, el sistema se puede usar estando sentado o incluso acostado, con el requerimiento de estar a 60 o 70 cm del monitor.
Para completar la interacción, en la pantalla aparece un menú que cuenta con comandos rápidos como “copiar”, “pegar”, “seleccionar”, “zoom”, entre otros. También se pueden agregar comandos personalizados como “imprimir”.
Samsung no planea comercializar a EYECAN+. En su lugar ensamblará varios dispositivos que donará a instituciones y hará que el sistema sea de código abierto para que otras empresas retomen el proyecto y lo vuelvan comercial en un futuro próximo.
Referencia: Samsung