Hace un año, durante el Google I/O llegaron a presentar un interesante proyecto conocido como Project Soli, el cual permitía leer los movimientos de una persona traduciéndolos en comandos y hacer que los dispositivos realizaran ciertas funciones sin tocarlos. Pero ahora un grupo de estudiantes han tomado a Soli como punto de partida para lograr algo más impresionante.
Los estudiantes Hui-Shyong Yeo, Gergely Flamich, Patrick Schrempf, David Harris-Birtill y Aaron Quigley de la Universidad de St. Andrews, han tomado de referencia la tecnología de radares empleadas en el proyecto de Google para desarrollar una mejor forma de detección de materiales, descubriendo que cada material produce señales únicas, las cuales pueden ser aprendidas por la computadora del chip y así generar el conocimiento de reconocer posteriormente el objeto que esta tocando.
Lo interesante de este nuevo radar es que no se limita a descifrar el primer material que toca como plástico, madera o metal, sino que sea capaz de identificar elementos complejos como que tipo de botella de plástico es, o identificar correctamente cuando un vaso de cristal esta vacío o tiene agua.
Aunque continúa en desarrollo, el RadarCat ha logrado resultados formidables permitiendo a sus desarrolladores considerarlo como una solución a corto plazo para problemas actuales como la catalogación de basura en centros de reciclaje o soluciones más simples como un asistente para las personas con una deficiencia visual.
Por ahora, estos estudiantes presentarán su proyecto en el próximo simposio de User Interface Software and Technology (UIST) 2016 que se llevará acabo del 16 al 19 de octubre en Tokio, Japón.
Fuente: University St. Andrews