Un joven investigador del Instituto Fraunhofer de Investigación de Gráficos por Computadora ha desarrollado un nuevo sistema de audífonos que es capaz de interpretar las expresiones faciales y convertirlas en comandos para un teléfono inteligente.

Por medio de esta tecnología las personas podrían cambiar de canción con una sonrisa, abrir tu boca para responder una llamada y hasta parpadear con el fin de abrir una página de Internet preconfigurada, algo que sería de mucha ayuda para las personas que sufren de discapacidad motriz.

El prototipo consiste en una auricular equipado con electrodos que se fijan al lóbulo de la oreja con una clavija, con lo que reconocen los cambios en la forma del conducto auditivo cuando el usuario hace diferentes expresiones faciales, a través del movimiento de los músculos.

Estos movimientos hacen que la almohadilla del oído se deforme y produzca un cambio en el campo eléctrico, lo que el sistema detecta como un movimiento de la cara previamente asignado.

Algunos problemas como las acciones disparadas por los gestos comunes de las personas sería resuelta a través de una modificación en el patrón de respuesta del sistema, limitando su uso únicamente cuando el smartphone necesite de la actividad del usuario, como la llegada de una llamada o un mensaje, algo que también sería de utilidad para los conductores durante el tráfico pesado.