A pesar del auge de las pantallas táctiles en los dispositivos electrónicos, aún existe quien las considera incómodas o demasiado pequeñas para manejarlas con la misma destreza que las interfaces convencionales. Para solucionar este problema de tamaño, un equipo de investigación formado por científicos de la Universidad Carnegie Mellon y del laboratorio de Microsoft en Redmond ha ideado un sistema que permite utilizar el propio cuerpo para controlar los menús de navegación de teléfonos móviles, reproductores de sonido, o incluso, ordenadores, según un comunicado publicado por Microsoft y que recoge New Scientist.
El prototipo, bautizado como Skinput, se compone de un proyector minúsculo que está incrustado en un brazalete y un detector acústico integrado en el mismo dispositivo. El proyector se encarga de emitir imágenes (como un teclado, un menú u otros gráficos) sobre la piel de las palmas de las manos o los antebrazos. A continuación, el detector de sonido determina qué parte de la pantalla se activa cuando el usuario presiona su cuerpo.
El prototipo, bautizado como Skinput, se compone de un proyector minúsculo que está incrustado en un brazalete y un detector acústico integrado en el mismo dispositivo. El proyector se encarga de emitir imágenes (como un teclado, un menú u otros gráficos) sobre la piel de las palmas de las manos o los antebrazos. A continuación, el detector de sonido determina qué parte de la pantalla se activa cuando el usuario presiona su cuerpo.
rene
No hay comentarios:
Publicar un comentario