Demostración de la pantalla. Obsérvese la mano del usuario parcialmente situada al otro lado del objeto. (Foto: Interact Lab, School of Engineering and Informatics, University of Sussex)

Una nueva pantalla que presenta imágenes en el aire permite a los usuarios interactuar con objetos bidimensionales y tridimensionales, mientras cambia la forma y la ubicación de las cosas mostradas para optimizar la visibilidad, facilitar la interacción o adaptarse de manera flexible a usuarios individuales o múltiples que interactúen con el contenido flotante.

Si bien ya existen pantallas de niebla que cambian de forma, al menos en los laboratorios, esta es la primera vez que las dos tecnologías principales presentes en el diseño se han combinado, lo cual abre paso a nuevas posibilidades prácticas que hasta no hace mucho eran exclusivas de la ciencia-ficción.

El nuevo sistema, llamado MistForm, es obra del equipo de Diego Martínez Plasencia, de la Universidad de Sussex en el Reino Unido.

Con otras tecnologías de visualización en 3D debemos enfocar nuestros ojos sobre la superficie de la pantalla, aunque veamos un objeto “surgiendo” de ella. Si entonces tratamos de tocarlo, nuestros ojos necesitarán enfocar nuestra mano o la pantalla, lo que pronto llevará a experimentar fatiga visual (a menos que el objeto 3D y nuestra mano estén realmente cerca de la superficie de la pantalla). MistForm puede adaptarse a estos escenarios, moviendo la superficie de visualización para que tanto el objeto como la mano permanezcan cómodamente visibles.

MistForm tiene más o menos el tamaño de un televisor de 39 pulgadas y está formado por niebla estabilizada por cortinas de aire. La pantalla puede moverse hacia el usuario o alejarse de él, y puede doblarse en numerosas formas diferentes. Por ejemplo, puede curvarse alrededor de dos personas, proporcionando visibilidad óptima para ambas, o puede adoptar una forma triangular si estas dos personas necesitan trabajar sobre áreas distintas de la pantalla, independientemente.

La visualización se proyecta desde arriba. Unos sensores detectan los movimientos que realiza el usuario e interpretan las intenciones subyacentes en esos movimientos (por ejemplo, acercarse a uno de los objetos mostrados en la pantalla. De este modo, el sistema se adapta automáticamente a lo que desea ver el usuario.

Fuente:noticiasdelaciencia.com

RSSMix.com Mix ID 8156608