por Francisco Máñez
A todos los que nos gusta el mundo de la aviación, ver despegar una aeronave desde un portaaviones
es todo un espectáculo. Durante los despegues es habitual encontrar a
operadores y controladores aéreos haciendo señas a los pilotos para que
enfilen la pista o se preparen para el despegue. Esta comunicación no
verbal es clave para controlar el tráfico a pie de pista y,
lógicamente, requiere que controlador y piloto conozcan este lenguaje.
Teniendo en cuenta el creciente uso de aeronaves no tripuladas, un
equipo del MIT está trabajando en un sistema que permita guiar a los drones mediante los gestos de los controladores de pie de pista.
zona-militar.com
La idea del equipo de investigadores del MIT es que los drones sean capaces de procesar los gestos de los controladores de la cubierta del portaaviones y, además, sean capaces de distinguir al controlador y sus gestos entre toda la vorágine de la actividad propia del portaaviones. Precisamente, el “ruido de fondo” provocado por la actividad de la cubierta del portaaviones es el problema principal que el equipo del MIT, capitaneado por Yale Song, un estudiante de doctorado del Departamento de Ingeniería Electrónica y Ciencias de la Computación, su director de tesis, el profesor Randall Davis y David Demirdjian, un investigador del Laboratorio de Inteligencia Artificial del MIT, han querido resolver.
El algoritmo desarrollado procesa las imágenes captadas por un sistema de cámaras similar a Kinect (no utilizan el sistema de Microsoft porque el proyecto es anterior a su lanzamiento) que permite reconocer formas tridimensionales y seguir el movimiento de los brazos. A partir de ahí, el sistema capta una imagen tridimensional del controlador y elimina el fondo para comenzar a realizar estimaciones sobre la postura del cuerpo y compararla con una serie de patrones ya predefinidos por el controlador aéreo. La clave del sistema es localizar los gestos de las manos y en la “biblioteca” de patrones corporales, dos informaciones que hacen que el sistema pueda “comprender” la orden que se le ha dado.
Durante las pruebas realizadas, el sistema ha sido cargado con los 24 patrones que más suelen utilizarse a pie de pista, de los cuales aproximadamente un 76% de las órdenes han sido procesadas adecuadamente, lo cual sirve para darnos una idea de la complejidad del sistema, y que parece que van en la senda de convertirlo en algo perfectamente viable.
Información:
Guiding robot planes with hand gestures
MIT News - March 14, 2012
Aircraft-carrier crew use a set of standard hand gestures to guide planes on the carrier deck. But as robot planes are increasingly used for routine air missions, researchers at MIT are working on a system that would enable them to follow the same types of gestures.
The problem of interpreting hand signals has two distinct parts. The first is simply inferring the body pose of the signaler from a digital image: Are the hands up or down, the elbows in or out? The second is determining which specific gesture is depicted in a series of images. The MIT researchers are chiefly concerned with the second problem; they present their solution in the March issue of the journal ACM Transactions on Interactive Intelligent Systems. But to test their approach, they also had to address the first problem, which they did in work presented at last year's IEEE International Conference on Automatic Face and Gesture Recognition.
Yale Song, a PhD student in MIT's Department of Electrical Engineering and Computer Science, his advisor, computer science professor Randall Davis, and David Demirdjian, a research scientist at MIT's Computer Science and Artificial Intelligence Laboratory (CSAIL), recorded a series of videos in which several different people performed a set of 24 gestures commonly used by aircraft-carrier deck personnel. In order to test their gesture-identification system, they first had to determine the body pose of each subject in each frame of video. "These days you can just easily use off-the-shelf Kinect or many other drivers," Song says, referring to the popular Microsoft Xbox device that allows players to control video games using gestures. But that wasn't true when the MIT researchers began their project; to make things even more complicated, their algorithms had to infer not only body position but also the shapes of the subjects' hands.
Read more at MIT News: http://web.mit.edu/newsoffice/2012/ro...
Video: Melanie Gonick
Simulations courtesy of Yale Song
Publicado el 13/3/2012 por
Massachusetts Institute of Technology (MIT)
Massachusetts Institute of Technology (MIT)
Fuente: lacaraocultadelosovnis.blogspot.com.es/2012
¡Eh, Barbas! Buen platillo volante que aparece en la foto y luego en el vídeo, despegando del portaaviones norteamericano. ¡Para que después digan los pseudoescépticos que los platillos volantes no existen!...
ResponderEliminar