Este website utiliza cookies propias y de terceros. Alguna de estas cookies sirven para realizar analíticas de visitas, otras para gestionar la publicidad y otras son necesarias para el correcto funcionamiento del sitio. Si continúa navegando o pulsa en aceptar, consideramos que acepta su uso. Puede obtener más información, o bien conocer cómo cambiar la configuración, en nuestra Política de cookies?

Logo de ibercampus.es    Acceder a la versión normal
Ir a la portadaIr a la siguiente noticia
I+D+i
Habra unos 64.000 millones de conexiones hacia 2025 con IOT
UPM crea sistemas de gestos para que se relacionen personas y máquinas en la explosión de Internet

    


Ante al aumento del número de dispositivos electrónicos con los que se puede interactuar, crece el de trabajos que proponen nuevos métodos. La mayoría de las soluciones se basan en usar la voz o los gestos corporales ya que, en ambos casos, son formas de interacción habituales entre humanos. Un sistema de reconocimiento gestual en tiempo real ha sido desarrollado por investigadores de la Universidad politécnica de Madrid para mejorar y hacer más intuitiva la relación entre personas y máquinas.

Las interacciones crecerán exponencialmente con Internet de las cosas (IoT por sus iniciales en inglés), que  se estima las acelerará y tendrá 64.000 millones de conexiones en 2025,seis veces lo que hoy. En el caso de la interacción gestual, se proponen distintas alternativas como puede ser el uso de guantes, sensores hápticos o el uso de información visual. Investigadores del Grupo de Tratamiento de Imágenes (GTI) de la Escuela Técnica Superior de Ingenieros de Telecomunicación (ETSIT) de la Universidad Politécnica de Madrid (UPM) han desarrollado un sistema de reconocimiento gestual basado en el uso de información visual mediante el uso del sensor Leap Motion con el objetivo de permitir una interacción hombre-máquina más intuitiva.
 
En el caso del trabajo propuesto por los investigadores de la UPM Tomás Mantecón, Carlos Roberto del Blanco, Fernando Jaureguizar y Narciso García, la solución propuesta se basa en el reconocimiento gestual utilizando imágenes obtenidas mediante el uso del sensor Leap Motion. Este sensor está especialmente pensado para su uso en la interacción hombre-máquina ya que es pequeño y diseñado para funcionar tanto sobre una mesa para la interacción en un entorno más convencional, así como sobre gafas de realizada virtual. Este dispositivo proporciona imágenes infrarrojas que,  además, tienen la propiedad de tener más iluminados los objetos más cercanos, esto reduce considerablemente la información del fondo que no es relevante en el proceso de reconocimiento gestual.
 
En el trabajo se presenta un sistema capaz de distinguir entre distintos gestos tanto estáticos como dinámicos en un tiempo de unos milisegundos. Este rápido proceso de reconocimiento permite que el tiempo que transcurre entre la realización del gesto y la respuesta del sistema sea suficientemente baja para obtener una buena sensación en el proceso de interacción. Este estudio ha dado lugar a la publicación del artículo "A real-time gesture recognition system using near-infrared imagery" en la revista científica norteamericana Plos One.
 

Imagen 2 Distintos gestos de la base de datos Multi-modal Leap Motion dataset for Hand Gesture Recognition.
 
Aparte del desarrollo del sistema de reconocimiento, se ha creado la base de datos "Multi-modal Leap Motion dataset for Hand Gesture Recognition" que consta de  diversos gestos con el objetivo de comprobar la adecuación del sistema. Dicha base de datos puede servir como idea de los posibles gestos que pueden llevarse a cabo en un proceso de interacción hombre-máquina.
 
Este sistema se puede utilizar en un entorno más profesional para la interacción con robots, ordenadores, en entornos de realidad virtual o realidad aumentada, así como en entornos de domótica para permitir una interacción con los diversos dispositivos de un hogar conectado. 
 
Noticias de portadaArtículos relacionados
Internet de las cosas se acelera:tendrá 64.000 millones de conexiones en2025,seis veces lo que hoy
Sincronizamos gestos y habla al aprender a hablar
Los chimpancés adaptan su sonrisa como los humanos
Señalar es el primer gesto comunicativo de los bebés
Noticias de portadaOtros artículos de I+D+i
La inversión en biotecnología se consolida, según el informe de Asebio 2018 ante el "Investor Day"
El trabajo en equipo de las neuronas permite salvar la información cerebral
Diseñan un prototipo de garganta portátil
Cerco científico a la enfermedad del beso, sin cura
´Neuron´ describe el gen de la menor necesidad de sueño
© 2019  |  www.ibercampus.es   | Powered by 
Política de cookies  |  Política de privacidad
Ir a la portadaIr a la siguiente noticia