Introducción
Introducción
En las anteriores Unidades Didácticas hemos aprendido qué son los mapas de profundidad y en qué forma podemos utilizarlos para algunas aplicaciones. No obstante, a la hora de utilizar Kinect para identificar los movimientos de un usuario potencial, parece lógico suponer que el mapa de profundidad no constituirá por sí mismo una fuente de información directa para deducir dónde está el usuario, qué está haciendo, etc., ya que no tenemos forma de inferir a partir de una lectura simple del mapa de profundidad si los píxeles que estamos leyendo pertenecen a la mano del usuario, a un objeto que había en el entorno, o incluso a otro usuario.
El problema del reconocimiento de objetos es complejo de resolver y va más allá del ámbito de este curso el abordarlo. Afortunadamente, OpenNI/NITE incluye un sistema de reconocimiento de personas integrado, por lo que no es necesario implementar funciones adicionales para extraer los píxeles que corresponden a los usuarios.
En esta unidad, vamos a presentar muy brevemente y muy cualitativamente algunas alternativas para el reconocimiento de objetos en imágenes. Acto seguido, daremos paso a una explicación a nivel de código de las herramientas necesarias en OpenNI para acceder a esta información. El interés principal de esta unidad vendrá en la realización de unas prácticas que permitan afianzar el uso de dichas herramientas y la aplicación del reconocimiento de objetos en aplicaciones reales.