Algoritmo para estimación de la profundidad de una escena adecuada para situaciones de desastre








Autores


  • Edgar Omar Ovalle Ozuna, Madaín Pérez Patricio, Abiel Aguilar González y Germán Ríos Toledo. Instituto Tecnológico de Tuxtla Gutiérrez. Tuxtla Gutiérrez 29050, Chiapas. R&D PolyWorks México. Santiago de Querétaro 76060, Qro. M14270276@tuxtla.tecnm.mx madain.pp@tuxtla.tecnm.mx aaguilar@polyworksmexico.com german_rios@ittg.edu.mx

NTHE NÚMERO


Resumen:

La navegación autónoma es indispensable en zonas de desastre, en las un robot puede acceder fácilmente en espacios reducidos y estimar la profundidad de la escena con una sola cámara. Para estimar la profundidad, una alternativa es el uso de algoritmos de visión por computadora de los cuales se obtenga la información de profundidad o distancia entre los objetos a partir de una sola cámara. Con esto, se remueve el uso de la dependencia de múltiples sensores y reduce el consumo computacional, pero añade el reto de interpretar correctamente la ambigüedad de la imagen. Lo anterior motiva a que, en este trabajo, se proponga una metodología para estimación de la profundidad de una escena utilizando flujo óptico a partir de una sola cámara. La propuesta consta de unos tres pasos: primero se aplica un filtro y reducción piramidal para disminuir la resolución de la imagen. Segundo, a cada reducción se le calcula el flujo óptico usando correlación basada en la suma de diferencias absolutas (SAD). Finalmente, con la información obtenida de flujo óptico en la pirámide de mayor resolución, se estima la profundidad para navegación autónoma. Se analizó el comportamiento del algoritmo usando bases de datos estandarizadas las cuales demuestran que éste presenta un comportamiento adecuado en tiempo de respuesta y en la calidad de sus resultados con respecto a otros algoritmos similares.


Palabras clave:

Navegación autónoma, cámara Monocular, flujo óptico, estimación de profundidad, sistema embebido.


Abstract:

Autonomous navigation is indispensable in disaster areas, where a robot can easily access confined spaces and estimate the depth of the scene with a single camera. For depth estimation, an alternative is the use of computer vision algorithms from which depth or distance information between objects is obtained from a single camera. This removes the reliance on multiple sensors and reduces computational consumption, but adds the challenge of correctly interpreting image ambiguity. This paper proposes a methodology for estimating the depth of a scene using optical flow from a single camera. The proposal consists of about three steps: first, a filter and pyramidal reduction are applied to reduce the image resolution. Second, for each reduction, the optical flow is calculated using correlation based on the sum of absolute differences (SAD). Finally, with the obtained information of optical flow in the pyramid of higher resolution, the depth for autonomous navigation is estimated. The performance of the algorithm was analyzed using standardized databases which show that it presents an adequate performance in response time and in the quality of its results with respect to other similar algorithms.


Keywords:

Autonomous navigation, monocular camera, optical flow, depth estimation, embedded system.



Descargar (2)