Resumen: Uno de los desafíos actuales de la robótica móvil es alcanzar el mayor grado de autonomía, es decir, lograr que un robot desarrolle sus tareas sin la necesidad de un operador humano. El objetivo principal de este trabajo es el desarrollo de un nuevo sistema de navegación autónomo basado en visión para robot móviles en entornos interiores/exteriores. El sistema propuesto utiliza sólo una cámara y sensores de odometría, no depende de ningún sistema de localización externo o infraestructura similar. Además, es capaz de tratar con variaciones en el ambiente (por ejemplo, cambios de iluminación o estaciones del año) y satisface las restricciones para guiar al robot en tiempo real. Para alcanzar el objetivo de este trabajo, se propone un enfoque híbrido que hace uso de dos técnicas de navegación visual: una basada en segmentación de imágenes y otra basada en marcas visuales. Para representar el ambiente se construye un mapa topológico que puede ser interpretado como un grafo, donde las aristas corresponden a caminos navegables y los nodos a espacios abiertos. Para recorrer los caminos (aristas) se desarrolló un método original basado en segmentación y para navegar por los espacios abiertos (nodos) se realizó una mejora y adaptación de un método basado en marcas visuales. Se evaluaron diversos algoritmos de extracción de características distintivas de las imágenes para determinar cuál representa la mejor solución para el caso de la navegación basada en marcas visuales, en términos de performance y repetibilidad. El sistema desarrollado es robusto y no requiere de la calibración de los sensores. La convergencia del método de navegación se ha demostrado tanto desde el punto de vista teórico como práctico. Su complejidad computacional es independiente del tamaño del entorno. Para validar el método realizamos experiencias tanto con sets de datos como con el robot móvil ExaBot, que se presenta como parte de este trabajo. Los resultados obtenidos demuestran la viabilidad del enfoque híbrido para abordar el problema de la navegación basa en visión en entornos complejos interiores/exteriores.
Abstract: One of the current challenges of mobile robotics is to achieve complete autonomy, i.e. to develop a robot that can carry out its tasks without the need of a human operator. The main goal of this work is to develop a new vision-based mobile robot system for autonomous navigation in indoor/outdoor environments. The proposed system uses only a camera and odometry sensors, it does not rely on any external localization system or other similar infrastructure. Moreover, it can deal with real environmental changing conditions (illumination, seasons) and satisfies motion control constraints to guide the robot in real time. To achieve the goal of this work, a hybrid method is proposed that uses both segmentation-based and landmark-base navigation techniques. To represent the environment, a topological map is built. This map can be interpreted as a graph, where the edges represent navigable paths and the nodes open areas. A novel segmentation-based navigation method is presented to follow paths (edges) and a modifed landmark-based navigation method is used to traverse open areas (nodes). A variety of image features extraction algorithms were evaluated to conclude which one is the best solution for landmark-based navigation in terms of performance and repeatability. The developed system is robust and does not require sensor calibration. The convergence of the navigation method was proved from theoretical and practical viewpoints. Its computational complexity is independent of the environment size. To validate the method we perform experiments both with data sets and with the mobile robot ExaBot, which is presented as part of this work. The results demonstrate the feasibility of the hybrid approach to address the problem of vision based navigation in indoor/outdoor environments.
Título :
Sistema de navegación monocular para robots móviles en ambientes interiores/exteriores = Vision-based mobile robot system for monocular navigation in indoor/outdoor environments
Autor :
De Cristóforis, Pablo
Director :
Mejail, Marta
Consejero de estudios :
Mejail, Marta
Jurados :
Scolnik, Hugo ; Sappa, Angel ; Ruiz del Solar, Javier
Año :
2013
Editor :
Facultad de Ciencias Exactas y Naturales. Universidad de Buenos Aires
Filiación :
Universidad de Buenos Aires. Facultad de Ciencias Exactas y Naturales Departamento de Computación
Grado obtenido :
Doctor de la Universidad de Buenos Aires en el área de Ciencias de la Computación
Computación / Robótica Computación / Procesamiento de Imágenes Computación / Ciencia de la Computación e Inteligencia Artificial
Palabras claves :
ROBOTS MOVILES; NAVEGACION AUTONOMA BASADA EN VISION; SEGMENTACION DE IMAGENES; CARACTERISTICAS DE IMAGENES; MOBILE ROBOTS; AUTONOMOUS VISION-BASED NAVIGATION; IMAGE SEGMENTATION; IMAGE FEATURES
Cita tipo Chicago: De Cristóforis, Pablo. "Sistema de navegación monocular para robots móviles en ambientes interiores/exteriores". Tesis de Doctorado. Facultad de Ciencias Exactas y Naturales. Universidad de Buenos Aires. 2013. http://digital.bl.fcen.uba.ar/Download/Tesis/Tesis_5398_DeCristoforis.pdf
Resumen: En esta tesis se presenta un método basado en la técnica de Aprendizaje y Repetición (teach & repeat o TnR) para la navegación autónoma de Vehículos Aéreos No Tripulados (VANTs). Bajo esta técnica se distinguen dos fases: una de aprendizaje (teach) y otra de navegación autónoma (repeat). Durante la etapa de aprendizaje, el VANT es guiado manualmente a través del entorno, definiendo así un camino a repetir. Luego, el VANT puede ser ubicado en cualquier punto del camino (generalmente, al comienzo del mismo) e iniciar la etapa de navegación autónoma. En esta segunda fase el sistema opera a lazo cerrado controlando el VANT con el objetivo de repetir en forma precisa y robusta el camino previamente aprendido. Como principal sensado se utiliza un sistema de visión monocular, en conjunción con sensores que permitan estimar a corto plazo el desplazamiento del robot respecto del entorno, tales como sensores inerciales y de flujo óptico. El principal objetivo de este trabajo es el de proponer un método de navegación tipo T&R que pueda ser ejecutado en tiempo real y a bordo del mismo vehículo, sin depender de una estación terrena a la cual se delegue parte del procesamiento o de un sistema de localización externa (como por ejemplo GPS, en ambientes exteriores) o de captura de movimiento (como por ejemplo ViCon, en ambientes interiores). En otras palabras, se busca un sistema completamente autónomo. Para ello, se propone el uso de un enfoque basado en apariencias (o appearance-based, del inglés), que permite resolver el problema de la localización del vehículo respecto del mapa en forma cualitativa y que es computacionalmente eficiente, lo que permite su ejecución en hardware disponible a bordo del vehículo. La solución propuesta se diferencia del típico esquema de Localización y Mapeo Simultáneo (Simultaneous Localization and Mapping o SLAM) mediante el cual se estima la pose del robot (y la de los objetos del entorno) en forma absoluta con respecto a un sistema de coordenadas global. Bajo dicho esquema, como consecuencia, el error en la estimación de la pose se acumula en forma no acotada, limitando su utilización en el contexto de una navegación a largo plazo, a menos que se realicen correcciones globales en forma periódica (detección y cierre de ciclos). Esto impone el uso de técnicas computacionalmente costosas, lo cual dificulta su ejecución en tiempo real sobre hardware que pueda ser llevado a bordo de un robot aéreo. En contraste, bajo el enfoque propuesto en esta tesis, la localización se resuelve en forma relativa a un sistema de coordenadas local cercano al vehículo (es decir, una referencia sobre el camino) que es determinado mediante un esquema de filtro de partículas (Localización de Monte Carlo). Esto se logra comparando la apariencia del entorno entre la etapa de aprendizaje y la de navegación, mediante el empleo de características visuales salientes (image features) detectadas en dichas etapas. Finalmente, utilizando una ley de control simple, se logra guiar al robot sobre el camino, a partir de reducir la diferencia entre la posición aparente de los objetos del entorno entre ambas etapas, producto del desplazamiento y diferencias de orientacion del robot respecto del mismo. Como parte del desarrollo del trabajo de tesis, se presenta tanto la formulación y descripción del método como el diseño y construcción de una plataforma VANT, sobre la cual se realizaron los experimentos de navegación. Asimismo, se exhiben experimentos tanto con plataformas aéreas en entornos simulados como sobre plataformas terrestres, dado que el método es aplicable también a los mismos. Con los resultados obtenidos se demuestra la factibilidad y precisión de los métodos de localización y navegación propuestos, ejecutando en hardware a bordo de un robot aéreo en tiempo-real. Así, con esta tesis se presenta un aporte al estado del arte en lo que refiere a temas de navegación autónoma basada en visión, particularmente (pero no exclusivamente) para el caso de robots aéreos.
Abstract: This thesis presents a method based on the Teach & Repeat (TnR) technique for the autonomous navigation of Unmanned Aerial Vehicles (UAVs). With this technique, two phases can be distinguished: a learning phase (teach) and an autonomous navigation (repeat) phase. During the learning stage, the UAV is manually guided through the environment, thus defining a path to repeat. Then, the UAV can be positioned in any point of the path (usually at the beginning of it) and the autonomous navigation phase can be started. In this second phase the system operates in closed-loop controlling the UAV in order to accurately and robustly repeat the previously learned path. Monocular vision is used as the main sensing system in conjunction with other sensors used to obtained short-term estimates of the movement of the robot with respect to the environment, such as inertial and optical flow sensors. The main goal of this work is to propose a T&R navigation method that can be run in real-time and on-board the same vehicle, without relying on a ground control-station to which part of the processing is delegated or on external localization (for example GPS, in outdoor environments) or motion capture (such as VICON, for indoor settings) systems. In other words, a completely autonomous system is sought. To this end, an appearance-based approach is employed, which allows to solve the localization problem with respect to the map qualitatively and computationally efficient, which in turns allows its execution on hardware available on-board the vehicle. The proposed solution scheme differs from the typical Simultaneous Localization and Mapping (SLAM) approach under which the pose of the robot (and the objects in the environment) are estimated in absolute terms with respect to a global coordinate system. Under SLAM, therefore, the error in the pose estimation accumulates in unbounded form, limiting its use in the context of long-term navigation unless global corrections are made periodically (loop detection and closure). This imposes the use of computationally expensive techniques, which hinders its execution in real time on hardware that can be carried on-board an aerial robot. In contrast, under the approach proposed in this thesis, the localization is solved relative to a local coordinate system near the vehicle (i.e. a reference over the path) which is determined by a particle-filter scheme (Monte Carlo Localization or MCL). This is accomplished by comparing the appearance of the environment between the learning and navigation stages through the use of salient visual features detected in said steps. Finally, using a simple control law, the robot is effectively guided over the path, by means of reducing the difference in the apparent position of objects in the environment between the two stages, caused by the vehicle’s displacement with respect to the path. As part of the development of the thesis, both the formulation and description of the method, and the design and construction of a UAV platform, on which navigation experiments were conducted, are presented. Moreover, experiments using aerial platforms in simulated environments and using terrestrial platforms are also presented, given that the proposed method is also applicable to the latter. With the obtained results the feasibility and precision of the proposed localization and navigation methods are demonstrated, while executing on-board an aerial robot and in real-time. Thus, this thesis represents a contribution to the state of the art when it comes to the problem of vision-based autonomous navigation, particularly (but not exclusively) for the case of aerial robots.
Título :
Método de navegación basado en aprendizaje y repetición autónoma para vehículos aéreos no tripulados = Appearance-based teach and repeat navigation method for unmanned aerial vehicles
Autor :
Nitsche, Matías Alejandro
Director :
Mejail, Marta Estela
Consejero de estudios :
Mejail, Marta Estela
Jurados :
Civera Sancho, Javier ; Soria, Carlos ; Sánchez, Jorge A.
Año :
2016-03-22
Editor :
Facultad de Ciencias Exactas y Naturales. Universidad de Buenos Aires
Filiación :
Universidad de Buenos Aires. Facultad de Ciencias Exactas y Naturales Departamento de Computación. Laboratorio de Robótica y Sistemas Embebidos (LRSE)
Grado obtenido :
Doctor de la Universidad de Buenos Aires en el área de Ciencias de la Computación
Cita tipo APA: Nitsche, Matías Alejandro . (2016-03-22). Método de navegación basado en aprendizaje y repetición autónoma para vehículos aéreos no tripulados. Facultad de Ciencias Exactas y Naturales. Universidad de Buenos Aires. http://digital.bl.fcen.uba.ar/Download/Tesis/Tesis_6036_Nitsche.pdf
Cita tipo Chicago: Nitsche, Matías Alejandro. "Método de navegación basado en aprendizaje y repetición autónoma para vehículos aéreos no tripulados". Tesis de Doctorado. Facultad de Ciencias Exactas y Naturales. Universidad de Buenos Aires. 2016-03-22. http://digital.bl.fcen.uba.ar/Download/Tesis/Tesis_6036_Nitsche.pdf
Resumen: Para que un robot móvil pueda navegar o realizar tareas de manera autónoma, este debe conocer su pose (posición y orientación) y contar con una representación del entorno (mapa) en el que se encuentra. En entornos donde no se cuenta con un mapa previo y el robot no cuenta con información externa que le permita conocer su pose, debe realizar dichas tareas de manera simultánea. El problema de localizar a un robot y construir un mapa del entorno simultaneamente se denomina SLAM por las siglas en inglés de Simultaneous Localization and Mapping. En esta tesis se presenta un método basado en visión estéreo para abordar el problema de SLAM. El método, denominado S-PTAM por el acrónimo en inglés de Stereo Parallel Tracking and Mapping, fue desarrollado de manera tal que sea capaz de correr en tiempo real en ambientes de grandes dimensiones permitiendo estimar de forma precisa la pose del robot a medida que construye un mapa del ambiente en un sistema de coordenadas global. Para tener un desempeño óptimo, S-PTAM desacopla las tareas de localización y mapeo presentes en el problema de SLAM en dos hilos de ejecución independientes. Esto permite aprovechar el poder computacional de los procesadores de múltiples núcleos. Además de los módulos de localización y mapeo, se propone un módulo de detección y cierre de ciclos que permite reconocer lugares previamente visitados por el robot. Los ciclos detectados son utilizados para realizar una corrección tanto del mapa como de la trayectoria estimada, reduciendo efectivamente el error acumulado por el método hasta el momento. S-PTAM trabaja sobre las características visuales extraídas de las imágenes provistas por la cámara estéreo. Para determinar qué extractor de características es el más adecuado en términos de precisión, robustez y costo computacional se presenta una comparación de los detectores y descriptores binarios más relevantes de la literatura. Finalmente, se presentan experimentos con datasets públicos que permiten validar la precisión y la performance del método propuesto. Como resultado se obtuvo que S-PTAM es uno de los métodos de SLAM más precisos del estado del arte. S-PTAM fue publicado como software libre para facilitar su uso y comparación con otros métodos de SLAM.
Abstract: In order to allow a mobile robot navigate and perform tasks autonomously, it must know its pose (position and orientation) and have a representation of the environment (map). In environments where the robot does not have a previous map and no external information is provided to know its pose, it is necessary to perform both tasks simultaneously. The problem of localizing a robot and building a map of the environment simultaneously is called SLAM; this stands for Simultaneous Localization and Mapping. In this thesis, a system based on stereo vision to address the problem of SLAM is presented. The method, called S-PTAM as an acronym for Stereo Parallel Tracking and Mapping, was developed. This method is intended to run in real-time for long trajectories, allowing to estimate the pose accurately as it builds a sparse map of the environment on a global coordinate system. For optimal performance, S-PTAM decouples localization and mapping tasks of the SLAM problem into two independent threads, allowing us to take advantage of multicore processors. Besides the localization and the mapping modules, a loop closure module that can recognize places previously visited by the robot is proposed. The detected loops are used to refine the map and the estimated trajectory, effectively reducing the accumulated error of the method so far. S-PTAMworks on the visual features extracted from the images provided by the stereo camera. To determine which feature extractor is the most suitable in terms of accuracy, a comparison in terms of robustness and computational cost of the most relevant detectors and binary descriptors in the literature is performed. Finally, experiments with public datasets for validating the accuracy and performance of the proposed method are presented. As a result S-PTAM is one of the most accurate SLAM methods of the state of the art. S-PTAM was released as free software to ease its use and to allow comparison with other SLAM methods.
Título :
Localización y mapeo simultáneos mediante el uso de un sistema de visión estéreo = Stereo parallel tracking and mapping
Autor :
Pire, Taihú Aguará Nahuel
Director :
Berlles, Julio Jacobo
Consejero de estudios :
Mejail, Marta E.
Jurados :
Gómez, Juan C. ; Martínez Montiel, José M. ; Soria, Carlo M.
Año :
2017-03-02
Editor :
Facultad de Ciencias Exactas y Naturales. Universidad de Buenos Aires
Filiación :
Universidad de Buenos Aires. Facultad de Ciencias Exactas y Naturales Departamento de Computación . Laboratorio de Robótica y Sistemas Embebidos (LRSE)
Grado obtenido :
Doctor de la Universidad de Buenos Aires en el área de Ciencias de la Computación
Cita tipo APA: Pire, Taihú Aguará Nahuel . (2017-03-02). Localización y mapeo simultáneos mediante el uso de un sistema de visión estéreo. Facultad de Ciencias Exactas y Naturales. Universidad de Buenos Aires. http://digital.bl.fcen.uba.ar/Download/Tesis/Tesis_6181_Pire.pdf
Cita tipo Chicago: Pire, Taihú Aguará Nahuel. "Localización y mapeo simultáneos mediante el uso de un sistema de visión estéreo". Tesis de Doctorado. Facultad de Ciencias Exactas y Naturales. Universidad de Buenos Aires. 2017-03-02. http://digital.bl.fcen.uba.ar/Download/Tesis/Tesis_6181_Pire.pdf
http://digital.bl.fcen.uba.ar
Biblioteca Central Dr. Luis Federico Leloir - Facultad de Ciencias Exactas y Naturales - Universidad de Buenos Aires
Intendente Güiraldes 2160 - Ciudad Universitaria - Pabellón II - C1428EGA - Tel. (54 11) 4789-9293 int 34