Robots móveis no Vislab, Labmate e Scouts

 

Proposta de Dissertação de Mestrado 2007/2008

 

Vodometer: Navegação baseada em Visão e Odometria

 

 

Enquadramento:

 

A inserção de um robot móvel num ambiente não preparado especificamente para o robot, tal como um hospital ou uma habitação, implica a utilização de métodos de navegação com capacidades de aprendizagem do próprio ambiente. Os sensores a utilizar são necessariamente exterioceptivos, pois a informação interna do robot, tais como os ângulos de junta ou as contagens de rotações dos motores do robot, não inclui as necessárias medidas do ambiente tais como distâncias ou ângulos em relação às paredes. O sensor de visão é o sensor exterioceptivo a utilizar neste trabalho.

 

 

Objectivo:

 

Neste trabalho pretende-se construir uma representação do ambiente onde o robot opera (corredores e laboratórios da Torre Norte) e, dada essa representação, realizar tarefas de navegação entre pontos do ambiente.

 

 

Descrição:

 

O mapa do ambiente de trabalho de um robot pode ter várias formas. Neste trabalho foca-se a atenção em técnicas baseadas em imagens adquiridas e processadas pelo próprio robot [Kosecka04]. Em particular a extracção de características invariantes a translações, rotações e escalamentos - SIFT [LoweDemo, Lowe04] - permitiu recentemente um avanço tecnológico importante do qual resultaram bons sistemas de reconhecimento visual e também técnicas de navegação robustas, de custo reduzido, e baseadas em sensores a bordo do robot [ER, Goncalves05, Karlsson05]. Neste trabalho propõe-se a construção de um destes sistemas.

 

As principais etapas do trabalho são:

1) Criação de um cenário virtual realista. O cenário de trabalho é modelado por um conjunto de fotografias e uma descrição geométrica (planta). Utilizando um simulador, como por exemplo um browser de VRML ou uma aplicação comercial como o Webots [Webots], as imagens observadas por um robot móvel são adquiridas e podem ser processadas para as aplicações deste trabalho.

2) Construção da representação do ambiente. O robot é conduzido pelo espaço de trabalho, seleccionando e seguindo pontos característicos. Os pontos característicos reconstruídos tridimensionalmente constituem a representação do ambiente.

3) Localização do robot dada uma imagem e a representação do ambiente. Extraindo características da imagem actual e comparando com o mapa do ambiente encontra-se a localização do robot no referencial da representação.

4) Navegação do robot entre pontos do ambiente. Durante a aprendizagem do ambiente, o robot realizou diversas trajectórias que pode repetir ou subdividir e recompor realizando novos percursos. Na figura 1 mostra-se um exemplo de uma tarefa de navegação [GWSV00].

 

Fig.1: Exemplo de uma tarefa de navegação: sair do laboratório, ir ao final do corredor e voltar ao laboratório.

 

 

Resultado esperado:

 

No final do trabalho os alunos intervenientes terão enriquecido a sua experiência nos seguintes campos:

 

* Visão por computador

* Navegação de robots móveis

 

No final do trabalho espera-se obter:

 

* Um método de construção de uma representação do cenário.

* Demonstração de auto-localização do robot na representação construída.

* Demonstração de navegação entre dois pontos pertencentes à representação construída.

 

 

Referências:

[Webots] Webots5 Fast prototyping and simulation of mobile robots, http://www.cyberbotics.com/products/webots/

 

[Kosecka04] "Global Localization and Relative Pose Estimation Based on Scale-Invariant Features", J. Kosecka, X. Yang, Int Conf on Pattern Recognition, ICPR'04.

 

[LoweDemo] "Demo Software: SIFT Keypoint Detector", David Lowe, http://www.cs.ubc.ca/~lowe/keypoints/

[Lowe04] "Distinctive image features from scale-invariant keypoints", David G. Lowe, International Journal of Computer Vision, 60, 2 (2004), pp. 91-110.

 

[ER] Evolution Robotics, http://www.evolution.com/

[Goncalves05] "A Visual Front-end for Simultaneous Localization and Mapping", L. Goncalves, E. Di Bernardo, D. Benson, M. Svedman, J. Ostrowski, N. Karlsson, P. Pirjanian, International Conference on Robotics and Automation, ICRA'05.

[Karlsson05] "The vSLAM Algorithm for Robust Localization and Mapping", N. Karlsson, E. Di Bernardo, J. Ostrowski, L. Goncalves, P. Pirjanian, M. Munich, International Conference on Robotics and Automation, ICRA'05.

 

[GWSV00] "Vision-based Navigation and Environmental Representations with an Omnidirectional Camera", José Gaspar, Niall Winters, José Santos-Victor,  IEEE Transaction on Robotics and Automation, Vol 16, number 6, December 2000

 

 

Mais propostas de dissertação MSc em Visão por Computador e Robótica:

 

http://omni.isr.ist.utl.pt/~jag