Robots móveis no Vislab, Labmate e Scouts

 

Proposta de Trabalho Final de Curso 2006/2007

 

Vodometer: Navegação baseada em Visão e Odometria

 

 

Enquadramento:

 

A inserção de um robot móvel num ambiente não preparado especificamente para o robot, tal como um hospital ou uma habitação, implica a utilização de métodos de navegação com capacidades de aprendizagem do próprio ambiente. Os sensores a utilizar são necessariamente exterioceptivos, pois a informação interna do robot, tais como os ângulos de junta ou as contagens de rotações dos motores do robot, não inclui as necessárias medidas do ambiente tais como distâncias ou ângulos em relação às paredes. O sensor de visão é o sensor exterioceptivo a utilizar neste trabalho.

 

 

Objectivo:

 

Neste trabalho pretende-se construir uma representação do ambiente onde o robot opera (corredores e laboratórios da Torre Norte) e, dada essa representação, realizar tarefas de navegação entre pontos do ambiente.

 

 

Descrição:

 

O mapa do ambiente de trabalho de um robot pode ter várias formas. Neste trabalho foca-se a atenção em técnicas baseadas em imagens adquiridas e processadas pelo próprio robot [Kosecka04]. Em particular a extracção de características invariantes a translações, rotações e escalamentos - SIFT [LoweDemo, Lowe04] - permitiu recentemente um avanço tecnológico importante do qual resultaram bons sistemas de reconhecimento visual e também técnicas de navegação robustas, de custo reduzido, e baseadas em sensores a bordo do robot [ER, Goncalves05, Karlsson05]. Neste trabalho propõe-se a construção de um destes sistemas.

 

As principais etapas do trabalho são:

1) Construção da representação do ambiente. O robot é conduzido pelo espaço de trabalho, seleccionando e seguindo pontos característicos. Os pontos característicos reconstruídos tridimensionalmente constituem a representação do ambiente.

2) Localização do robot dada uma imagem e a representação do ambiente. Extraindo características da imagem actual e comparando com o mapa do ambiente encontra-se a localização do robot no referencial da representação.

3) Navegação do robot entre pontos do ambiente. Durante a aprendizagem do ambiente, o robot realizou diversas trajectórias que pode repetir ou subdividir e recompor realizando novos percursos. Na figura 1 mostra-se um exemplo de uma tarefa de navegação [GWSV00].

 

Fig.1: Exemplo de uma tarefa de navegação: sair do laboratório, ir ao final do corredor e voltar ao laboratório.

 

 

Resultado esperado:

 

No final do TFC os alunos intervenientes terão enriquecido a sua experiência nos seguintes campos:

 

* Visão por computador

* Navegação de robots móveis

 

No final do trabalho espera-se obter:

 

* Um método de construção de uma representação do cenário.

* Demonstração de auto-localização do robot na representação construída.

* Demonstração de navegação entre dois pontos pertencentes à representação construída.

 

 

Referências:

 

[Kosecka04] "Global Localization and Relative Pose Estimation Based on Scale-Invariant Features", J. Kosecka, X. Yang, Int Conf on Pattern Recognition, ICPR'04.

 

[LoweDemo] "Demo Software: SIFT Keypoint Detector", David Lowe, http://www.cs.ubc.ca/~lowe/keypoints/

[Lowe04] "Distinctive image features from scale-invariant keypoints", David G. Lowe, International Journal of Computer Vision, 60, 2 (2004), pp. 91-110.

 

[ER] Evolution Robotics, http://www.evolution.com/

[Goncalves05] "A Visual Front-end for Simultaneous Localization and Mapping", L. Goncalves, E. Di Bernardo, D. Benson, M. Svedman, J. Ostrowski, N. Karlsson, P. Pirjanian, International Conference on Robotics and Automation, ICRA'05.

[Karlsson05] "The vSLAM Algorithm for Robust Localization and Mapping", N. Karlsson, E. Di Bernardo, J. Ostrowski, L. Goncalves, P. Pirjanian, M. Munich, International Conference on Robotics and Automation, ICRA'05.

 

[GWSV00] "Vision-based Navigation and Environmental Representations with an Omnidirectional Camera", José Gaspar, Niall Winters, José Santos-Victor,  IEEE Transaction on Robotics and Automation, Vol 16, number 6, December 2000

 

TFC no fénix: clicar aqui.

 

 

Mais TFCs em Visão por Computador e Robótica:

 

http://omni.isr.ist.utl.pt/~jag