Saltar apartados
  • UA
  • i3a
  • Percepción Visual y Fusión Sensorial en Robótica

Percepción Visual y Fusión Sensorial en Robótica

Percepción Visual y Fusión Sensorial en Robótica

Resumen

Con este proyecto se propone avanzar en las técnicas para la fusión de datos sensoriales de fuentes heterogéneas y homogéneas, con el fin de mejorar la inferencia tanto en la localización como en el guiado. Así mismo se validarán las propuestas que se realicen utilizando una plataforma robótica que permita evaluar las mejoras.

Además en este proyecto se plantea el desarrollo de un sistema que facilite la experimentación con entornos de robots móviles, estableciéndose los siguientes objetivos concretos:

  1. Integración de la arquitectura de control con distintos sistemas de percepción (sonares y visión).
  2. Desarrollo de un entorno de agentes que permita la fácil evaluación y experimentación con técnicas inteligentes diversas para realizar procesos de fusión sensorial y ajuste de los diferentes componentes de la arquitectura , tales como reglas de los comportamientos, aprendizaje de metacontroladores para la fusión de comportamientos, aplicación de algoritmos de resolución de problemas multiobjetivo para funciones de evaluación de rendimientos.

Objetivos e interés de estos

Uno de los problemas a la hora de trabajar con robots en entornos peligrosos o incluso en entornos remotos es la privación sensorial . Imaginemos que se envía una sonda a Marte, dicha sonda tendrá un conjunto de sensores especializados en la extracción de información de la corteza de Marte. Si uno de estos sensores se rompe, es decir, se produce la rotura de un elemento sensorial, esto implicaría la perdida de percepción del objeto deseado (en nuestro caso la corteza del planeta o por lo menos una parte de ella). Mediante la fusión sensorial se podría suplir la carencia del sensor estropeado.

Otro problema es la cobertura espacial limitada . Normalmente un único sensor cubre un rango espacial reducido, fusionando los datos de varios sensores se podría conseguir una cobertura mayor. La cobertura temporal limitada es cuando un sensor necesita un tiempo determinado para obtener y transmitir una medida determinada. Obviamente si conseguimos fusionar de manera eficiente la información de varios sensores dichas limitaciones se reducen con el número de sensores disponibles.

La Imprecisión sensorial se da por la misma naturaleza del sensor. Las medidas obtenidas por sensores individuales estás limitadas a la precisión del sensor empleado. Cuanto más sensores del mismo tipo tengamos mayor precisión podremos obtener fusionando los datos.

Otro problema en el campo de la robótica es la incertidumbre. La incertidumbre depende del objeto que se está observando en vez del sensor. Se da cuando aparecen determinadas características (como oclusiones), cuando el sensor no puede medir todos los atributos relevantes para la percepción o cuando la observación es ambigua. Un único sensor es incapaz de reducir la incertidumbre en su percepción debido a su visión limitada del objeto.

El conjunto de objetivos del proyecto se centra en avanzar en las técnicas para la fusión de datos sensoriales de fuentes tanto heterogéneas como homogéneas para mejorar la inferencia en localización y guiado. Así mismo se validarán las propuestas que se realicen utilizando una plataforma robótica que permita evaluar las mejoras en cuanto a:

  • Robustez y fiabilidad.

    Múltiples sensores tienen una redundancia inherente que permiten proporcionar información incluso en el caso de un fallo parcial.

  • Extender la cobertura espacial y temporal.

    Un sensor puede mirar donde otros no pueden y puede realizar medidas cuando otros no pueden.

  • Incrementar la confianza.

    Una medida de un sensor se confirma por medio de las medias de los otros sensores

  • Reduce la ambigüedad y la incertidumbre.

    El fusionar la información reduce el conjunto de interpretaciones de una determinada medida.

  • Robustez a interferencias.

    Incrementando la dimensionalidad del espacio de medidas (por ejemplo midiendo una cualidad determinada con dos tipos de sensores) el sistema se vuelve menos vulnerable a interferencias (ej. Usar sonar + visión).

  • Resolución mejorada.

    Cuando mediadas independientes de la misma propiedad se fusionan la resolución del resultado es mejor que una medida de un único sensor.

Además en este proyecto se plantea el desarrollo de una plataforma que facilite la experimentación con entornos de robots móviles, estableciéndose los siguientes objetivos:

  1. Integración de la arquitectura de control con distintos sistemas de percepción (sonares y visión). Se plantea como base para la planificación de tareas, mediante los siguientes subobjetivos:
    1. Integración de técnicas de visión en la arquitectura , como un agente deliberativo más. Dicho agente se coordinará con el planificador de tareas y objetivos, de forma que, en función del contexto de la tarea, dicho planificador seleccione lugares o posiciones objetivos a partir de la información visual. De esta forma los controladores reactivos pueden trabajar con esta información para realizar tareas de seguimiento de objetos y/o personas
    2. Segmentación Espacio-Temporal mediante técnicas estadísticas. Extracción eficiente de la información de color y movimiento. Segmentación espacio-temporal de regiones con movimiento y color coherentes. Detección y agrupamiento del movimiento. Filtrado y agrupamiento de color. Estrategias de fusión de pistas visuales. Modelado estadístico. Robustez.
    3. Retro-alimentación y Control Visual. Tracking eficiente utilizando la información extraída en las tareas anteriores. Predicción, actualización. Extracción de conocimiento previo acerca de las trayectorias previstas y del entorno en el que se va a realizar el seguimiento. Inferencia de la nueva posición y orientación de la cámara.
  2. Desarrollo de un entorno de agentes que permita la fácil evaluación y experimentación con técnicas inteligentes diversas para realizar procesos de fusión sensorial y ajuste de los diferentes componentes de la arquitectura , tales como reglas de los comportamientos, aprendizaje de metacontroladores para la fusión de comportamientos, aplicación de algoritmos de resolución de problemas multiobjetivo para funciones de evaluación de rendimientos.
    1. Técnicas de implementación de fusión sensorial basada en métodos estocásticos. Un punto muy importante del control basado en comportamientos es como coordinar eficientemente conflictos y competición entre distintos tipos de comportamientos para conseguir un buen rendimiento basado modelos estocásticos El uso de técnicas de aprendizaje en la base de reglas de fusión puede resultar en una mejora del rendimiento del robot. Una de las ventajas de este sistema es que el robot puede ser entrenado con solo unos comportamientos, y posteriormente si se desea añadir otros nuevos solo se necesita reentrenar las bases de reglas de fusión, preservando los comportamientos anteriores.
    2. Diseño, implementación y validación de algoritmos multiobjetivo para la planificación de trayectorias robustas , dentro de la integración de las capas de visión y control. En concreto proponemos un enfoque evolutivo multiobjetivo para realizar la búsqueda de la mejor trayectoria en base a unos criterios determinados. Por otro lado, la robustez de la trayectoria se garantizará introduciendo un criterio adicional de ruido gaussiano acumulativo.

Informática Industrial e Inteligencia Artificial (i3a)


Universidad de Alicante
Dpto.Ciencia de la Computación e Inteligencia Artificial
Grupo Informática Industrial e Inteligencia Artificial

Carretera San Vicente s/n
03690 San Vicente del Raspeig
Alicante (Spain)

Tel: (+34) 96 590 3400

Fax: (+34) 96 590 3464

Para más información: informacio@ua.es, y para temas relacionados con este servidor Web: webmaster@ua.es

Carretera San Vicente del Raspeig s/n - 03690 San Vicente del Raspeig - Alicante - Tel. 96 590 3400 - Fax 96 590 3464