Loading AI tools
técnica de navegación utilizada por robots y vehículos autónomos De Wikipedia, la enciclopedia libre
La localización y mapeo simultáneos,[1] mapeo y localización simultáneos[2] o SLAM (del inglés simultaneous localization and mapping ), es una técnica usada por robots y vehículos autónomos para construir un mapa de un entorno desconocido en el que se encuentra, a la vez que estima su trayectoria al desplazarse dentro de este entorno.
La localización y modelado simultáneos investiga los problemas que plantea la construcción de modelos matemáticos, geométricos o lógicos de entornos físicos, empleando como herramienta un robot móvil —en ocasiones varios de ellos— y el conjunto de sensores y actuadores que lo conforman. Dicho de otra manera, el SLAM busca resolver los problemas que plantea el colocar un robot móvil en un entorno y posición desconocidos, y que él mismo sea capaz de construir incrementalmente un mapa consistente del en torno al tiempo que utiliza dicho mapa para determinar su propia localización.
La solución de dicho problema, objetivo insoslayable si se desea disponer de robots móviles verdaderamente autónomos, ha sido objeto de estudio por parte de la comunidad científica durante los últimos 20 años.
El ruido presente en los sistemas sensoriales, los inevitables errores y aproximaciones cometidos en los modelos empleados, y la dificultad representativa de los entornos a medida que estos aumentan en complejidad, hacen que la tarea de resolver el mencionado problema sea ardua. Tal complejidad tiene una doble vertiente:
Así pues, en la base de cualquier solución al problema del SLAM se encuentra siempre con la necesidad de trabajar con cantidades progresivamente crecientes de información —contaminada en mayor o menor medida por ruido—, y manipulada mediante modelos que, la mayoría de las veces, no son sino meras aproximaciones a la realidad. No es de extrañar, por lo tanto, que las soluciones más exitosas hasta el momento hayan estado basadas en la utilización de técnicas probabilísticas.
Las soluciones que mejores resultados han obtenido a la hora de abordar el problema del SLAM son aquellas basadas en técnicas probabilísticas. Consiguen así hacer frente a todas las fuentes de incertidumbre involucradas en el proceso, ya comentadas anteriormente. Este tipo de algoritmos tienen su base en el teorema de Bayes, que relaciona entre sí las probabilidades marginal y condicional de dos variables aleatorias.
El principal obstáculo a la hora de modelar un entorno desconocido, utilizando un robot móvil para su exploración es la inevitable incertidumbre que se deriva de la imperfección de los sensores y modelos empleados. Si los sensores fueran perfectos, proporcionarían medidas absolutamente precisas de los objetos detectados, que podrían ser insertados en un mapa en su posición exacta respecto a un sistema de referencia ligado al robot. Del mismo modo, al desplazarse la máquina, una medida exacta del giro de sus ruedas —o del avance de sus patas—, combinada con un modelo exacto de su movimiento, permitirían determinar exactamente la posición del robot cuando este realizase una nueva medida. Podríamos así construir incrementalmente un modelo perfecto del entorno.
Desafortunadamente tanta perfección no existe en este mundo; o al menos no en el mundo que ofrece el actual desarrollo tecnológico. Se impone por tanto la necesidad de acomodar estas incertidumbres en las soluciones obtenidas.
La manera evidente de hacerlo es considerar que tanto la posición del robot como los elementos que modelan su entorno son variables aleatorias. Así, los algoritmos existentes modelan ambos de manera probabilística, y utilizan métodos de inferencia para determinar aquella configuración que es más probable teniendo en cuenta las medidas que se van obteniendo.
El principio básico que subyace en cualquier solución exitosa del SLAM es la regla de Bayes. Para dos variables aleatorias, y , esta regla establece de manera muy compacta lo siguiente:
La anterior ecuación constituye un mecanismo básico de inferencia, cuya simplicidad no resta un ápice a la potencia de su significado. Supongamos que queremos obtener información acerca de la variable —por ejemplo, el estado de un sistema compuesto por un mapa y un robot— basándose en la información contenida en otra variable —que bien podría ser un conjunto de medidas adquiridas por un sensor—. La anterior regla indica que este problema se puede resolver simplemente multiplicando dos términos:
Es importante el hecho de que el denominador de la ecuación anterior no depende de la variable que se pretende estimar, . Por esta razón se suele escribir como un factor de normalización.
La utilización de un Filtro Extendido de Kalman es una de las soluciones más extendidas al problema de la localización y modelado simultáneos, y también es una de las que mejores resultados ha proporcionado en la práctica. A esta categoría de soluciones, cuyo fundamento enraíza en los trabajos introductorios realizados por Randall Smith, Matthew Self y Peter Cheeseman a finales de la década de 1980, se la conoce generalmente como SLAM-EKF.
Por su propia naturaleza, el SLAM-EKF requiere disponer de un mapa en el cual las entidades que lo componen sean fácilmente parametrizables. Esto es, los elementos que componen el mapa deben poder ser descritos utilizando un conjunto de parámetros que encajen de forma sencilla en el vector de estado del sistema.
A la vista de las hipótesis realizadas, cabe enumerar las siguientes desventajas de esta clase de algoritmos:
A pesar de los inconvenientes que surgen al emplear esta solución, se trata de la más extendida en la literatura y presenta interesantes propiedades que resultan muy atractivas:
Los mapas de ocupación de celdillas fueron introducidos por Hans Moravec y Alberto Elfes a mediados de la década de 1980. El método se basa en discretizar el espacio, dividiéndolo en unidades de tamaño predefinido, que se clasifican como ocupadas o vacías con un determinado nivel de confianza o probabilidad.
Estas soluciones parten de la hipótesis de que la posición del robot es conocida. En la práctica, se necesita de algún método de localización que estime la posición del robot en cada instante que, en este caso, no es considerada una variable estocástica. La precisión que alcanzan estos mapas en la descripción del entorno (tanto mayor cuanto más fina es la división del espacio), permite que el algoritmo de localización empleado acumule errores reducidos a lo largo de intervalos prolongados de tiempo. Así pues, la mayor desventaja de estos métodos es la pérdida de potencia que se deriva de no tener en cuenta la incertidumbre asociada a la posición del robot, lo cual origina que su capacidad para cerrar bucles correctamente se vea mermada.
Entre sus ventajas cabe destacar las siguientes:
Recientemente han aparecido variantes de este método que mejoran sustancialmente algunos aspectos. Por ejemplo, los mapas de cobertura que mantienen una probabilidad de ocupación para cada celdilla que se ajusta más correctamente a casos en los que esta se encuentra sólo parcialmente ocupada, o el DP-SLAM, que mantiene varias hipótesis sobre el mapa construido y utiliza un filtro de partículas para estimar la que más se ajusta a la realidad.
En la tesis de Michael Montemerlo se realiza un detallado análisis de la formulación Bayesiana del problema SLAM, y se llega a una conclusión que resulta muy intuitiva y casi evidente. Si el camino verdadero que recorre el robot fuera perfectamente conocido, la estimación del mapa sería un problema de solución casi inmediata. Además supondría una ventaja computacional, puesto que la estimación de los objetos que componen el mapa sería independiente, ya que no estarían relacionados por la incertidumbre común asociada a la posición del sensor del robot. Por tanto, las correlaciones entre los objetos serían nulas. Es algo parecido a lo que sucede con los mapas de ocupación de celdillas, que también suponen conocida la localización del robot en todo momento.
El SLAM visual consiste en el empleo de una cámara para desarrollar un mapeado y localización simultáneos. Este tipo de algoritmos, o técnicas, están compuestos fundamentalmente por 5 módulos diferenciados.Estos son la inicialización, la localización, el mapeado, la re-localización y por último la optimización del mapeado. Cada una de los diferentes algoritmos desarrollados hasta la fecha emplea diferentes técnicas para cada uno de estos 5 puntos. Algunos de los algoritmos más conocidos son PTAM, LSD SLAM y ORB SLAM entre otros.
Seamless Wikipedia browsing. On steroids.
Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.
Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.