<?xml version="1.0" encoding="ISO-8859-1"?><article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance">
<front>
<journal-meta>
<journal-id>1405-7743</journal-id>
<journal-title><![CDATA[Ingeniería, investigación y tecnología]]></journal-title>
<abbrev-journal-title><![CDATA[Ing. invest. y tecnol.]]></abbrev-journal-title>
<issn>1405-7743</issn>
<publisher>
<publisher-name><![CDATA[Universidad Nacional Autónoma de México, Facultad de Ingeniería]]></publisher-name>
</publisher>
</journal-meta>
<article-meta>
<article-id>S1405-77432013000200010</article-id>
<title-group>
<article-title xml:lang="es"><![CDATA[SLAM con mediciones angulares: método por triangulación estocástica]]></article-title>
<article-title xml:lang="en"><![CDATA[Bearing-Only SLAM: Stochastic Triangulation Method]]></article-title>
</title-group>
<contrib-group>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Munguía-Alcalá]]></surname>
<given-names><![CDATA[Rodrigo Francisco]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Grau-Saldes]]></surname>
<given-names><![CDATA[Antoni]]></given-names>
</name>
<xref ref-type="aff" rid="A02"/>
</contrib>
</contrib-group>
<aff id="A01">
<institution><![CDATA[,Universidad de Guadalajara Centro Universitario de Ciencias Exactas e Ingenierías Departamento de Ciencias Computacionales]]></institution>
<addr-line><![CDATA[ ]]></addr-line>
</aff>
<aff id="A02">
<institution><![CDATA[,Universidad Politécnica de Cataluña Departamento de Ingeniería de Sistemas, Automática e Informática Industrial ]]></institution>
<addr-line><![CDATA[Barcelona ]]></addr-line>
<country>España</country>
</aff>
<pub-date pub-type="pub">
<day>00</day>
<month>06</month>
<year>2013</year>
</pub-date>
<pub-date pub-type="epub">
<day>00</day>
<month>06</month>
<year>2013</year>
</pub-date>
<volume>14</volume>
<numero>2</numero>
<fpage>257</fpage>
<lpage>274</lpage>
<copyright-statement/>
<copyright-year/>
<self-uri xlink:href="http://www.scielo.org.mx/scielo.php?script=sci_arttext&amp;pid=S1405-77432013000200010&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.mx/scielo.php?script=sci_abstract&amp;pid=S1405-77432013000200010&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.mx/scielo.php?script=sci_pdf&amp;pid=S1405-77432013000200010&amp;lng=en&amp;nrm=iso"></self-uri><abstract abstract-type="short" xml:lang="es"><p><![CDATA[El SLAM (simultaneous localization and mapping) es una técnica en la cual un robot o vehículo autónomo opera en un entorno a priori desconocido, utilizando únicamente sus sensores de abordo, mientras construye un mapa de su entorno, el cual utiliza al mismo tiempo para localizarse. Los sensores tienen un gran impacto en los algoritmos usados en SLAM. Enfoques recientes se están centrando en el uso de cámaras como sensor principal, ya que generan mucha información y están bien adaptadas para su aplicación en sistemas embebidos: son ligeras, baratas y ahorran energía. Sin embargo, a diferencia de los sensores de rango, los cuales proveen información angular y de rango, una cámara es un sensor proyectivo que mide el ángulo (bearing) respecto a los elementos de la imagen, por lo que la profundidad o rango no puede ser obtenida mediante una sola medición. Lo anterior ha motivado la aparición de una nueva familia de métodos en SLAM: los métodos de SLAM basados en sensores angulares, los cuales están principalmente basados en técnicas especiales para la inicialización de características en el sistema, permitiendo el uso de sensores angulares (como cámaras) en SLAM. Este artículo presenta un método práctico para la inicialización de nuevas características en sistemas de SLAM basados en sensores angulares. El método propuesto implementa mediante un retardo una técnica de triangulación estocástica para definir una hipótesis para la profundidad inicial de las características. Para mostrar el desempeño del método propuesto se presentan resultados experimentales con simulaciones y también se presentan dos casos de aplicación para escenarios con datos reales procedentes de distintos sensores angulares.]]></p></abstract>
<abstract abstract-type="short" xml:lang="en"><p><![CDATA[The SLAM or Simultaneous Localization and Mapping, is a technique in which a robot or autonomous vehicle operate in an a priori unknown environment, using only its onboard sensors to simultaneously build a map of its surroundings and use it to track its position. The sensors have a large impact on the algorithm used for SLAM. Recent approaches are focusing on the use of cameras as the main sensor, because they yield a lot of information and are well adapted for embedded systems: they are light, cheap and power saving. However, unlike range sensors which provide range and angular information, a camera is a projective sensor which measures the bearing of images features. Therefore depth information (range) cannot be obtained in a single step. This fact has propitiated the emergence of a new family of SLAM algorithms: the Bearing-Only SLAM methods, which mainly rely in especial techniques for features system-initialization in order to enable the use of bearing sensors (as cameras) in SLAM systems. In this work a practical method is presented, for initializing new features in bearing-only SLAM systems. The proposed method, defines a single hypothesis for the initial depth of features, by the use of an stochastic technique of triangulation. Several simulations as well two scenarios of applications with real data are presented, in order to show the performance of the proposed method.]]></p></abstract>
<kwd-group>
<kwd lng="es"><![CDATA[SLAM]]></kwd>
<kwd lng="es"><![CDATA[vehículos autónomos]]></kwd>
<kwd lng="es"><![CDATA[sensores angulares]]></kwd>
<kwd lng="es"><![CDATA[localización]]></kwd>
<kwd lng="es"><![CDATA[mapeo]]></kwd>
<kwd lng="es"><![CDATA[navegación de robots]]></kwd>
<kwd lng="en"><![CDATA[SLAM]]></kwd>
<kwd lng="en"><![CDATA[autonomous-vehicles]]></kwd>
<kwd lng="en"><![CDATA[bearing-sensors]]></kwd>
<kwd lng="en"><![CDATA[localization]]></kwd>
<kwd lng="en"><![CDATA[mapping]]></kwd>
<kwd lng="en"><![CDATA[robot-navigation]]></kwd>
</kwd-group>
</article-meta>
</front><body><![CDATA[  	    <p align="center"><font face="verdana" size="4"><b>SLAM con mediciones angulares: m&eacute;todo por triangulaci&oacute;n estoc&aacute;stica</b></font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="center"><font face="verdana" size="3"><b>Bearing&#45;Only SLAM: Stochastic Triangulation Method</b></font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="center"><font face="verdana" size="2"><b>Mungu&iacute;a&#45;Alcal&aacute; Rodrigo Francisco* y Grau&#45;Saldes Antoni**</b></font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2">* <i>Departamento de Ciencias Computacionales,</i> <i>Centro Universitario de Ciencias Exactas e Ingenier&iacute;as,</i> <i>Universidad de Guadalajara, Jalisco.</i> Correo: <a href="mailto:rodrigo.munguia@upc.edu">rodrigo.munguia@upc.edu</a></font></p>  	    <p align="justify"><font face="verdana" size="2"><i>** Departamento de Ingenier&iacute;a de Sistemas, Autom&aacute;tica e Inform&aacute;tica Industrial &nbsp;Universidad Polit&eacute;cnica de Catalu&ntilde;a, Barcelona, Espa&ntilde;a</i>. Correo: <a href="mailto:antoni.grau@upc.edu">antoni.grau@upc.edu</a></font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">Informaci&oacute;n del art&iacute;culo: recibido: abril de 2012,    <br> 	Aceptado: agosto de 2012</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Resumen</b></font></p>  	    <p align="justify"><font face="verdana" size="2">El SLAM <i>(simultaneous localization and mapping)</i> es una t&eacute;cnica en la cual un robot o veh&iacute;culo aut&oacute;nomo opera en un entorno a priori desconocido, utilizando &uacute;nicamente sus sensores de abordo, mientras construye un mapa de su entorno, el cual utiliza al mismo tiempo para localizarse. Los sensores tienen un gran impacto en los algoritmos usados en SLAM. Enfoques recientes se est&aacute;n centrando en el uso de c&aacute;maras como sensor principal, ya que generan mucha informaci&oacute;n y est&aacute;n bien adaptadas para su aplicaci&oacute;n en sistemas embebidos: son ligeras, baratas y ahorran energ&iacute;a. Sin embargo, a diferencia de los sensores de rango, los cuales proveen informaci&oacute;n angular y de rango, una c&aacute;mara es un sensor proyectivo que mide el &aacute;ngulo <i>(bearing)</i> respecto a los elementos de la imagen, por lo que la profundidad o rango no puede ser obtenida mediante una sola medici&oacute;n. Lo anterior ha motivado la aparici&oacute;n de una nueva familia de m&eacute;todos en SLAM: los <i>m&eacute;todos de SLAM basados en sensores angulares,</i> los cuales est&aacute;n principalmente basados en t&eacute;cnicas especiales para la inicializaci&oacute;n de caracter&iacute;sticas en el sistema, permitiendo el uso de sensores angulares (como c&aacute;maras) en SLAM. Este art&iacute;culo presenta un m&eacute;todo pr&aacute;ctico para la inicializaci&oacute;n de nuevas caracter&iacute;sticas en sistemas de SLAM basados en sensores angulares. El m&eacute;todo propuesto implementa mediante un retardo una t&eacute;cnica de triangulaci&oacute;n estoc&aacute;stica para definir una hip&oacute;tesis para la profundidad inicial de las caracter&iacute;sticas. Para mostrar el desempe&ntilde;o del m&eacute;todo propuesto se presentan resultados experimentales con simulaciones y tambi&eacute;n se presentan dos casos de aplicaci&oacute;n para escenarios con datos reales procedentes de distintos sensores angulares.</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Descriptores:</b> SLAM, veh&iacute;culos aut&oacute;nomos, sensores angulares, localizaci&oacute;n, mapeo, navegaci&oacute;n de robots.</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Abstract</b></font></p>  	    <p align="justify"><font face="verdana" size="2">The SLAM or Simultaneous Localization and Mapping, is a technique in which a robot or autonomous vehicle operate in an a priori unknown environment, using only its onboard sensors to simultaneously build a map of its surroundings and use it to track its position. The sensors have a large impact on the algorithm used for SLAM. Recent approaches are focusing on the use of cameras as the main sensor, because they yield a lot of information and are well adapted for embedded systems: they are light, cheap and power saving. However, unlike range sensors which provide range and angular information, a camera is a projective sensor which measures the bearing of images features. Therefore depth information (range) cannot be obtained in a single step. This fact has propitiated the emergence of a new family of SLAM algorithms: the Bearing&#45;Only SLAM methods, which mainly rely in especial techniques for features system&#45;initialization in order to enable the use of bearing sensors (as cameras) in SLAM systems. In this work a practical method is presented, for initializing new features in bearing&#45;only SLAM systems. The proposed method, defines a single hypothesis for the initial depth of features, by the use of an stochastic technique of triangulation. Several simulations as well two scenarios of applications with real data are presented, in order to show the performance of the proposed method.</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Keywords:</b> SLAM, autonomous&#45;vehicles, bearing&#45;sensors, localization, mapping, robot&#45;navigation.</font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Introducci&oacute;n</b></font></p>  	    <p align="justify"><font face="verdana" size="2">La <i>localizaci&oacute;n y mapeo simult&aacute;neos,</i> SLAM por sus siglas <i>(simultaneous localization and mapping),</i> es sin duda uno de los problemas m&aacute;s importantes a resolver en rob&oacute;tica, en el camino de construir robots m&oacute;viles verdaderamente aut&oacute;nomos. Las t&eacute;cnicas de SLAM se refieren a c&oacute;mo un robot m&oacute;vil opera en un entorno a priori desconocido utilizando &uacute;nicamente sus sensores de abordo, mientras construye un mapa de dicho entorno, el cual a su vez utiliza para localizarse.</font></p>  	    <p align="justify"><font face="verdana" size="2">Los sensores del robot tienen un gran impacto en los algoritmos usados en SLAM. Los primeros enfoques se centraron en el uso de sensores de rango como s&oacute;nares o l&aacute;seres (Auat <i>et al.,</i> 2011), (V&aacute;zquez <i>et al.,</i> 2009). Sin embargo, hay algunas dificultades con el uso de este tipo de sensores en SLAM: la asociaci&oacute;n de datos es dif&iacute;cil, son costosos y a menudo est&aacute;n limitados a mapas 2D. Puede consultarse (Durrant y Bailey, 2006), para una revisi&oacute;n del problema general del SLAM.</font></p>  	    <p align="justify"><font face="verdana" size="2">Las cuestiones anteriores han motivado que mucho del trabajo reciente se est&eacute; centrando en el uso de c&aacute;maras como sensor principal. Las c&aacute;maras se han vuelto muy interesantes para la comunidad investigadora en rob&oacute;tica porque proveen cuantiosa informaci&oacute;n, son ligeras, baratas y de bajo consumo de energ&iacute;a. Usando visi&oacute;n artificial, un robot puede localizarse a s&iacute; mismo utilizando objetos comunes del entorno como puntos de referencia <i>(landmarks).</i></font></p>  	    <p align="justify"><font face="verdana" size="2">Por otro lado, mientras que los sensores de rango proveen informaci&oacute;n angular y de rango (profundidad), una c&aacute;mara es un sensor proyectivo, el cual mide el &aacute;ngulo <i>(bearing)</i> respecto a caracter&iacute;sticas en la imagen. Por tanto, la informaci&oacute;n de profundidad (rango) no puede ser obtenida en una sola toma. Este hecho ha propiciado la aparici&oacute;n de una nueva familia de m&eacute;todos de SLAM, que est&aacute; basada en t&eacute;cnicas especiales para la inicializaci&oacute;n de caracter&iacute;sticas con la finalidad de permitir el uso de sensores angulares (como c&aacute;maras) en los sistemas de SLAM.</font></p>  	    <p align="justify"><font face="verdana" size="2">En a&ntilde;os recientes varias mejoras y variantes a este tipo de m&eacute;todos han aparecido en la literatura (Williams <i>et al.,</i> 2007), (Chekhlov <i>et al.,</i> 2006), as&iacute; como diferentes esquemas para incrementar el n&uacute;mero de caracter&iacute;sticas soportadas en el mapa (Mungu&iacute;a y Grau, 2009). Sin embargo, el proceso de la inicializaci&oacute;n de nuevas caracter&iacute;sticas contin&uacute;a siendo quiz&aacute;s el aspecto m&aacute;s importante a tener en cuenta en los sistemas de SLAM basados en mediciones angulares para incrementar la robustez.</font></p>  	    <p align="justify"><font face="verdana" size="2">En este art&iacute;culo, se presentan diferentes resultados de la investigaci&oacute;n de los autores de acuerdo con la problem&aacute;tica del SLAM basado en sensores angulares. Particularmente, se presenta un algoritmo llamado <i>m&eacute;todo por triangulaci&oacute;n estoc&aacute;stica,</i> el cual aborda el problema de la inicializaci&oacute;n de nuevas caracter&iacute;sticas en el mapa.</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Descripci&oacute;n del problema</b></font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">El SLAM con mediciones angulares es un problema de SLAM parcialmente observable, en el cual el sensor utilizado para percibir el entorno del robot provee &uacute;nicamente informaci&oacute;n angular en cuanto a puntos de referencia <i>(landmark)</i> del entorno. Dicha informaci&oacute;n no es suficiente para calcular el estado completo de la caracter&iacute;stica (la cual modela el punto de referencia) mediante una sola medici&oacute;n.</font></p>  	    <p align="justify"><font face="verdana" size="2">Para inferir la profundidad de una caracter&iacute;stica el sensor debe observarla repetidamente mientras el robot se mueve libremente a trav&eacute;s de su entorno, estimando el &aacute;ngulo entre la caracter&iacute;stica y el centro del robot. La diferencia entre las mediciones angulares es el paralaje <i>(parallax).</i></font></p>  	    <p align="justify"><font face="verdana" size="2">De hecho, el paralaje es la clave que permite la estimaci&oacute;n de la profundidad de las caracter&iacute;sticas. En el caso de trayectorias en entornos de interiores, un movimiento de cent&iacute;metros es suficiente para producir paralaje, por otro lado, cuanto mayor sea la distancia donde se encuentre la caracter&iacute;stica, m&aacute;s tendr&aacute; que viajar el sensor para producir paralaje.</font></p>  	    <p align="justify"><font face="verdana" size="2">a) Modelo de movimiento del robot</font></p>  	    <p align="justify"><font face="verdana" size="2">Para un entorno 2D, se considera un robot y/o veh&iacute;culo de configuraci&oacute;n diferencial, cuya posici&oacute;n y orientaci&oacute;n est&aacute;n definidas por <img src="/img/revistas/iit/v14n2/a10s3.jpg"><i><sub>v</sub></i>, y el cual est&aacute; equipado con un sensor capaz de realizar mediciones z(k) angulares y de distancia, <i>&#952;</i> y <i>r,</i> respectivamente.</font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/iit/v14n2/a10e1.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">Con el modelo predictivo discreto, para el movimiento del robot</font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/iit/v14n2/a10e2.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">siendo <i>&#948;</i> la distancia recorrida por el centro del robot y <i>&#952;'</i> el giro realizado por el robot a cada instante <i>k</i></font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/iit/v14n2/a10e3.jpg"></font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">donde <i>&#948;<sub>r</sub></i> y <i>&#948;<sub>i</sub></i> representan la distancia recorrida por cada rueda del robot y <i>a</i> la separaci&oacute;n entre las mismas. Habitualmente <i>&#948;<sub>r</sub></i> y <i>&#948;<sub>i</sub></i> se obtienen mediante los codificadores de posici&oacute;n <i>(encoders)</i> de las ruedas del robot.</font></p>  	    <p align="justify"><font face="verdana" size="2">Mediante el uso de un Filtro de Kalman Extendido se propagan las estimaciones de la posici&oacute;n del robot, as&iacute; como tambi&eacute;n las estimaciones de las caracter&iacute;sticas.</font></p>  	    <p align="justify"><font face="verdana" size="2">b) Medici&oacute;n e inicializaci&oacute;n de las caracter&iacute;sticas</font></p>  	    <p align="justify"><font face="verdana" size="2">Para el contexto mencionado, se considera el tipo de caracter&iacute;stica m&aacute;s simple: un punto tal que para una caracter&iacute;stica dada <img src="/img/revistas/iit/v14n2/a10s1.jpg"></font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/iit/v14n2/a10e4.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">El estado completo <img src="/img/revistas/iit/v14n2/a10s3.jpg">, el cual incluye todas las caracter&iacute;sticas <img src="/img/revistas/iit/v14n2/a10s1.jpg">, est&aacute; conformado por</font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/iit/v14n2/a10ea.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">En este caso la ecuaci&oacute;n de medici&oacute;n fy(<img src="/img/revistas/iit/v14n2/a10s3.jpg"><i><sub>v</sub></i> ,<img src="/img/revistas/iit/v14n2/a10s1.jpg">) viene dada por</font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/iit/v14n2/a10e6.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">Donde atan2 es una funci&oacute;n que toma dos argumentos (x e <i>y),</i> para calcular el arco tangente de <i>y/x,</i> dentro de un rango &#91;&#45;&#960;, &#960;&#93;.</font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">Para inicializar una nueva caracter&iacute;stica <img src="/img/revistas/iit/v14n2/a10i1.jpg"> en el mapa, es necesario invertir <i>h</i>(<i><img src="/img/revistas/iit/v14n2/a10i2.jpg"><sub>v</sub></i> ,<img src="/img/revistas/iit/v14n2/a10i1.jpg">) a <img src="/img/revistas/iit/v14n2/a10i1.jpg">(z(k),<img src="/img/revistas/iit/v14n2/a10i2.jpg"><sub>v</sub>). En este caso invirtiendo (6) tenemos que</font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/iit/v14n2/a10e7.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">c) Caso de SLAM con mediciones angulares</font></p>  	    <p align="justify"><font face="verdana" size="2">En el caso particular de SLAM con mediciones angulares, el sensor principal proveer&iacute;a &uacute;nicamente lecturas z(k) tal que</font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/iit/v14n2/a10e8.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">En este caso, considerando la ecuaci&oacute;n de medici&oacute;n <i>hi</i>(<img src="/img/revistas/iit/v14n2/a10i2.jpg"><i><sub>v</sub></i>, <img src="/img/revistas/iit/v14n2/a10i1.jpg">)</font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/iit/v14n2/a10e9.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">Por inspecci&oacute;n se observa que no ser&iacute;a posible invertir la ecuaci&oacute;n (9) para obtener una funci&oacute;n <img src="/img/revistas/iit/v14n2/a10i1.jpg">(z(k),<img src="/img/revistas/iit/v14n2/a10i2.jpg"><sub>v</sub>) con la cual inicializar el estado completo de la caracter&iacute;stica <img src="/img/revistas/iit/v14n2/a10i1.jpg"> = &#91;x<sub>i</sub>,y<sub>i</sub>&#93;. En este caso, una posibilidad podr&iacute;a ser el definir una caracter&iacute;stica parcialmente inicializada con una forma geom&eacute;trica diferente (por ejemplo, una l&iacute;nea sobre la cual se asuma que el punto deber&iacute;a encontrarse).</font></p>  	    <p align="justify"><font face="verdana" size="2">Tenemos entonces que en el proceso de inicializaci&oacute;n de caracter&iacute;sticas, en el SLAM con mediciones angulares, una sola medici&oacute;n es insuficiente para determinar la posici&oacute;n completa de la caracter&iacute;stica. Por tanto, se requieren al menos dos mediciones angulares <i>&#952;</i><sub>i</sub> y <i>&#952;</i><sub>j</sub>, realizadas en dos posiciones diferentes del veh&iacute;culo <img src="/img/revistas/iit/v14n2/a10i2.jpg"><sub>vi</sub> y <img src="/img/revistas/iit/v14n2/a10i2.jpg"><sub>vj</sub> (<a href="/img/revistas/iit/v14n2/a10f1.jpg" target="_blank">figura 1</a>).</font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/iit/v14n2/a10eh.jpg"></font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">donde:</font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/iit/v14n2/a10e10.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">Si las mediciones angulares y la posici&oacute;n del veh&iacute;culo fueran perfectamente conocidas, el c&aacute;lculo de la posici&oacute;n de la caracter&iacute;stica seria trivial mediante la funci&oacute;n g(<img src="/img/revistas/iit/v14n2/a10i2.jpg"><sub>vi</sub>, <img src="/img/revistas/iit/v14n2/a10i2.jpg"><sub>vj</sub>, <i>&#952;</i><sub>i</sub>, <i>&#952;</i><sub>j</sub>) (10). Sin embargo, la estimaci&oacute;n de la posici&oacute;n de la caracter&iacute;stica puede estar mal condicionada dependiendo de diferentes factores: i) la incertidumbre en la estimaci&oacute;n de las posiciones del veh&iacute;culo, ii) la incertidumbre en las mediciones angulares, y iii) las particularidades del desplazamiento entre ambas posiciones del veh&iacute;culo, las cuales producen el paralaje.</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Trabajo relacionado</b></font></p>  	    <p align="justify"><font face="verdana" size="2">El SLAM basado en mediciones angulares <i>(Bearing&#45;Only SLAM)</i> ha recibido mucha atenci&oacute;n por parte de la comunidad investigadora en rob&oacute;tica en la d&eacute;cada presente y en la pasada, y particularmente el SLAM monocular, el cual constituye un caso particular del SLAM en el que una c&aacute;mara de video representa la &uacute;nica entrada sensorial del sistema.</font></p>  	    <p align="justify"><font face="verdana" size="2">En Deans y Martial (2000), se propone una combinaci&oacute;n entre optimizaci&oacute;n global (ajustamiento de burbuja) para la inicializaci&oacute;n de caracter&iacute;sticas y un filtro de Kalman para la estimaci&oacute;n del estado. En este m&eacute;todo, debido a la limitaci&oacute;n impuesta por la l&iacute;nea&#45;base, en la cual las caracter&iacute;sticas pueden ser inicializadas, y dependiendo del movimiento de la c&aacute;mara y la locaci&oacute;n de los objetos en el entorno, algunas caracter&iacute;sticas no pueden ser inicializadas. En Strelow y Sanjiv (2003) se propone un m&eacute;todo similar, pero combinando una c&aacute;mara con sensores inerciales mediante un Filtro de Kalman Iterado (IEKF). En el trabajo de Bailey (2003) se presenta una variante de inicializaci&oacute;n restringida <i>(constrained initialization),</i> donde estimaciones pasadas de la posici&oacute;n del veh&iacute;culo son retenidas en el estado del SLAM conjuntamente con las mediciones respectivas, de manera que la inicializaci&oacute;n de las caracter&iacute;sticas puede llevarse a cabo hasta que el paralaje sea suficiente para permitir una inicializaci&oacute;n Gaussiana de la caracter&iacute;stica. El criterio utilizado para determinar si la estimaci&oacute;n est&aacute; bien condicionada es la denominada distancia de Kullback. La complejidad del m&eacute;todo de muestreo propuesto para evaluar esta distancia es considerablemente alta.</font></p>  	    <p align="justify"><font face="verdana" size="2">Aparte del Filtro del Kalman, se utilizan habitual&#45;mente otras t&eacute;cnicas de estimaci&oacute;n como los <i>filtros de part&iacute;culas</i> (PF) en el SLAM basado en mediciones angulares. En Kwok y Dissanayake (2004) se propone una variaci&oacute;n al PF est&aacute;ndar para remediar el problema del empobrecimiento del muestreo en este tipo de sistemas. El estado inicial de las caracter&iacute;sticas se aproxima utilizando una suma de funciones de distribuci&oacute;n Gaussianas, la cual define un conjunto de hip&oacute;tesis para la posici&oacute;n de los objetos, incluyendo, desde un principio, a las caracter&iacute;sticas dentro del mapa. En observaciones subsiguientes, se pasa un test estad&iacute;stico para eliminar hip&oacute;tesis d&eacute;biles. En Kwok y Dissanayake (2005) se extiende el algoritmo anterior mediante un filtro de suma de Gaussianas. Este m&eacute;todo es quiz&aacute;s el primer m&eacute;todo de inicializaci&oacute;n de caracter&iacute;sticas sin retardo propuesto en la literatura. El principal inconveniente de este m&eacute;todo reside en que el n&uacute;mero de filtros requeridos crece exponencialmente con el n&uacute;mero de caracter&iacute;sticas, aumentando exponencialmente la carga computacional.</font></p>  	    <p align="justify"><font face="verdana" size="2">Algunos de los avances m&aacute;s notables en SLAM basado en mediciones angulares fueron presentados en Davison (2003), quien mostr&oacute; la factibilidad del SLAM en tiempo real utilizando una &uacute;nica c&aacute;mara (SLAM Monocular) como fuente sensorial del sistema. Su propuesta est&aacute; basada en el Filtro de Kalman Extendido como t&eacute;cnica de estimaci&oacute;n del estado y un filtro de part&iacute;culas para incorporar nuevas caracter&iacute;sticas al mapa mediante un esquema de inicializaci&oacute;n parcial. En este caso, el PF no est&aacute; correlacionado con el resto del mapa, manteniendo un conjunto de hip&oacute;tesis de profundidad uniformemente distribuidas a lo largo de la l&iacute;nea de vista de cada nueva caracter&iacute;stica. Despu&eacute;s cada nueva observaci&oacute;n se utiliza para actualizar la distribuci&oacute;n de las posibles profundidades, hasta que la variancia sea suficientemente peque&ntilde;a para considerarse una estimaci&oacute;n Gaussiana. En este punto la caracter&iacute;stica se agrega al mapa como una entidad tridimensional. Una desventaja de este enfoque reside en que la distribuci&oacute;n inicial de part&iacute;culas tiene que cubrir todos los posibles valores de profundidad, haci&eacute;ndolo dif&iacute;cil de aplicar cuando se detecta un gran n&uacute;mero de part&iacute;culas, o bien, cuando se consideran caracter&iacute;sticas distantes en el entorno.</font></p>  	    <p align="justify"><font face="verdana" size="2">Jensfelt <i>et al.</i> (2006) presentan un m&eacute;todo donde la idea consiste en retrasar <i>N</i> pasos la estimaci&oacute;n del SLAM, utilizando dichos <i>N</i> pasos para determinar buenos candidatos a ser considerados como caracter&iacute;sticas del mapa, as&iacute; como tambi&eacute;n estimar su posici&oacute;n 3D. El principal objetivo de este trabajo se centra en el manejo del mapa para lograr un desempe&ntilde;o en tiempo real. Sola <i>et al.</i> (2005) presentan un m&eacute;todo basado en el Filtro de Kalman Iterado. Para la inicializaci&oacute;n de caracter&iacute;sticas utiliza una aproximaci&oacute;n al m&eacute;todo de Filtro de Suma de Gaussianas, el cual permite inicializar sin retraso las caracter&iacute;sticas en el mapa.</font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">En Eade y Drummond (2006) se propone un m&eacute;todo basado en el FastSLAM (Montemerlo <i>et al.,</i> 2002). En este tipo de enfoque, la posici&oacute;n del robot es representada por part&iacute;culas, mientras que un conjunto de filtros de Kalman refina la estimaci&oacute;n de las caracter&iacute;sticas.</font></p>  	    <p align="justify"><font face="verdana" size="2">En Montiel <i>et al.</i> (2006) se presenta un m&eacute;todo en donde, no existe una transici&oacute;n expl&iacute;cita de un estado "parcial" a uno "totalmente" inicializado para cada caracter&iacute;stica.</font></p>  	    <p align="justify"><font face="verdana" size="2">En este sentido, las caracter&iacute;sticas son inicializadas en el primer instante en el cual son observadas mediante una profundidad inversa e incertidumbres predeterminadas heur&iacute;sticamente a cubrir un amplio rango de profundidad. Por lo que caracter&iacute;sticas lejanas pueden ser representadas e incluidas en el mapa.</font></p>  	    <p align="justify"><font face="verdana" size="2">La <a href="/img/revistas/iit/v14n2/a10t1.jpg" target="_blank">tabla 1</a> presenta un resumen de los m&eacute;todos anteriormente mencionados. En los m&eacute;todos con retardo, una caracter&iacute;stica observada en el instante <i>t</i> se agrega al mapa en un tiempo subsiguiente <i>t + k.</i> Por lo general este retardo es utilizado en los diferentes m&eacute;todos para recabar informaci&oacute;n que permita inicializar robustamente las caracter&iacute;sticas en el mapa. Por otro lado, los m&eacute;todos sin retardo se aprovechan de la observaci&oacute;n de la caracter&iacute;stica desde el instante <i>t</i> para localizar el veh&iacute;culo, pero la actualizaci&oacute;n del mapa estoc&aacute;stico debe calcularse cuidadosamente.</font></p>  	    <p align="justify"><font face="verdana" size="2">Respecto a la representaci&oacute;n inicial, en la <a href="/img/revistas/iit/v14n2/a10t1.jpg" target="_blank">tabla 1</a>, el <i>ajuste de burbuja</i> se refiere a m&eacute;todos que est&aacute;n basados en procesamiento por lotes, y buscan una soluci&oacute;n &oacute;ptima utilizando todas las mediciones disponibles. Los m&eacute;todos de <i>triangulaci&oacute;n</i> calculan expl&iacute;citamente la intersecci&oacute;n de las l&iacute;neas definidas por las observaciones, &eacute;stos requieren definir una condici&oacute;n para considerar la estimaci&oacute;n bien condicionada. Los m&eacute;todos de <i>hip&oacute;tesis sencilla</i> definen la representaci&oacute;n inicial de las caracter&iacute;sticas con la &uacute;nica funci&oacute;n de distribuci&oacute;n de probabilidad. A menudo estos m&eacute;todos son f&aacute;ciles de calcular, pero requieren atenci&oacute;n con respecto a la linealidad en la ecuaci&oacute;n de medici&oacute;n. Los m&eacute;todos de <i>hip&oacute;tesis m&uacute;ltiple</i> definen la representaci&oacute;n inicial de las caracter&iacute;sticas con una funci&oacute;n de probabilidad m&uacute;ltiple. Usualmente son m&eacute;todos robustos en relaci&oacute;n con la linealidad de la ecuaci&oacute;n de medici&oacute;n, pero su complejidad es alta. La columna <i>estimaci&oacute;n</i> se refiere a la t&eacute;cnica empleada para el proceso de estimaci&oacute;n principal del SLAM. La mayor&iacute;a de los algoritmos est&aacute;n basados en el Filtro de Kalman Extendido, pero otros emplean filtros de part&iacute;culas u otras variaciones, como FastSLAM.</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Parametrizaci&oacute;n de la profundidad inversa</b></font></p>  	    <p align="justify"><font face="verdana" size="2">Como se mencion&oacute; en la secci&oacute;n anterior, los m&eacute;todos basados en <i>hip&oacute;tesis m&uacute;ltiples</i> son robustos para su aplicaci&oacute;n con problemas altamente no lineales, a costa de una complejidad de implementaci&oacute;n usualmente alta. En contraste, los m&eacute;todos basados en una sola hip&oacute;tesis (de implementaci&oacute;n menos compleja), como el EKF, el cual recurre a la linealizaci&oacute;n de primer orden, sufren cuando la incertidumbre no puede ser representada de manera Gaussiana.</font></p>  	    <p align="justify"><font face="verdana" size="2">a) Mejora de la linealidad</font></p>  	    <p align="justify"><font face="verdana" size="2">En Eade y Drummond (2006) y Montiel <i>et al.</i> (2006) se ha mostrado que el uso de una parametrizaci&oacute;n inversa para la profundidad de las caracter&iacute;sticas mejora notablemente la linealidad de la ecuaci&oacute;n de medici&oacute;n, incluso para peque&ntilde;os cambios en la posici&oacute;n del sensor, los cuales producen peque&ntilde;os cambios en el &aacute;ngulo de paralaje.</font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">Este hecho permite representar la incertidumbre en la profundidad de un rango (desde lo cercano hasta lo infinito) de manera Gaussiana, permitiendo a su vez, utilizar un esquema est&aacute;ndar EKF para la implementaci&oacute;n robusta del SLAM con mediciones angulares.</font></p>  	    <p align="justify"><font face="verdana" size="2">Tomando como referencia la parametrizaci&oacute;n propuesta en Montiel <i>et al.</i> (2006), una caracter&iacute;stica en un entorno 2D estar&iacute;a definida por el vector de 4 dimensiones</font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/iit/v14n2/a10e11.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">el cual modela un punto localizado en</font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/iit/v14n2/a10e12.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">Siendo <i>x<sub>i</sub></i> e <i>y<sub>i</sub></i> las coordenadas del centro del veh&iacute;culo cuando la caracter&iacute;stica es observada por primera vez, y <i>&#952;</i><sub>i</sub> representa el acimut (respecto al marco de referencia global W) para el vector direccional unitario <i>m</i>(<i>&#952;</i><sub>i</sub>). La profundidad del punto <i>d<sub>i</sub></i> se codifica por su inversa <i>&#961;<sub>i</sub></i> = 1/<i>d<sub>i</sub></i> (<a href="/img/revistas/iit/v14n2/a10f2.jpg" target="_blank">figura 2</a>).</font></p>  	    <p align="justify"><font face="verdana" size="2">La <a href="/img/revistas/iit/v14n2/a10f3.jpg" target="_blank">figura 3</a> muestra la reconstrucci&oacute;n de un punto mediante mediciones angulares afectadas de ruido a diferentes paralajes, usando tanto la parametrizaci&oacute;n euclidiana (<a href="/img/revistas/iit/v14n2/a10f3.jpg" target="_blank">figura 3a</a>), como la profundidad inversa (<a href="/img/revistas/iit/v14n2/a10f3.jpg" target="_blank">figura 3b</a>).</font></p>  	    <p align="justify"><font face="verdana" size="2">b) Inicializaci&oacute;n sin retardo</font></p>  	    <p align="justify"><font face="verdana" size="2">En el m&eacute;todo presentado por Montiel <i>et al.</i> (2006) no existe una transici&oacute;n expl&iacute;cita de un estado "parcial" a uno "totalmente" inicializado, esto significa que las caracter&iacute;sticas son agregadas al mapa y expresadas mediante su representaci&oacute;n final desde que son observadas por primera vez. En lo subsiguiente se referir&aacute; a esta propuesta como <i>m&eacute;todo de la profundidad inversa sin retardo</i> (o PI&#45;SR).</font></p>  	    <p align="justify"><font face="verdana" size="2">Para el m&eacute;todo PI&#45;SR, el valor inicial para <i>p<sub>i</sub></i> y su variancia inicial asociada <i>&#963;</i><sub>&#961;</sub><sup>2</sup>, se determinan heur&iacute;sticamente para cubrir una regi&oacute;n de aceptaci&oacute;n de 95%, es decir, un enorme rango de profundidad &#91;<i>d<sub>min</sub></i>, &#8734;&#93; codificado ensu inversa <i>&#961;<sub>i</sub></i> = 1/d<i><sub>i</sub></i> tal que <i>&#961;<sub>ini</sub></i> = <i>&#961;<sub>min</sub></i> / 2, <i>&#963;</i><sub><i>&#961;(ini)</i></sub> = <i>&#961;<sub>min</sub></i> / 4, <i>&#961;<sub>min</sub></i> <b>=</b> 1 / <i>d<sub>min</sub></i>. Entonces una nueva caracter&iacute;stica <img src="/img/revistas/iit/v14n2/a10i3.jpg"><sub>new</sub>, detectada en un instante k, se compone de manera que</font></p>  	    ]]></body>
<body><![CDATA[<p align="center"><font face="verdana" size="2"><img src="/img/revistas/iit/v14n2/a10e13.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">donde <i>x<sub>v</sub></i> , <i>y<sub>v</sub></i>, <i>&#952;<sub>v</sub></i> se toman directamente del estado actual <img src="/img/revistas/iit/v14n2/a10i2.jpg"><sub>v</sub>, <i>&#961;<sub>ini</sub></i> es la profundidad inversa inicial y <i>z<sub>k</sub></i> es medici&oacute;n angular inicial.</font></p>  	    <p align="justify"><font face="verdana" size="2">El nuevo estado del sistema <img src="/img/revistas/iit/v14n2/a10i2.jpg"> se compone simplemente agregando la nueva caracter&iacute;stica <img src="/img/revistas/iit/v14n2/a10i3.jpg"><sub>new</sub> al final del vector de estados, tal como se muestra en la ecuaci&oacute;n (5). Por ejemplo, para agregar una nueva caracter&iacute;stica en un mapa con 2 caracter&iacute;sticas, el nuevo vector resultar&iacute;a</font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/iit/v14n2/a10e14.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">La matriz de covariancias del estado del sistema <i>P</i>, es expandida en el proceso de inicializaci&oacute;n por</font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/iit/v14n2/a10e15.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">Donde <i>J</i> es el Jacobiano de la funci&oacute;n de inicializaci&oacute;n, <i>&#963;</i><sub>z</sub><sup>2</sup> es la variancia del sensor angular y <i>&#963;<sub>&#961;</sub></i><sub>(</sub><i><sub>ini</sub></i><sub>)</sub> es la variancia que representa la incertidumbre de la profundidad inversa inicial.</font></p>  	    <p align="justify"><font face="verdana" size="2">c) Casos de prueba</font></p>  	    <p align="justify"><font face="verdana" size="2">El m&eacute;todo de la parametrizaci&oacute;n inversa sin retardo es, sin duda, una buena opci&oacute;n para su implementaci&oacute;n en sistemas de SLAM basados en sensores angulares, debido a su claridad y escalabilidad. Por otro lado, en experimentos basados en simulaci&oacute;n, se encontr&oacute; que bajo ciertas circunstancias los par&aacute;metros iniciales fijos <i>&#961;<sub>ini</sub></i> y <i>&#963;<sub>&#961;</sub></i><sub>(</sub><i><sub>ini</sub></i><sub>)</sub> tienen que ser sintonizados manualmente para asegurar la convergencia del algoritmo.</font></p>  	    <p align="justify"><font face="verdana" size="2">Consid&eacute;rese, por ejemplo, las pruebas experimentales ilustradas en la <a href="/img/revistas/iit/v14n2/a10f4.jpg" target="_blank">figura 4</a>, en las cuales un veh&iacute;culo equipado con odometr&iacute;a y un sensor angular (ambos con ruido), se desplaza por una l&iacute;nea recta (realizando SLAM) a trav&eacute;s de un entorno, que contiene 5 caracter&iacute;sticas (4 cercanas a la trayectoria del veh&iacute;culo y una m&aacute;s distante). El gr&aacute;fico en la <a href="/img/revistas/iit/v14n2/a10f4.jpg" target="_blank">figura 4a</a> ilustra tres casos encontrados en la estimaci&oacute;n final del algoritmo, de izquierda a derecha: i) estimaci&oacute;n final con una gran deriva (en rotaci&oacute;n), ii) divergencia y iii) estimaci&oacute;n correcta del algoritmo.</font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">Las pruebas consistieron en variar los par&aacute;metros iniciales (<i>&#961;<sub>ini</sub></i> y <i>&#963;<sub>&#961;</sub></i><sub>(</sub><i><sub>ini</sub></i><sub>)</sub>) y observar el efecto en la estimaci&oacute;n final, ejecutando 20 veces el algoritmo para cada caso. En el primer caso, (<a href="/img/revistas/iit/v14n2/a10f4.jpg" target="_blank">figura 4b</a>) los par&aacute;metros iniciales fueron establecidos de manera que las caracter&iacute;sticas inicializaran a una distancia media entre el veh&iacute;culo y la caracter&iacute;stica m&aacute;s distante (<i>&#961;<sub>ini</sub></i> = 0.01, <i>&#963;<sub>&#961;</sub></i><sub>(</sub><i><sub>ini</sub></i><sub>)</sub> = 0.005). En este caso se encontr&oacute; una gran deriva en las estimaciones finales para casi todas las ocasiones que se ejecut&oacute; el algoritmo.</font></p>  	    <p align="justify"><font face="verdana" size="2">En el siguiente caso, los valores iniciales fueron establecidos para inicializar las caracter&iacute;sticas de una posici&oacute;n cercana al veh&iacute;culo (<a href="/img/revistas/iit/v14n2/a10f4.jpg" target="_blank">figura 4c</a>) (<i>&#961;<sub>ini</sub></i> = 0.5, <i>&#963;<sub>&#961;</sub></i><sub>(</sub><i><sub>ini</sub></i><sub>)</sub> <b><i>=</i></b> 0.25), aqu&iacute; se encontr&oacute; un deficiente porcentaje de convergencia (aproximadamente 50%), por lo que fue notoria la influencia de la caracter&iacute;stica m&aacute;s lejana, ya que al retirarla de la simulaci&oacute;n (manteniendo los mismos valores iniciales) el porcentaje de convergencia se increment&oacute; 80%.</font></p>  	    <p align="justify"><font face="verdana" size="2">Finalmente en el &uacute;ltimo caso (<a href="/img/revistas/iit/v14n2/a10f4.jpg" target="_blank">figura 4d</a>) se utilizaron diferentes valores iniciales, dependiendo de la cercan&iacute;a o lejan&iacute;a de las caracter&iacute;sticas de acuerdo con el veh&iacute;culo. Para las cuatro caracter&iacute;sticas cercanas se utilizaron valores iniciales <i>&#961;<sub>ini</sub> =</i> 0.5, <i>&#963;<sub>&#961;</sub></i><sub>(</sub><i><sub>ini</sub></i><sub>)</sub> <b><i>=</i></b> 0.25 y para la distante <i>&#961;<sub>ini</sub> =</i> 0.01, <i>&#963;<sub>&#961;</sub></i><sub>(</sub><i><sub>ini</sub></i><sub>)</sub> <b><i>=</i></b> 0.005. En este &uacute;ltimo caso se obtuvo una efectividad de 90%.</font></p>  	    <p align="justify"><font face="verdana" size="2">Con base en los resultados de las diferentes simulaciones realizadas, se puede inferir que la profundidad inversa inicial y su variancia asociada pueden tratarse previamente a su inclusi&oacute;n en el mapa (en lugar de utilizar valores preestablecidos), con tal de incrementar la efectividad del m&eacute;todo.</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>M&eacute;todo por triangulaci&oacute;n estoc&aacute;stica</b></font></p>  	    <p align="justify"><font face="verdana" size="2">En la secci&oacute;n anterior se observ&oacute; que la sintonizaci&oacute;n manual de los par&aacute;metros iniciales mejora la efectividad del m&eacute;todo PI&#45;SR. Teniendo en cuenta este contexto, es razonable considerar la posibilidad de recolectar informaci&oacute;n acerca de la profundidad, previamente a la inclusi&oacute;n de las caracter&iacute;sticas en el mapa. En este sentido, la <a href="/img/revistas/iit/v14n2/a10f5.jpg" target="_blank">figura 5</a> muestra que unos cuantos grados de paralaje son suficientes para reducir significativamente la incertidumbre de la profundidad.</font></p>  	    <p align="justify"><font face="verdana" size="2">La idea clave del m&eacute;todo propuesto por los autores consiste en: i) estimar din&aacute;micamente la profundidad inicial inversa <i>&#961;<sub>ini</sub></i> de manera que &eacute;sta sea m&aacute;s consistente a su valor real y ii) incorporar directamente la incertidumbre relacionada con el proceso de estimaci&oacute;n de <i>&#961;<sub>ini</sub></i> en la matriz de covariancias del sistema cuando la caracter&iacute;stica es inicializada, en lugar de utilizar un valor inicial <i>&#963;<sub>&#961;</sub></i><sub>(</sub><i><sub>ini</sub></i><sub>)</sub>.</font></p>  	    <p align="justify"><font face="verdana" size="2">En lo subsiguiente nos referiremos al enfoque propuesto como <i>m&eacute;todo por triangulaci&oacute;n estoc&aacute;stica</i> o (MTE).</font></p>  	    <p align="justify"><font face="verdana" size="2">a) Puntos candidatos</font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">Cuando una caracter&iacute;stica es detectada por primera vez, se almacena una parte del estado actual <img src="/img/revistas/iit/v14n2/a10i2.jpg">, la matriz de covariancias <i>P</i> y la medici&oacute;n del sensor. Estos datos &#955;<i><sub>i</sub></i> se llaman <i>puntos candidatos</i> y est&aacute;n compuestos por</font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/iit/v14n2/a10e16.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">Los valores &#91;<i>x</i><sub>1</sub><i>,y</i><sub>1</sub><i>,&#952;</i><sub>1</sub>&#93; representan la posici&oacute;n actual del veh&iacute;culo, &#91;<i>&#963;</i><sub>1(x)</sub>, <i>&#963;</i><sub>1(y)</sub>, <i>&#963;</i><sub>1(&#952;)</sub>&#93; representan sus variancias asociadas tomadas de la matriz de covariancias del estado <i>P<sub>k</sub>,</i> y z<sub>1</sub> es la primera medici&oacute;n angular de la caracter&iacute;stica. En los instantes subsiguientes, la caracter&iacute;stica se rastrea hasta que se alcanza el umbral de</font></p>  	    <p align="justify"><font face="verdana" size="2">paralaje m&iacute;nimo <i>&#945;<sub>min</sub></i>.</font></p>  	    <p align="justify"><font face="verdana" size="2">El paralaje <i>a</i> se estima utilizando (<a href="/img/revistas/iit/v14n2/a10f6.jpg" target="_blank">figura 6</a>):</font></p>  	    <p align="justify"><font face="verdana" size="2">i) la l&iacute;nea base de desplazamiento b.</font></p>  	    <p align="justify"><font face="verdana" size="2">ii) &#955;<i><sub>i</sub></i> y sus datos asociados.</font></p>  	    <p align="justify"><font face="verdana" size="2">iii) el estado actual del veh&iacute;culo <i><img src="/img/revistas/iit/v14n2/a10i2.jpg"><sub>v</sub></i> y la medici&oacute;n actual <i>z<sub>i</sub>.</i></font></p>  	    <p align="justify"><font face="verdana" size="2">b) Estimaci&oacute;n del paralaje</font></p>  	    <p align="justify"><font face="verdana" size="2">Cada ocasi&oacute;n que una nueva medici&oacute;n angular <i>z</i> est&aacute; disponible para punto candidato &#955;<i><sub>i</sub></i>, el &aacute;ngulo de paralaje <i>&#945;</i> se estima por</font></p>  	    ]]></body>
<body><![CDATA[<p align="center"><font face="verdana" size="2"><img src="/img/revistas/iit/v14n2/a10e17.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">El &aacute;ngulo <i>&#946;</i> se determina mediante el vector direccional unitario <i>h</i><sub>1</sub><i>,</i> y el vector b<sub>1</sub>, definido por la l&iacute;nea base de desplazamiento <i>b</i> en la direcci&oacute;n de la trayectoria del veh&iacute;culo.</font></p>  	    <p align="justify"><font face="verdana" size="2">El &aacute;ngulo &#947; se determina de manera similar a <i>&#946;,</i> pero utilizando el vector direccional unitario <i>h</i><sub>2</sub>, y el vector <i>b</i><sub>2</sub>, definido por la l&iacute;nea base de desplazamiento <i>b</i> en la direcci&oacute;n opuesta de la trayectoria del veh&iacute;culo.</font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/iit/v14n2/a10e18.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">donde (<i>h</i><sub>1</sub>&#183;<i>b</i><sub>1</sub>) es el producto escalar entre <i>h</i><sub>1</sub> y <i>b</i><sub>1</sub>. El vector direccional <i>h</i><sub>1</sub>, expresado en marco de referencia absoluto <i>W</i>, apunta desde la locaci&oacute;n del centro del veh&iacute;culo a la direcci&oacute;n en donde la caracter&iacute;stica fue observada por primera vez, y se calcula utilizando los datos almacenados en <i>&#955;<sub>i</sub></i>.</font></p>  	    <p align="justify"><font face="verdana" size="2">El vector direccional <i>h</i><sub>2</sub> expresado en el marco de referencia absoluto <i>W</i> se calcula de manera similar a <i>h</i><sub>1,</sub> pero utilizando la posici&oacute;n actual del veh&iacute;culo <img src="/img/revistas/iit/v14n2/a10i2.jpg"><sub>v</sub> y la medici&oacute;n angular actual <i>z<sub>i</sub>.</i></font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/iit/v14n2/a10e19.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2"><i>b<sub>1</sub></i> es el vector que representa la l&iacute;nea base de desplazamiento del veh&iacute;culo, entre la posici&oacute;n del centro del mismo, cuando la caracter&iacute;stica fue detectada por primera vez <i>(x<sub>1</sub>, y<sub>1</sub></i> almacenado en <i>&#955;<sub>i</sub></i>) y el centro de la posici&oacute;n actual del veh&iacute;culo (x<sub>v</sub> , y<sub>v</sub> tomados de <img src="/img/revistas/iit/v14n2/a10i2.jpg"><sub>v</sub>). El vector <i>b</i> es el modulo de b<sub>1</sub> o b<sub>2</sub></font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/iit/v14n2/a10e20.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">c) Inicializaci&oacute;n en el estado y matriz de covariancias</font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">Si el paralaje es mayor que un umbral (<i>&#945;</i> &gt; <i>&#945;<sub>min</sub></i>) entonces <i>&#955;<sub>i</sub></i> es inicializado como una nueva caracter&iacute;stica <img src="/img/revistas/iit/v14n2/a10i3.jpg"><sub>i</sub>. El umbral <i>&#945;<sub>min</sub></i> puede ser establecido dependiendo la precisi&oacute;n del sensor angular. En el caso de la <a href="/img/revistas/iit/v14n2/a10f5.jpg" target="_blank">figura 5</a>, donde <i>&#963;<sub>&#952;</sub></i> = 1&deg; (t&iacute;pico valor en el caso de c&aacute;maras), se aprecia que la incertidumbre es considerablemente minimizada cuando <i>&#945;</i> &#8776; 10&deg;.</font></p>  	    <p align="justify"><font face="verdana" size="2">Para cada nueva caracter&iacute;stica <img src="/img/revistas/iit/v14n2/a10i3.jpg"><sub>new</sub>, los valores de x<i><sub>i</sub></i>, y<i><sub>i</sub></i> y <i>&#952;<sub>i</sub></i> se determinan de la misma manera que en (13). Con la diferencia de que en el m&eacute;todo propuesto, la estimaci&oacute;n inicial de <i>&#961;<sub>i</sub></i> se determina por</font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/iit/v14n2/a10e21.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">La nueva caracter&iacute;stica <img src="/img/revistas/iit/v14n2/a10i3.jpg"><sub>new</sub> se agrega al estado <img src="/img/revistas/iit/v14n2/a10i2.jpg"> definida en (14).</font></p>  	    <p align="justify"><font face="verdana" size="2">En el m&eacute;todo propuesto (MTE), la variancia <i>&#963;<sub>&#961;</sub></i> de la profundidad inversa <i>&#961;</i> se calcula din&aacute;micamente por el proceso de inicializaci&oacute;n (en lugar de una variancia predefinida heur&iacute;sticamente como en el m&eacute;todo PI&#45;SR). En este sentido, las covariancias para la nueva caracter&iacute;stica <img src="/img/revistas/iit/v14n2/a10i3.jpg"><sub>new</sub> son derivadas de la matriz de covariancias de errores de medici&oacute;n <i>R<sub>i</sub></i> y la matriz de covariancias del sistema <i>P.</i></font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/iit/v14n2/a10e22.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">Por simplicidad <i>R<sub>i</sub></i> se define como una matriz diagonal (las covariancias cruzadas no se toman en cuenta) y est&aacute; conformada por las variancias del sensor angular <i>&#963;</i><sub>z</sub><sup>2</sup> (una por cada medici&oacute;n angular <i>z</i><sub>1</sub> y <i>z)</i> y las variancias almacenadas en <i>&#955;<sub>i</sub></i> (<i>&#963;</i><sub>1(x)</sub>, <i>&#963;</i><sub>1(y)</sub> y <i>&#963;</i><sub>1</sub><sub>(&#952;)</sub>). N&oacute;tese que el valor de <i>&#963;</i><sub>z</sub> es constante y no es almacenado previamente seg&uacute;n se indica en (16).</font></p>  	    <p align="justify"><font face="verdana" size="2">La nueva matriz de covariancias del sistema, despu&eacute;s de la inicializaci&oacute;n, es</font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/iit/v14n2/a10e23.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">Donde <i>J</i> es el Jacobiano de la funci&oacute;n de inicializaci&oacute;n. Obs&eacute;rvese que el m&eacute;todo propuesto no implica la definici&oacute;n de una incertidumbre inicial para la profundidad <i>&#963;</i><sub><i>&#961;</i>(<i>ini</i>)</sub>.</font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">d) Caracter&iacute;sticas distantes</font></p>  	    <p align="justify"><font face="verdana" size="2">Como es de esperarse, para ciertos tipos de entornos puede darse el caso de que caracter&iacute;sticas muy lejanas no produzcan paralaje (para trayectorias peque&ntilde;as con relaci&oacute;n a la profundidad).</font></p>  	    <p align="justify"><font face="verdana" size="2">Agregar caracter&iacute;sticas cuya profundidad es sumamente incierta incide muy poco sobre la estimaci&oacute;n de la locaci&oacute;n <i>x<sub>v</sub></i> , <i>y<sub>v</sub></i> del veh&iacute;culo, sin embargo, puede aportar informaci&oacute;n &uacute;til para la estimaci&oacute;n de la orientaci&oacute;n <i>&#952;<sub>v</sub>.</i></font></p>  	    <p align="justify"><font face="verdana" size="2">En el m&eacute;todo propuesto, si se desea incluir caracter&iacute;sticas distantes en el mapa, se puede considerar una l&iacute;nea base de desplazamiento m&iacute;nima <i>b<sub>min</sub></i>, la cual se determina en funci&oacute;n de las particularidades de la aplicaci&oacute;n.</font></p>  	    <p align="justify"><font face="verdana" size="2">Entonces, en el caso de una caracter&iacute;stica distante, si <i>b</i> &gt; <i>b<sub>min</sub></i> y no obstante <i>&#945;</i> &lt; <i>&#945;<sub>min</sub></i>, &eacute;sta ser&iacute;a inicializada en el mapa como en el m&eacute;todo PI&#45;SR, pero utilizando valores iniciales <i>&#961;<sub>ini</sub></i> <i>&#963;<sub>&#961;</sub></i><sub>(</sub><i><sub>ini</sub></i><sub>)</sub> que tengan en cuenta la gran profundidad de la caracter&iacute;stica.</font></p>  	    <p align="justify"><font face="verdana" size="2">Un caso especial, en el cual una caracter&iacute;stica cercana no produce paralaje, se da cuando el veh&iacute;culo se mueve exactamente en direcci&oacute;n de la caracter&iacute;stica (<i>&#946;</i> &#8776; 0&deg;). En este trabajo se supone que se dar&aacute;n las condiciones necesarias para que se produzca paralaje en al menos una caracter&iacute;stica de las observadas a cada momento por el sensor.</font></p>  	    <p align="justify"><font face="verdana" size="2">En el caso de incluir caracter&iacute;sticas distantes en el mapa, y suponiendo que el veh&iacute;culo no se mueve plenamente en la direcci&oacute;n de la caracter&iacute;stica (en nuestro trabajo se considera <i>&#946;</i> 20&deg;), una posible forma de aproximar unos valores iniciales para <i>&#961;<sub>ini</sub></i> <i>&#963;<sub>&#961;</sub></i><sub>(</sub><i><sub>ini</sub></i><sub>)</sub> en funci&oacute;n de <i>&#945;<sub>min</sub></i> y <i>b<sub>min</sub></i> podr&iacute;a ser</font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/iit/v14n2/a10e24.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Resultados experimentales</b></font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">a) Simulaciones</font></p>  	    <p align="justify"><font face="verdana" size="2">La <a href="/img/revistas/iit/v14n2/a10f7.jpg" target="_blank">figura 7</a> muestra el proceso de inicializaci&oacute;n de una sola caracter&iacute;stica por el m&eacute;todo MTE; cuando un punto de referencia se observa por primera vez (<a href="/img/revistas/iit/v14n2/a10f7.jpg" target="_blank">figura 7a</a>) se define un punto candidato <i>&#955;<sub>i</sub></i>. Mientras el veh&iacute;culo se mueve realizando nuevas mediciones angulares, el paralaje <i>&#945;</i> se estima repetidamente (<a href="/img/revistas/iit/v14n2/a10f7.jpg" target="_blank">figuras 7b</a>, <a href="/img/revistas/iit/v14n2/a10f7.jpg" target="_blank">c</a> y <a href="/img/revistas/iit/v14n2/a10f7.jpg" target="_blank">d</a>). Si <i>&#945;</i> &gt; <i>&#945;<sub>min</sub></i> (<a href="/img/revistas/iit/v14n2/a10f7.jpg" target="_blank">figura 7d</a>) entonces se inicializa una nueva caracter&iacute;stica <img src="/img/revistas/iit/v14n2/a10i3.jpg"><i><sub>i</sub></i> en el vector de estados del sistema y la matriz de covariancias (<a href="/img/revistas/iit/v14n2/a10f7.jpg" target="_blank">figura 7e</a>). En esta simulaci&oacute;n se utiliz&oacute; <i>&#945;<sub>min</sub>=</i> 20&deg; por claridad, mientras que en las simulaciones subsiguientes <i>&#945;<sub>min</sub>=</i> 10&deg;.</font></p>  	    <p align="justify"><font face="verdana" size="2">En el entorno de pruebas ilustrado en la <a href="/img/revistas/iit/v14n2/a10f4.jpg" target="_blank">figura 4</a>, el m&eacute;todo MTE obtuvo 100% de efectividad. Es importante hacer notar que se realizaron numerosas pruebas mediante diversos entornos simulados, bajo distintas condiciones, cuyos resultados, por razones de espacio, no pueden mostrarse en este trabajo. As&iacute; pues, es muy importante resaltar que con el m&eacute;todo propuesto tambi&eacute;n se presentaron numerosos casos de divergencia en las estimaciones del iltro. Sin embargo, el porcentaje de divergencia obtenido con el m&eacute;todo MTE es en la mayor&iacute;a de los casos menor con relaci&oacute;n al porcentaje obtenido con el m&eacute;todo PI&#45;SR.</font></p>  	    <p align="justify"><font face="verdana" size="2">La <a href="/img/revistas/iit/v14n2/a10f8.jpg" target="_blank">figura 8</a> muestra resultados de la simulaci&oacute;n del algoritmo MTE para una trayectoria circular. En este caso, se a&ntilde;adi&oacute; a la odometr&iacute;a ruido gaussiano con una variancia de 0.01 (t&iacute;pico valor para sistemas basados en codificadores en las ruedas del robot). Para el sensor angular, se ha considerado una variancia <i>&#963;</i><sub>z</sub>=5&deg; (suponiendo poca precisi&oacute;n en el sensor). Tambi&eacute;n se supone que el sensor angular puede rastrear los puntos de referencia sobre 360&deg;. Obs&eacute;rvese la mejora en la estimaci&oacute;n de la trayectoria mediante el SLAM cuando se compara con la trayectoria estimada, utilizando &uacute;nicamente la odometr&iacute;a. Tambi&eacute;n puede observarse la mejora en la estimaci&oacute;n de la trayectoria cuando se incluyen mayor n&uacute;mero de caracter&iacute;sticas en el mapa.</font></p>  	    <p align="justify"><font face="verdana" size="2">b) Experimentaci&oacute;n con datos reales</font></p>  	    <p align="justify"><font face="verdana" size="2">El m&eacute;todo propuesto por triangulaci&oacute;n estoc&aacute;stica MTE, ha sido probado en distintos escenarios de SLAM con datos reales, obtenidos mediante distintos sensores angulares. Los resultados experimentales iniciales han sido reportados previamente por los autores en memorias de congreso (Mungu&iacute;a y Grau, 2007&#45;2008).</font></p>  	    <p align="justify"><font face="verdana" size="2">SLAM con una sola fuente de sonido</font></p>  	    <p align="justify"><font face="verdana" size="2">El SLAM basado en sensores angulares usualmente se ha asociado con sistemas basados con visi&oacute;n artificial, probablemente porque las c&aacute;maras son, con diferencia, el sensor angular m&aacute;s usado en rob&oacute;tica. En este contexto el uso del sentido auditivo se ha explorado mucho menos en SLAM. En este caso, los autores proponen el uso de fuentes de sonido (artificiales o naturales) como puntos de referencia por el robot, para incluirlas como caracter&iacute;sticas del mapa en el proceso de SLAM.</font></p>  	    <p align="justify"><font face="verdana" size="2">En las simulaciones (secci&oacute;n anterior) se observ&oacute; que una sola caracter&iacute;stica (observada de manera continua) es suficiente para corregir el error de la odometr&iacute;a de manera aceptable. Este hecho ha motivado a los autores a probar el algoritmo MTE en un robot real de construcci&oacute;n propia equipado con un sensor capaz de rastrear la &uacute;nica fuente de sonido.</font></p>  	    <p align="justify"><font face="verdana" size="2">En las simulaciones tambi&eacute;n se evidencia que el algoritmo trabaja mejor con un mayor n&uacute;mero de caracter&iacute;sticas. Sin embargo, en una situaci&oacute;n real, rastrear y discriminar entre varias fuentes de sonido, incrementa considerablemente la complejidad de la implementaci&oacute;n. Existen diferentes propuestas en la literatura respecto al tratamiento de la problem&aacute;tica del sonido, sin embargo, est&aacute;n fuera del &aacute;mbito del presente trabajo.</font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">Los experimentos consistieron en mover un peque&ntilde;o robot m&oacute;vil sobre una trayectoria predefinida, en modo de seguidor de l&iacute;neas (para obtener una comparativa con una referencia real), mientras realizaba el seguimiento de una fuente de sonido.</font></p>  	    <p align="justify"><font face="verdana" size="2">Para el sensor de sonido (<a href="/img/revistas/iit/v14n2/a10f9.jpg" target="_blank">figura 9</a>), se ha desarrollado un cabezal rotatorio (de 360&deg;), con dos receptores de ultrasonidos en sus extremos, los cuales reciben una se&ntilde;al estructurada de ultrasonidos emitida por una fuente. La diferencia de tiempos interaural (t<sub>1</sub> &#45; t<sub>2</sub>) se utiliza como retroalimentaci&oacute;n para el controlador del servo del cabezal, el cual busca mantener siempre t<sub>1</sub> &#45; t<sub>2</sub> = 0 tratando, de esta manera, de orientar el cabezal en direcci&oacute;n de la fuente de ultrasonidos. Con la implementaci&oacute;n anterior, se obtuvo una modesta precisi&oacute;n angular de alrededor de &plusmn;15&deg;.</font></p>  	    <p align="justify"><font face="verdana" size="2">La <a href="/img/revistas/iit/v14n2/a10f10.jpg" target="_blank">figura 10</a> muestra los resultados obtenidos con los datos capturados por los sensores del robot. Para una trayectoria en forma de &oacute;valo (<a href="/img/revistas/iit/v14n2/a10f10.jpg" target="_blank">figura 10a</a>) y para una trayectoria en forma de ocho (<a href="/img/revistas/iit/v14n2/a10f10.jpg" target="_blank">figura 10b</a>). En el gr&aacute;fico (b) se observa que despu&eacute;s de 6 vueltas (alrededor de 24 metros de viaje) la trayectoria ha sido razonablemente bien recuperada con el algoritmo de SLAM, comparando las estimaciones y utilizando &uacute;nicamente la odometr&iacute;a del robot.</font></p>  	    <p align="justify"><font face="verdana" size="2">SLAM Monocular</font></p>  	    <p align="justify"><font face="verdana" size="2">El SLAM monocular de 6&#45;DOF, probablemente representa la variante m&aacute;s extrema del SLAM. En este caso, una <i>webcam</i> de bajo costo, desplazada libremente por su entorno, representa la &uacute;nica entrada sensorial del sistema (sin odometr&iacute;a ni sensado inercial o capacidad est&eacute;reo para la percepci&oacute;n de profundidad de manera directa). Para esta aplicaci&oacute;n, un modelo de velocidad constante sin restricciones representa el movimiento de la c&aacute;mara</font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/iit/v14n2/a10e25.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">siendo <i>q</i>((<i>&#969;<sup>W</sup><sub>k</sub>+&#937;<sup>W</sup></i>)<i>&#916;t</i>) el cuaterni&oacute;n definido por el vector de rotaci&oacute;n (<i>&#969;<sup>W</sup><sub>k</sub>+&#937;<sup>W</sup></i>)<i>&#916;t.</i> Para cada paso se supone una entrada incierta de aceleraci&oacute;n lineal y angular con media cero y covariancia gaussiana conocida <i>a</i><sup>W</sup> y <i>&#945;</i><sup>W</sup>, produciendo un impulso de velocidad lineal y angular: <i>V<sup>W</sup>=</i> <i>&#945;</i><sup>W</sup><i>&#916;t</i> and <i>&#937;</i><sup>W</sup>= <i>&#945;</i><sup>W</sup><i>&#916;t</i>. El estado de la c&aacute;mara <img src="/img/revistas/iit/v14n2/a10i2.jpg"><sub>v</sub> se define por</font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/iit/v14n2/a10e26.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">donde r<sup>WC</sup>= &#91;<i>x, y, z</i>&#93; representa la posici&oacute;n del centro &oacute;ptico de la c&aacute;mara, <i>q<sup>WC</sup>=</i> &#91;<i>qg,</i> <i>q<sub>v</sub> q<sub>2</sub>, q<sub>3</sub></i>&#93;, representa, mediante un cuaterni&oacute;n, la orientaci&oacute;n de la c&aacute;mara y <i>v<sup>W</sup>=</i> &#91;<i>v<sub>x</sub>, v<sub>y</sub>, v<sub>z</sub></i>&#93; y <i>&#969;<sup>W</sup>=</i> &#91;<i>&#969;<sub>x</sub>, &#969;<sub>y</sub></i>, <i>&#969;<sub>z</sub></i>&#93; denotan las velocidades lineales y angulares, respectivamente. En este contexto una caracter&iacute;stica <img src="/img/revistas/iit/v14n2/a10i3.jpg"><sub>i</sub> representa un punto <i>i</i> en una escena 3D definida por el vector de 6 dimensiones</font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/iit/v14n2/a10e27.jpg"></font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">el cual modela el punto 3D localizado en (<a href="/img/revistas/iit/v14n2/a10f11.jpg" target="_blank">figura 11</a>)</font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/iit/v14n2/a10e28.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">donde <i>x<sub>i</sub> , y<sub>i</sub> , z<sub>i</sub></i> representa la posici&oacute;n del centro &oacute;ptico de la c&aacute;mara cuando la caracter&iacute;stica fue observada por primera vez, y <i>&#952;<sub>i</sub>,</i> <i>&#934;<sub>i</sub></i> representa el acimut y la elevaci&oacute;n (con respecto al marco de referencia global <i>W)</i> para el vector unitario <i>m</i> (<i>&#952;<sub>i</sub>,</i> <i>&#934;<sub>i</sub></i>). La profundidad del punto <i>d<sub>i</sub></i> se codifica por su inversa <i>&#961;<sub>i</sub></i> = 1/d<i><sub>i</sub></i>.</font></p>  	    <p align="justify"><font face="verdana" size="2">Las diferentes posiciones de la c&aacute;mara, conjuntamente con las posiciones de las caracter&iacute;sticas ya agregadas al mapa, se usan para predecir la posici&oacute;n de la caracter&iacute;stica <i>h<sub>i</sub>.</i> El modelo de observaci&oacute;n de un punto <img src="/img/revistas/iit/v14n2/a10i3.jpg"><sub>i</sub> desde una posici&oacute;n de la c&aacute;mara define una l&iacute;nea expresada en el marco de referencia de la c&aacute;mara como</font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/iit/v14n2/a10e29.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2"><i>h<sup>C</sup></i> es observado por la c&aacute;mara a trav&eacute;s de su proyecci&oacute;n en la imagen. <i>R<sup>CW</sup></i> es la matriz de transformaci&oacute;n del marco de referencia global <i>W</i> al marco de referencia de la c&aacute;mara <i>C.</i> La proyecci&oacute;n se modela para una c&aacute;mara de lente amplia. La b&uacute;squeda de las caracter&iacute;sticas se limita a regiones suscritas alrededor de la predicci&oacute;n <i>h<sub>i</sub></i> y con &aacute;rea definida por la matriz de innovaci&oacute;n</font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/iit/v14n2/a10e30.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">donde <i>H<sub>i</sub></i> es el Jacobiano del modelo de observaci&oacute;n con respecto al estado <img src="/img/revistas/iit/v14n2/a10i2.jpg">, <i>P<sub>k</sub></i> es la matriz de covariancias a priori del estado. Se suponen mediciones corrompidas por ruido Gaussiano con media cero y covarianza R. Si desea m&aacute;s detalles acerca de la adaptaci&oacute;n del m&eacute;todo MTE para su aplicaci&oacute;n en SLAM monocular, consulte Mungu&iacute;a y Grau (2007).</font></p>  	    <p align="justify"><font face="verdana" size="2">Con el fin de validar experimentalmente el m&eacute;todo MTE (en su variante de aplicaci&oacute;n al SLAM monocular), se realiz&oacute; una implementaci&oacute;n del mismo en lenguaje MATLAB<sup>&#169;</sup>. Posteriormente se capturaron varias secuencias de video utilizando una c&aacute;mara web de bajo costo. Durante la captura de los videos, la c&aacute;mara web fue desplazada manualmente sobre trayectorias predefinidas (por ejemplo, tomando como referencia el contorno exterior de un escritorio). Despu&eacute;s se ejecut&oacute; el algoritmo en modo fuera de l&iacute;nea, utilizando las secuencias de video capturadas previamente como se&ntilde;ales de entrada.</font></p>  	    <p align="justify"><font face="verdana" size="2">Posteriormente se llev&oacute; a cabo una evaluaci&oacute;n cualitativa del desempe&ntilde;o del algoritmo. Dicha evaluaci&oacute;n consisti&oacute; en comparar, mediante inspecci&oacute;n, las estimaciones producidas por el algoritmo respecto a la trayectoria seguida por la c&aacute;mara y la estructura tridimensional de la escena.</font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">La <a href="/img/revistas/iit/v14n2/a10f12.jpg" target="_blank">figura 12</a> muestra resultados experimentales, para una secuencia de 790 fotogramas, capturados en un entorno en interiores <i>(indoor),</i> siguiendo una trayectoria similar a la curva frontal del escritorio (<a href="/img/revistas/iit/v14n2/a10f13.jpg" target="_blank">figura 13</a>, izquierda). En este experimento se utiliz&oacute; una c&aacute;mara web Microsoft LifeCam Studio con interface USB. Esta c&aacute;mara es capaz de adquirir video a color en alta resoluci&oacute;n (HD), sin embargo, en estos experimentos se utilizaron secuencias de video en blanco y negro con una resoluci&oacute;n de 424 x 240 pixeles, capturadas a 30 fotogramas por segundo.</font></p>  	    <p align="justify"><font face="verdana" size="2">Una hoja de papel negra sobre un fondo blanco se utiliz&oacute; como referencia m&eacute;trica inicial (fotograma 1, <a href="/img/revistas/iit/v14n2/a10f12.jpg" target="_blank">figura 12</a>). La posici&oacute;n de la referencia m&eacute;trica inicial determina el origen del marco de referencia global del sistema. Encuentra m&aacute;s informaci&oacute;n acerca del procedimiento de inicializaci&oacute;n en el SLAM monocular en Mungu&iacute;a y Grau (2007). En la <a href="/img/revistas/iit/v14n2/a10f12.jpg" target="_blank">figura 12</a>, se puede observar c&oacute;mo desde el primer fotograma son detectados algunos puntos candidatos (indicados en los fotogramas mediante una marca "+"). Sin embargo, la primera caracter&iacute;stica se inicializa en el mapa hasta el fotograma 111. En los fotogramas, las caracter&iacute;sticas del mapa est&aacute;n indicadas mediante marcas "+" circunscritas en elipsoides. Los elipsoides ilustran la incertidumbre en la predicci&oacute;n de la posici&oacute;n de las caracter&iacute;sticas en la imagen. Observe que en el fotograma 111 dos nuevos puntos candidatos han sido detectados (indicados en rojo), mientras que otros dos puntos candidatos se est&aacute;n rastreando (en azul). En ese momento (fotograma 111), el mapa est&aacute; conformado por cinco caracter&iacute;sticas completamente inicializadas, cuatro de la cuales corresponden a la referencia m&eacute;trica inicial y una que ha sido autom&aacute;ticamente inicializada en el sistema mediante el m&eacute;todo MTE. En las gr&aacute;ficas que ilustran las estimaciones del algoritmo (columna central y derecha de la <a href="/img/revistas/iit/v14n2/a10f12.jpg" target="_blank">figura 12</a>), se indica la incertidumbre de la profundidad de las caracter&iacute;sticas mediante l&iacute;neas rojas graficadas en tres dimensiones.</font></p>  	    <p align="justify"><font face="verdana" size="2">En fotograma 203 (<a href="/img/revistas/iit/v14n2/a10f12.jpg" target="_blank">figura 12</a>) se puede observar c&oacute;mo dos caracter&iacute;sticas correspondientes a la referencia m&eacute;trica han quedado fuera del campo de visi&oacute;n de la c&aacute;mara, debido al movimiento translacional de la misma. En el mismo fotograma (203) se puede observar que otras caracter&iacute;sticas, correspondientes a una pintura localizada aproximadamente en el mismo plano que la referencia m&eacute;trica inicial, han sido inicializadas en el mapa.</font></p>  	    <p align="justify"><font face="verdana" size="2">As&iacute; tambi&eacute;n, es posible observar que la incertidumbre en la profundidad de la primera caracter&iacute;stica inicializada en el mapa fue considerablemente minimizada. Al momento del fotograma 688 (<a href="/img/revistas/iit/v14n2/a10f12.jpg" target="_blank">figura 12</a>), numerosas caracter&iacute;sticas han quedado fuera del campo de visi&oacute;n de la c&aacute;mara (indicadas en amarillo), mientras que otras permanecen activas dentro del campo de visi&oacute;n de la misma (indicadas en rojo).</font></p>  	    <p align="justify"><font face="verdana" size="2">En la <a href="/img/revistas/iit/v14n2/a10f13.jpg" target="_blank">figura 13</a> se muestra desde una vista superior el entorno experimental (ilustraci&oacute;n izquierda) as&iacute; como las estimaciones para la trayectoria de la c&aacute;mara y el mapa de caracter&iacute;sticas al final de la secuencia de video (fotograma 790), mediante una vista X&#45;Z (ilustraci&oacute;n derecha). En esta gr&aacute;fica varios objetos se etiquetaron para ilustrar de mejor manera la reconstrucci&oacute;n de la escena. En este experimento, tanto la trayectoria de la c&aacute;mara como la estructura de la escena, se reconstruyeron de manera satisfactoria a partir de la secuencia de video capturada por la c&aacute;mara.</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Conclusiones</b></font></p>  	    <p align="justify"><font face="verdana" size="2">El SLAM basado en sensores angulares ha recibido notable atenci&oacute;n en a&ntilde;os recientes por la comunidad rob&oacute;tica, debido principalmente a la versatilidad de las c&aacute;maras. Por otro lado, esta variante de SLAM requiere del uso de t&eacute;cnicas especiales de inicializaci&oacute;n de caracter&iacute;sticas debido a su naturaleza parcialmente observable.</font></p>  	    <p align="justify"><font face="verdana" size="2">En este art&iacute;culo se presentan diversos resultados producto de la investigaci&oacute;n de los autores, respecto a la problem&aacute;tica del SLAM basado en sensores angulares. Particularmente se presenta un algoritmo llamado <i>m&eacute;todo por triangulaci&oacute;n estoc&aacute;stica,</i> el cual aborda el problema de la inicializaci&oacute;n de nuevas caracter&iacute;sticas en el mapa. Dicho m&eacute;todo est&aacute; basado en la parametrizaci&oacute;n inversa de profundidad e implementa, mediante un retardo, una t&eacute;cnica de triangulaci&oacute;n estoc&aacute;stica para definir una hip&oacute;tesis para la profundidad inicial de las caracter&iacute;sticas.</font></p>  	    <p align="justify"><font face="verdana" size="2">En el SLAM basado en sensores angulares, el uso de una parametrizaci&oacute;n inversa para la profundidad de las caracter&iacute;sticas permite utilizar de manera directa un esquema est&aacute;ndar EKF en el proceso de estimaci&oacute;n, simplificando de esta manera su implementaci&oacute;n.</font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">Por otro lado, en experimentos mediante simulaciones se observ&oacute; que en ocasiones es necesario sintonizar manualmente los par&aacute;metros iniciales de la profundidad inversa para asegurar la efectividad de algoritmo. Este hecho motiv&oacute; a los autores al desarrollo del m&eacute;todo propuesto en el cual, se estiman de manera din&aacute;mica los par&aacute;metros iniciales de la profundidad inversa.</font></p>  	    <p align="justify"><font face="verdana" size="2">Se presentaron diversas simulaciones para demostrar la validez de la presente propuesta. De igual manera, se presentaron resultados experimentales obtenidos con el m&eacute;todo propuesto para distintos escenarios de SLAM utilizando datos reales de sensores. Dichos escenarios experimentales consistieron en: i) un peque&ntilde;o robot m&oacute;vil capaz de rastrear la direcci&oacute;n de arribo de una fuente de ultrasonidos y ii) un contexto de SLAM monocular en 6 DOF, en el que una c&aacute;mara <i>web,</i> capaz de moverse libremente por su entorno, representa la &uacute;nica entrada sensorial del sistema.</font></p>  	    <p align="justify"><font face="verdana" size="2">Es importante mencionar que un beneficio de los m&eacute;todos <i>sin retardo,</i> reside en el hecho de que las caracter&iacute;sticas proveen informaci&oacute;n acerca de la orientaci&oacute;n del sensor desde el principio. Por otro lado, en los m&eacute;todos <i>con retardo</i> (como el propuesto en este trabajo) puede ser &uacute;til esperar hasta que el movimiento del sensor produzca algunos grados de paralaje (por tanto, recabando informaci&oacute;n de profundidad) con el objetivo de mejorar la robustez del sistema. M&aacute;s a&uacute;n, cuando se usan c&aacute;maras en entornos reales densos y din&aacute;micos, el retardo puede utilizarse para rechazar caracter&iacute;sticas d&eacute;biles antes de su inclusi&oacute;n en el mapa.</font></p>  	    <p align="justify"><font face="verdana" size="2">Al tenor de los resultados experimentales, se considera que el m&eacute;todo propuesto es una buena opci&oacute;n para su implementaci&oacute;n en sistemas de SLAM basados en sensores angulares.</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Referencias</b></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Auat F., De la Cruz C., Carelli R., Bastos T. Navegaci&oacute;n aut&oacute;noma asistida basada en SLAM para una silla de ruedas robotizada en entornos restringidos. <i>Revista Iberoamericana de Autom&aacute;tica e Inform&aacute;tica Industrial,</i> volumen 8 (n&uacute;mero 2), 2011: 81&#45;92.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4274705&pid=S1405-7743201300020001000001&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Bailey T. Constrained Initialisation for Bearing&#45;Only SLAM, IEEE International Conference on Robotics and Automation ICRA, 2003.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4274707&pid=S1405-7743201300020001000002&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    ]]></body>
<body><![CDATA[<!-- ref --><p align="justify"><font face="verdana" size="2">Chekhlov D., Pupilli M., Mayol&#45;Cuevas W., Calway A. Real&#45;Time and Robust Monocular SLAM Using Predictive Multi&#45;Resolution Descriptors, en: Proc. Int. Symposium Visual Computing, 2006.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4274709&pid=S1405-7743201300020001000003&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Davison A. Real&#45;Time Simultaneous Localization and Mapping with a Single Camera, en: Proceedings of the ICCV, 2003.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4274711&pid=S1405-7743201300020001000004&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Deans H., Martial M. Experimental Comparison of Techniques for Localization and Mapping Using a Bearing&#45;Only Sensor, en: International Symposium on Experimental Robotic ISER, 2000.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4274713&pid=S1405-7743201300020001000005&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Durrant&#45;Whyte H., Bailey T. Simultaneous Localization and Mapping: part I. <i>IEEE Robotics &amp; Automation Magazine,</i> volumen 13 (n&uacute;mero 2), 2006: 99&#45;16.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4274715&pid=S1405-7743201300020001000006&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Eade E., Drummond T. Scalable Monocular SLAM, en: IEEE Computer Vision and Pattern Recognition CVPR, 2006.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4274717&pid=S1405-7743201300020001000007&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    ]]></body>
<body><![CDATA[<!-- ref --><p align="justify"><font face="verdana" size="2">Jensfelt P., Folkesson J., Kragic D., Christensen H. Exploiting Distinguishable Image Features in Robotics Mapping and Localization, en: European Robotics Symposium EUROS, 2006.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4274719&pid=S1405-7743201300020001000008&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Kwok N.M., Dissanayake G. An Efficient Multiple Hypotheses Filter for Bearing&#45;Only SLAM. International Conference on Intelligent Robots and Systems IROS, 2004.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4274721&pid=S1405-7743201300020001000009&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Kwok N.M., Dissanayake G. Bearing&#45;Only SLAM Using a SPRT Based Gaussian Sum Filter. IEEE International Conference on Robotics and Automation ICRA, 2005.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4274723&pid=S1405-7743201300020001000010&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Montiel J.M.M., Civera J., Davison A. Unified Inverse Depth Parametrization for Monocular SLAM. Robotics: Science and Systems Conference, 2006.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4274725&pid=S1405-7743201300020001000011&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Montemerlo M., Thrun S., Koller D., Wegbreit B. FastSLAM: Factored Solution to the Simultaneous Localization and Mapping Problem. National Conference on Artificial Intelligence AAAI, 2002.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4274727&pid=S1405-7743201300020001000012&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    ]]></body>
<body><![CDATA[<!-- ref --><p align="justify"><font face="verdana" size="2">Mungu&iacute;a R., Grau A. Monocular SLAM for Visual Odometry. Proceedings of the 4rd IEEE International Conference on Intelligent Signal Processing WISP, 2007.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4274729&pid=S1405-7743201300020001000013&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Mungu&iacute;a R., Grau A. Single Sound Source SLAM. <i>Progress in Pattern Recognition, Image Analysis and Applications LNCS,</i> n&uacute;mero 5197, 2008:70&#45;77.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4274731&pid=S1405-7743201300020001000014&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Mungu&iacute;a R., Grau A. Closing Loops with a Virtual Sensor Based on Monocular SLAM. <i>IEEE Transactions on Instrumentation and Measurement,</i> volumen 58 (n&uacute;mero 8), 2009: 2377&#45;2385.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4274733&pid=S1405-7743201300020001000015&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Sola J., Devy M., Monin A., Lemaire T. Undelayed Initialization in Bearing only SLAM. IEEE International Conference on Intelligent Robots and Systems IROS, 2005.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4274735&pid=S1405-7743201300020001000016&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Strelow S., Sanjiv D. Online Motion Estimation from Image and Inertial Measurements. Workshop on Integration of Vision and Inertial Sensors INERVIS, 2003.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4274737&pid=S1405-7743201300020001000017&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    ]]></body>
<body><![CDATA[<!-- ref --><p align="justify"><font face="verdana" size="2">V&aacute;zquez&#45;Mart&iacute;n R., N&uacute;&ntilde;ez P., Bandera A., Sandoval F. Curvature&#45;Based Environment Description for Robot Navigation Using Laser Range Sensors. <i>Sensors,</i> volumen 9 (n&uacute;mero 8), <i>2009:</i> 5894&#45;5918.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4274739&pid=S1405-7743201300020001000018&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Williams G., Klein G., Reid D. Real&#45;time SLAM Relocalisation, en: Proceedings of the ICCV, 2007.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4274741&pid=S1405-7743201300020001000019&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Semblanza de los autores</b></font></p>  	    <p align="justify"><font face="verdana" size="2"><i>Rodrigo Francisco Mungu&iacute;a&#45;Alcal&aacute;.</i> Obtuvo el grado de doctor por la Universidad Polit&eacute;cnica de Catalu&ntilde;a en control, visi&oacute;n y rob&oacute;tica, en 2009. El grado de maestro en ciencias por la misma universidad en arquitectura de ordenadores, en 2006. Y el t&iacute;tulo de ingeniero en comunicaciones y electr&oacute;nica por la Universidad de Guadalajara, en 2002. Actualmente se desempe&ntilde;a como profesor investigador adscrito al Departamento de Ciencias Computacionales del Centro Universitario de Ciencias Exactas e Ingenier&iacute;as de la Universidad de Guadalajara. Desde 2012 es miembro del Sistema Nacional de Investigadores Nivel C.</font></p>  	    <p align="justify"><font face="verdana" size="2"><i>Antoni Grau&#45;Saldes.</i> Recibi&oacute; el grado de maestro en ciencias y de doctor en ciencias de la computaci&oacute;n por la Universidad Polit&eacute;cnica de Catalu&ntilde;a en 1990 y 1997. Es profesor de la Escuela de Inform&aacute;tica de Barcelona. Sus &aacute;reas de investigaci&oacute;n son la visi&oacute;n por computador, reconocimiento de patrones, rob&oacute;tica, automatizaci&oacute;n industrial y educaci&oacute;n en desarrollo sustentable. Ha publicado m&aacute;s de 100 art&iacute;culos de investigaci&oacute;n y es coautor de tres libros. Ha presidido varias conferencias internacionales y es miembro del IEEE, IAPR y el IFAC.</font></p>      ]]></body><back>
<ref-list>
<ref id="B1">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Auat]]></surname>
<given-names><![CDATA[F.]]></given-names>
</name>
<name>
<surname><![CDATA[De la Cruz]]></surname>
<given-names><![CDATA[C.]]></given-names>
</name>
<name>
<surname><![CDATA[Carelli]]></surname>
<given-names><![CDATA[R.]]></given-names>
</name>
<name>
<surname><![CDATA[Bastos]]></surname>
<given-names><![CDATA[T.]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[Navegación autónoma asistida basada en SLAM para una silla de ruedas robotizada en entornos restringidos]]></article-title>
<source><![CDATA[Revista Iberoamericana de Automática e Informática Industrial]]></source>
<year>2011</year>
<volume>8</volume>
<numero>2</numero>
<issue>2</issue>
<page-range>81-92</page-range></nlm-citation>
</ref>
<ref id="B2">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Bailey]]></surname>
<given-names><![CDATA[T.]]></given-names>
</name>
</person-group>
<source><![CDATA[Constrained Initialisation for Bearing-Only SLAM]]></source>
<year>2003</year>
<publisher-name><![CDATA[IEEE International Conference on Robotics and Automation ICRA]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B3">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Chekhlov]]></surname>
<given-names><![CDATA[D.]]></given-names>
</name>
<name>
<surname><![CDATA[Pupilli]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
<name>
<surname><![CDATA[Mayol-Cuevas]]></surname>
<given-names><![CDATA[W.]]></given-names>
</name>
<name>
<surname><![CDATA[Calway]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Real-Time and Robust Monocular SLAM Using Predictive Multi-Resolution Descriptors]]></article-title>
<source><![CDATA[Proc. Int. Symposium Visual Computing]]></source>
<year>2006</year>
</nlm-citation>
</ref>
<ref id="B4">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Davison]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Real-Time Simultaneous Localization and Mapping with a Single Camera]]></article-title>
<source><![CDATA[Proceedings of the ICCV]]></source>
<year>2003</year>
</nlm-citation>
</ref>
<ref id="B5">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Deans]]></surname>
<given-names><![CDATA[H.]]></given-names>
</name>
<name>
<surname><![CDATA[Martial]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Experimental Comparison of Techniques for Localization and Mapping Using a Bearing-Only Sensor]]></article-title>
<source><![CDATA[International Symposium on Experimental Robotic ISER]]></source>
<year>2000</year>
</nlm-citation>
</ref>
<ref id="B6">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Durrant-Whyte]]></surname>
<given-names><![CDATA[H.]]></given-names>
</name>
<name>
<surname><![CDATA[Bailey]]></surname>
<given-names><![CDATA[T.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Simultaneous Localization and Mapping: part I]]></article-title>
<source><![CDATA[IEEE Robotics & Automation Magazine]]></source>
<year>2006</year>
<volume>13</volume>
<numero>2</numero>
<issue>2</issue>
<page-range>99-16</page-range></nlm-citation>
</ref>
<ref id="B7">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Eade]]></surname>
<given-names><![CDATA[E.]]></given-names>
</name>
<name>
<surname><![CDATA[Drummond]]></surname>
<given-names><![CDATA[T.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Scalable Monocular SLAM]]></article-title>
<source><![CDATA[IEEE Computer Vision and Pattern Recognition CVPR]]></source>
<year>2006</year>
</nlm-citation>
</ref>
<ref id="B8">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Jensfelt]]></surname>
<given-names><![CDATA[P.]]></given-names>
</name>
<name>
<surname><![CDATA[Folkesson]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
<name>
<surname><![CDATA[Kragic]]></surname>
<given-names><![CDATA[D.]]></given-names>
</name>
<name>
<surname><![CDATA[Christensen]]></surname>
<given-names><![CDATA[H.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Exploiting Distinguishable Image Features in Robotics Mapping and Localization]]></article-title>
<source><![CDATA[European Robotics Symposium EUROS]]></source>
<year>2006</year>
</nlm-citation>
</ref>
<ref id="B9">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Kwok]]></surname>
<given-names><![CDATA[N.M.]]></given-names>
</name>
<name>
<surname><![CDATA[Dissanayake]]></surname>
<given-names><![CDATA[G.]]></given-names>
</name>
</person-group>
<source><![CDATA[An Efficient Multiple Hypotheses Filter for Bearing-Only SLAM]]></source>
<year>2004</year>
<publisher-name><![CDATA[International Conference on Intelligent Robots and Systems IROS]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B10">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Kwok]]></surname>
<given-names><![CDATA[N.M.]]></given-names>
</name>
<name>
<surname><![CDATA[Dissanayake]]></surname>
<given-names><![CDATA[G.]]></given-names>
</name>
</person-group>
<source><![CDATA[Bearing-Only SLAM Using a SPRT Based Gaussian Sum Filter]]></source>
<year>2005</year>
<publisher-name><![CDATA[IEEE International Conference on Robotics and Automation ICRA]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B11">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Montiel]]></surname>
<given-names><![CDATA[J.M.M.]]></given-names>
</name>
<name>
<surname><![CDATA[Civera]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
<name>
<surname><![CDATA[Davison]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
</person-group>
<source><![CDATA[Unified Inverse Depth Parametrization for Monocular SLAM]]></source>
<year>2006</year>
<publisher-name><![CDATA[Robotics: Science and Systems Conference]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B12">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Montemerlo]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
<name>
<surname><![CDATA[Thrun]]></surname>
<given-names><![CDATA[S.]]></given-names>
</name>
<name>
<surname><![CDATA[Koller]]></surname>
<given-names><![CDATA[D.]]></given-names>
</name>
<name>
<surname><![CDATA[Wegbreit]]></surname>
<given-names><![CDATA[B.]]></given-names>
</name>
</person-group>
<source><![CDATA[FastSLAM: Factored Solution to the Simultaneous Localization and Mapping Problem]]></source>
<year>2002</year>
<publisher-name><![CDATA[National Conference on Artificial Intelligence AAAI]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B13">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Munguía]]></surname>
<given-names><![CDATA[R.]]></given-names>
</name>
<name>
<surname><![CDATA[Grau]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Monocular SLAM for Visual Odometry]]></article-title>
<source><![CDATA[Proceedings of the 4rd IEEE International Conference on Intelligent Signal Processing WISP]]></source>
<year>2007</year>
</nlm-citation>
</ref>
<ref id="B14">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Munguía]]></surname>
<given-names><![CDATA[R.]]></given-names>
</name>
<name>
<surname><![CDATA[Grau]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Single Sound Source SLAM]]></article-title>
<source><![CDATA[Progress in Pattern Recognition, Image Analysis and Applications LNCS]]></source>
<year>2008</year>
<numero>5197</numero>
<issue>5197</issue>
<page-range>70-77</page-range></nlm-citation>
</ref>
<ref id="B15">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Munguía]]></surname>
<given-names><![CDATA[R.]]></given-names>
</name>
<name>
<surname><![CDATA[Grau]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Closing Loops with a Virtual Sensor Based on Monocular SLAM]]></article-title>
<source><![CDATA[IEEE Transactions on Instrumentation and Measurement]]></source>
<year>2009</year>
<volume>58</volume>
<numero>8</numero>
<issue>8</issue>
<page-range>2377-2385</page-range></nlm-citation>
</ref>
<ref id="B16">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Sola]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
<name>
<surname><![CDATA[Devy]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
<name>
<surname><![CDATA[Monin]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
<name>
<surname><![CDATA[Lemaire]]></surname>
<given-names><![CDATA[T.]]></given-names>
</name>
</person-group>
<source><![CDATA[Undelayed Initialization in Bearing only SLAM]]></source>
<year>2005</year>
<publisher-name><![CDATA[IEEE International Conference on Intelligent Robots and Systems IROS]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B17">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Strelow]]></surname>
<given-names><![CDATA[S.]]></given-names>
</name>
<name>
<surname><![CDATA[Sanjiv]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
</person-group>
<source><![CDATA[Online Motion Estimation from Image and Inertial Measurements]]></source>
<year>2003</year>
<publisher-name><![CDATA[Workshop on Integration of Vision and Inertial Sensors INERVIS]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B18">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Vázquez-Martín]]></surname>
<given-names><![CDATA[R.]]></given-names>
</name>
<name>
<surname><![CDATA[Núñez]]></surname>
<given-names><![CDATA[P.]]></given-names>
</name>
<name>
<surname><![CDATA[Bandera]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
<name>
<surname><![CDATA[Sandoval]]></surname>
<given-names><![CDATA[F.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Curvature-Based Environment Description for Robot Navigation Using Laser Range Sensors]]></article-title>
<source><![CDATA[Sensors]]></source>
<year>2009</year>
<volume>9</volume>
<numero>8</numero>
<issue>8</issue>
<page-range>5894-5918</page-range></nlm-citation>
</ref>
<ref id="B19">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Williams]]></surname>
<given-names><![CDATA[G.]]></given-names>
</name>
<name>
<surname><![CDATA[Klein]]></surname>
<given-names><![CDATA[G.]]></given-names>
</name>
<name>
<surname><![CDATA[Reid]]></surname>
<given-names><![CDATA[D.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Real-time SLAM Relocalisation]]></article-title>
<source><![CDATA[Proceedings of the ICCV]]></source>
<year>2007</year>
</nlm-citation>
</ref>
</ref-list>
</back>
</article>
