Scielo RSS <![CDATA[Computación y Sistemas]]> http://www.scielo.org.mx/rss.php?pid=1405-554620140001&lang=pt vol. 18 num. 1 lang. pt <![CDATA[SciELO Logo]]> http://www.scielo.org.mx/img/en/fbpelogp.gif http://www.scielo.org.mx <![CDATA[<b>Editorial</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462014000100001&lng=pt&nrm=iso&tlng=pt <![CDATA[<b>An Approach to Fault Diagnosis Using Meta-Heuristics</b>: <b>a New Variant of the Differential Evolution Algorithm</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462014000100002&lng=pt&nrm=iso&tlng=pt This paper presents an application of meta-heuristics to fault diagnosis. The idea behind this application is to develop methods for fault diagnosis that should be robust, sensitive and with an adequate computational cost. Applications of meta-heuristics are possible based on the formulation of fault diagnosis as an optimization problem. The results indicate the suitability of the use of meta-heuristics for fault diagnosis. In particular, this study shows an application of meta-heuristic termed Differential Evolution to diagnosing a DC Motor benchmark. This allowed developing a new variant of Differential Evolution, namely, Differential Evolution with Particle Collision. This new algorithm was validated with some benchmark functions for continuous optimization, showing that it over-performed the behavior of Differential Evolution.<hr/>Este trabajo presenta un estudio de la aplicación de meta heurísticas al diagnóstico de fallos, con el fin de desarrollar métodos que sean robustos ante perturbaciones, sensibles ante fallos incipientes y con adecuado costo computacional. La aplicación de las mismas es posible a partir de la formulación del diagnóstico de fallos como un problema de optimización. Los resultados indican la factibilidad del uso de meta heurísticas. En este estudio se aplicó la meta heurística, Evolución diferencial al diagnóstico de fallos en el sistema de prueba Motor CD. El estudio permitió desarrollar un nuevo algoritmo que se ha llamado Evolución diferencial con colisión de partículas. Este fue validado con funciones de prueba de optimización continúa mostrando su superioridad sobre Evolución diferencial. <![CDATA[<b>Aggregation of Similarity Measures for Ortholog Detection</b>: <b>Validation with Measures Based on Rough Set Theory</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462014000100003&lng=pt&nrm=iso&tlng=pt En el presente trabajo se propone un algoritmo para la detección de ortólogos que utiliza la agregación de medidas de similitud para caracterizar la relación entre los pares de genes de dos genomas. Las medidas se basan en la puntuación del alineamiento, la longitud de las secuencias, la pertenencia a regiones conservadas y el perfil físico-químico de las proteínas. La fase de agrupamiento sobre el grafo bipartido de similitudes se realiza con el algoritmo de agrupamiento de Markov (MCL). Se define una política de asignación de ortólogos a partir de los grupos de homología obtenidos del agrupamiento. La clasificación se valida con los genomas de Saccharomyces Cerevisiae y de Schizosaccharomyces Pombe usando la lista de ortólogos del algoritmo INPARANOID 7.0, con la medida de validación externa ARI. También se aplican medidas de validación empleando la teoría de conjuntos aproximados para medir la calidad con manejo del desbalance de las clases.<hr/>This paper presents a novel algorithm for ortholog detection that involves the aggregation of similarity measures characterizing the relationship between gene pairs of two genomes. The measures are based on the alignment score, the length of the sequences, the membership in the conserved regions as well as on the protein physicochemical profile. The clustering step over the similarity bipartite graph is performed by using the Markov clustering algorithm (MCL). A new ortholog assignment policy is applied over the homology groups obtained in the graph clustering. The classification results are validated with the Saccharomyces Cerevisiae and the Schizosaccharomyces Pombe genomes with the ortholog list of the INPARANOID 7.0 algorithm with the Adjusted Rand Index (ARI) external measure. Other validation measures based on the rough set theory are applied to calculate the quality of the classification dealing with class imbalance. <![CDATA[<b>Traffic Flow Estimation Using Ant Colony Optimization Algorithms</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462014000100004&lng=pt&nrm=iso&tlng=pt Simulation and optimization of traffic flows in a city or province allow the implementation of correct developing strategies and help the decision making process when using and distributing resources such as mass transit. This estimation can be modeled as a bifurcated multi-commodity network flow problem, where the general flow distribution is dictated by Wardrop's principles. In this paper two different Ant Colony Optimization algorithms are presented for solving this problem. The proposed algorithms are tested with real-life traffic demand in the Havana city. The obtained results are compared to those provided by classical algorithms, showing that the new ant colony algorithms provide good results as well as low running times.<hr/>La estimación de flujos de tráfico permite implementar buenas estrategias de desarrollo, a la vez que ayuda en el proceso de toma de decisiones cuando se controlan y distribuyen recursos claves como el transporte masivo. La distribución de tráfico puede ser modelada como un problema de Flujo de Costo Mínimo para Múltiples Bienes. Para su solución, la Optimización de Colonia de Hormigas provee un marco de trabajo prometedor. En la presente investigación se presentan dos nuevos algoritmos basados en Colonias de Hormigas, los mismos se aplican a instancias reales del problema de estimación de flujo en Ciudad de La Habana. Los resultados alcanzados se comparan con los provistos por algoritmos clásicos, mostrando la efectividad del método propuesto. <![CDATA[<b>Mutating HIV Protease Protein Using Ant Colony Optimization and Fuzzy Cognitive Maps</b>: <b>Drug Susceptibility Analysis</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462014000100005&lng=pt&nrm=iso&tlng=pt Understanding the dynamics of the resistance mechanisms in HIV proteins mutations is a key for optimizing the use of existing antiviral drugs and developing new ones. Several statistical and machine learning techniques have been proposed for predicting the resistance of a mutation to a certain drug using its genotype information. However, the knowledge publicly available for this kind of processing is majorly about resistant sequences, leading to highly imbalanced knowledge bases, which is a serious problem in classification tasks. In previous works, the authors proposed a methodology for modeling an HIV protein as a dynamic system through Fuzzy Cognitive Maps. The adjusted maps obtained not just allow discovering relevant knowledge in the causality among the protein positions and the resistant, but also achieved very competitive performance in terms classification accuracy. Based on these works, in this paper we propose an Ant Colony Optimization based method for generating possible susceptible mutations using the adjusted maps and biological heuristic knowledge. As a result, the mutations obtained allow drug experts to have more information of the behavior of the protease protein whenever a susceptible mutation takes place.<hr/>El conocimiento de los mecanismos de resistencia en las mutaciones de las proteínas del VIH es fundamental para optimizar el uso de los fármacos existentes, así como diseñar nuevos medicamentos. Varias técnicas de estadística y aprendizaje automatizado han sido propuestas en la literatura para intentar predecir la resistencia de una mutación a un fármaco determinado usando su información genotípica. Sin embargo el conocimiento disponible públicamente para este tipo de procesamientos está enfocado mayormente a las mutaciones resistentes, lo que provoca bases de conocimiento altamente desbalanceadas que constituyen un serio problema en las tareas de clasificación. En trabajos previos, los autores proponen una metodología para modelar una proteína del VIH como un sistema dinámico a través de Mapas Cognitivos Difusos. Los mapas ajustados obtenidos no solo permiten descubrir conocimiento en la causalidad entre las posiciones de la proteína y la resistencia, sino que alcanza un desempeño competitivo en términos de exactitud de la clasificación. Basado en estos trabajos, en este artículo proponemos un método basado en la técnica de Optimización de Colonias de Hormigas para generar nuevas mutaciones susceptibles utilizando los mapas ajustados y conocimiento biológico heurístico. Como resultado, las mutaciones obtenidas permitirían a los expertos en fármacos contar con mayor información sobre el comportamiento de la proteasa cuando aparece una mutación susceptible. <![CDATA[<b>Eyelid Detection Method Based on a Fuzzy Multi-Objective Optimization</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462014000100006&lng=pt&nrm=iso&tlng=pt Iris recognition is one of the most robust human identification methods. In order to carry out accurate iris recognition, many factors of image quality should be born in mind. The eyelid occlusion is a quality factor that may significantly affect the accuracy. In this paper we introduce a new fuzzy multi-objective optimization approach based on the eyelid detection method. This method obtains the eyelid contour which represents the best solution of Pareto-optimal set taking into account five optimized objectives. This proposal is composed of three main stages, namely, gathering eyelid contour information, filtering eyelid contour and tracing eyelid contour. The results of the proposal are evaluated in a verification mode and thus a few performance measures are generated in order to compare them with other works of the state of the art. Thereby, the proposed method outperforms other approaches and it is very useful for implementing real applications as well.<hr/>El reconocimiento del iris es considerado como uno de los métodos más robustos de identificación de humanos. Para realizar el reconocimiento con precisión se deben tener en cuenta varios factores de calidad de la imagen. La oclusión del párpado es un factor de calidad que afecta significativamente la precisión. En este artículo se presenta un nuevo método para detectar las oclusiones del párpado basado en un enfoque difuso de optimización con múltiples objetivos. Este método está compuesto por tres etapas principales: recopilación de información, filtrado y trazado del contorno del párpado. Los resultados del método propuesto son evaluados en un esquema de verificación y de esta forma se estiman algunas medidas de desempeño que son comparadas con otros trabajos del estado del arte. El método propuesto supera otros enfoques propuestos y resulta muy útil en la implementación de aplicaciones reales. <![CDATA[<b>Towards Swarm Diversity</b>: <b>Random Sampling in Variable Neighborhoods Procedure Using a Lévy Distribution</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462014000100007&lng=pt&nrm=iso&tlng=pt Particle Swarm Optimization (PSO) is a non-direct search method for numerical optimization. The key advantages of this metaheuristic are principally associated to its simplicity, few parameters and high convergence rate. In the canonical PSO using a fully connected topology, a particle adjusts its position by using two attractors: the best record stored for the current agent, and the best point discovered for the entire swarm. It leads to a high convergence rate, but also progressively deteriorates the swarm diversity. As a result, the particle swarm frequently gets attracted by sub-optimal points. Once the particles have been attracted to a local optimum, they continue the search process within a small region of the solution space, thus reducing the algorithm exploration. To deal with this issue, this paper presents a variant of the Random Sampling in Variable Neighborhoods (RSVN) procedure using a Lévy distribution, which is able to notably improve the PSO search ability in multimodal problems.<hr/>Particle Swarm Optimization (PSO) es un método de búsqueda no directo para la optimización numérica. Las principales ventajas de esta meta-heurística están relacionadas principalmente con su simplicidad, pocos parámetros y alta tasa de convergencia. En el PSO canónico usando una topología totalmente conectada, una partícula ajusta su posición usando dos atractores: el mejor registro almacenado por el individuo y el mejor punto descubierto por la bandada completa. Este esquema conduce a un alto factor de convergencia, pero también deteriora la diversidad de la población progresivamente. Como resultado la bandada de partículas frecuentemente es atraída por puntos sub-óptimos. Una vez que las partículas han sido atraídas hacia un óptimo local, ellas continúan el proceso de búsqueda dentro de una región muy pequeña del espacio de soluciones, reduciendo las capacidades de exploración del algoritmo. Para tratar esta situación este artículo presenta una variante del procedimiento Random Sampling in Variable Neighborhoods (RSVN) usando una distribución de Lévy. Este algoritmo es capaz de mejorar notablemente la capacidad de búsqueda de los algoritmos PSO en problemas multimodales de optimización. <![CDATA[<b>Effects of Interpolation on Segmentation in Cell Imaging</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462014000100008&lng=pt&nrm=iso&tlng=pt In digital image processing and computer vision applications for microscopy imaging, calculating image features is a frequent task. Features related to intensity, color and morphology are used to classify cells and other objects. The precision of segmentation influences the calculated feature values and can affect the results of classification. Therefore, achieving a high precision in segmentation is very important. In this work, the effects of interpolation on the precision of image segmentation were studied using instances of cell microscopy images and different interpolation and segmentation methods. The goal was to determine quantitatively to what extent improvements in segmentation precision can be obtained through previous interpolation of the images. This effect can be particularly important for small objects, whose images might be deteriorated due to limitations in the camera's resolution. The results show that an improvement in the precision of segmentation can be obtained by previously interpolating the images.<hr/>En las aplicaciones del procesamiento digital de imágenes y la visión computacional para imágenes de microscopía, el cálculo de rasgos de las imágenes es una tarea frecuente. Rasgos relacionados con la intensidad, el color y la morfología, son utilizados para clasificar células y otros objetos. La precisión de la segmentación influye sobre los valores calculados para los rasgos y puede afectar los resultados de la clasificación. Por tanto, es muy importante alcanzar una alta precisión en la segmentación. En este trabajo fueron estudiados los efectos de la interpolación sobre la precisión de la segmentación, utilizando ejemplos de imágenes de microscopía celular y diferentes métodos de interpolación y de segmentación. El objetivo fue determinar en forma cuantitativa en qué medida se obtienen mejoras en la precisión de la segmentación mediante una interpolación previa de las imágenes. Este efecto puede ser particularmente importante para objetos pequeños, cuyas imágenes podrían sufrir deterioro debido a limitaciones en la resolución de la cámara. Los resultados muestran que es posible obtener una mejora en la precisión de la segmentación mediante la interpolación previa de las imágenes. <![CDATA[<b>Functional Data Analysis as an Alternative for the Automatic Biometric Image Recognition</b>: <b>Iris Application</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462014000100009&lng=pt&nrm=iso&tlng=pt Functional data analysis has been a novel option for representing images, since the continuous nature of images is preserved. Image representation using functional data provides significant advantages, being the appreciable reduction of the dimensionality one of the most significant. This paper gives a detailed description of the entire imaging process using the proposed approach. As an example, the representation of iris images through functional data for recognition tasks was used. The paper presents experiments and results of applying this approach to the recognition of iris images, demonstrating its effectiveness.<hr/>El análisis de datos funcionales ha sido una opción novedosa para la representación de imágenes, ya que su naturaleza continua se conserva. La representación de imágenes usando datos funcionales proporciona muchas ventajas, donde una de las más significativas es la reducción apreciable de la dimensión de los datos. En este trabajo se propone una descripción detallada de todo el proceso de representación de imágenes mediante el enfoque propuesto. Además, la representación de las imágenes del iris por medio de los datos funcionales para tareas de reconocimiento, se utilizó como un ejemplo. El artículo presenta algunos experimentos y resultados de la aplicación de este enfoque para el reconocimiento de imágenes del iris, lo que demuestra la eficacia de la misma. <![CDATA[<b>Speech Enhancement with Local Adaptive Rank-Order Filtering</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462014000100010&lng=pt&nrm=iso&tlng=pt A local adaptive algorithm for speech enhancement is presented. The algorithm is based on calculation of the rank-order statistics of an input speech signal over a moving window. The algorithm varies the size and contents of a sliding window signal as well as an estimation function employed for recovering a clean speech signal from a noisy signal. The algorithm improves the quality of a speech signal preserving its intelligibility. The performance of the algorithm for suppressing additive noise in an input test speech signal is compared with that of common speech enhancement algorithms in terms of objective metrics.<hr/>Se presenta un algoritmo localmente adaptativo para la mejora de voz. El algoritmo, se basa en el cálculo de estadísticas de orden prioritario de una señal de voz dentro de una ventana deslizante. El algoritmo es localmente adaptativo ya que puede variar el tamaño y contenido de la señal dentro de la ventana deslizante así como también, la función de estimación usada para la recuperación de la señal limpia a partir de la señal ruidosa. El algoritmo propuesto mejora la calidad de la voz preservando la inteligibilidad del mensaje, e introduciendo únicamente ruido musical imperceptible. El desempeño del algoritmo propuesto es comparado con el desempeño de los algoritmos existentes en términos de varias métricas objetivas. <![CDATA[<b>Introducing Biases in Document Clustering</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462014000100011&lng=pt&nrm=iso&tlng=pt In this paper, we present three criteria for introducing biases in document clustering algorithms, when information characterizing the document collections is available. We focus on collections known to be the result of a document categorization or sample-based document filtering process. Our proposals rely on profiles, i.e., document samples known to have been used for obtaining the collection, to extract statistics which determine the biases to introduce. We conduct an experimental evaluation over a number of collections extracted from the widely used corpus RCV1, which allows us to confirm the validity of our proposals and determine a number of situations where biased clusterings, according to different criteria, outperform their unbiased counterparts.<hr/>En este artículo se presentan tres criterios para la introducción de sesgos en algoritmos de agrupamiento de documentos, cuando se dispone de información que caracteriza las colecciones de documentos. Nos concentramos en colecciones de las que se conoce que son el resultado de un proceso de categorización o filtrado de documentos basado en muestras. Nuestras propuestas utilizan perfiles, es decir muestras de documentos de las que se conoce que han sido utilizadas para obtener la colección, para extraer estadísticos que determinan los sesgos a introducir. Llevamos a cabo una evaluación experimental sobre un conjunto de colecciones extraídas del corpus ampliamente utilizado RCV1, que nos permiten confirmar la validez de nuestras propuestas y determinar un número de situaciones donde los agrupamientos sesgados según diferentes criterios superan a sus contrapartes no sesgadas. <![CDATA[<b>Noise Detection and Learning Based on Current Information</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462014000100012&lng=pt&nrm=iso&tlng=pt Los métodos de limpieza de ruido tienen una gran significación en tareas de clasificación y en situaciones en las que es necesario realizar un aprendizaje semi-supervisado, debido a la importancia que tiene contar con muestras bien etiquetadas (prototipos) para clasificar nuevos patrones. En este trabajo, presentamos un nuevo algoritmo de detección de ruido en flujos de datos, que tiene en cuenta los cambios de los conceptos en el tiempo (concept drift), el cual está basado en criterios de vecindad, y su aplicación en la construcción automática de conjuntos de entrenamiento. En los experimentos realizados se utilizaron bases de datos sintéticas y reales, las últimas fueron tomadas del repositorio UCI, los resultados obtenidos avalan nuestra estrategia de detección de ruido en flujos de datos y en procesos de clasificación.<hr/>Methods for noise cleaning have great significance in classification tasks and in situations when it is necessary to carry out a semi-supervised learning due to importance of having well-labeled samples (prototypes) for classification of the new patterns. In this work, we present a new algorithm for detecting noise in data streams that takes into account changes in concepts over time (concept drift). The algorithm is based on the neighborhood criteria and its application uses the construction of a training set. In our experiments we used both synthetic and real databases, the latter were taken from UCI repository. The results support our proposal of noise detection in data streams and classification processes. <![CDATA[<b>Learning with Online Drift Detection</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462014000100013&lng=pt&nrm=iso&tlng=pt En la actualidad, muchas fuentes generan grandes cantidades de datos en largos períodos de tiempo, requiriéndose su procesamiento incremental. Debido a la dimensión temporal de estos datos, un modelo de aprendizaje inducido previamente puede ser inconsistente con los datos actuales, problema comúnmente conocido como cambio de concepto. Una estrategia ampliamente usada para detectar cambio de concepto supervisa a lo largo del tiempo alguna medida de rendimiento del modelo. Si se estima un deterioro significativo del modelo mediante dicha medida se ejecutan algunas acciones para adaptar el aprendizaje. En este sentido, en el presente artículo se propone un nuevo método para detectar cambio de concepto no dependiente del algoritmo de aprendizaje. Se usa la inecuación de probabilidad de Hoeffding para ofrecer garantías probabilísticas de detección de cambios en la media de flujos de valores reales. Dicho método se basa en la comparación de medias correspondientes a dos muestras, mediante la identificación de un único punto de corte relevante en dicha secuencia de valores reales; manteniendo así un número fijo de contadores además con complejidad temporal constante. Evaluaciones empíricas preliminares considerando conocidos flujos de datos, diferentes detectores de cambio de concepto y algoritmos de aprendizaje muestran promisorio el método propuesto.<hr/>Learning in data streams is a problem of growing interest. The target function of data streams may change over time, so in such situations, a learning model induced with some previous data may be inconsistent with the current data. This problem is commonly known as concept drift. The strategy broadly used to handle concept drift is to continuously monitor a chosen performance measure of the model over time; if the model performance drops, adequate actions are executed to adapt the model. Taking this into account, our paper proposes a new method to detect drifting concepts, which is independent of the learning algorithm. We use a probability inequality (Hoeffding's inequality) to offer probabilistic guarantees for the detection of significant changes in the mean of real values. The detection is based on the comparison of averages corresponding to two samples by means of identification of a single relevant cut-point in this sequence of real values maintaining a fixed number of counters and with constant time complexity. As some previous approaches, our method is based on ideas of statistical process control. Preliminary empirical evaluations considering well-known data streams, change detectors and various classifiers reveal advantages of the proposed method. <![CDATA[<b>Graph Reduction Algorithm without Loss of Information</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462014000100014&lng=pt&nrm=iso&tlng=pt Los algoritmos relacionados con la teoría de grafos han sido ampliamente estudiados. Varios estudios se enfocan en la disminución de la complejidad temporal de estos algoritmos. Las técnicas utilizadas en este sentido, generalmente se basan en reducir un grafo o el espacio de búsqueda de solución, eliminando información redundante para el problema específico que se desea resolver. El proceso de reducción de un grafo consiste en obtener grafos más pequeños (con menos vértices) que tengan las características principales o relevantes del grafo original. En el caso de la búsqueda de caminos óptimos, los algoritmos que hacen uso de la reducción de grafos o del espacio de búsqueda de solución, no garantizan la obtención del óptimo en todos los casos. Lo mismo ocurre en otros tipos de problemas tales como la reducción de grafos en redes de workflow, de computadoras, etc. En este trabajo se propone un algoritmo de reducción de grafos sin pérdida de información. La propuesta tiene una forma flexible de especificar la manera en que se quiere reducir el grafo; por consiguiente, puede ser utilizada en la solución de varios tipos de problemas, contribuyendo a la obtención de respuestas óptimas en tiempos menores.<hr/>Algorithms related to graph theory have been studied widely. Several studies deal with the reduction of temporal complexity of these algorithms. The techniques used in this sense are generally based on reducing the graph or the search space of solution. These approaches remove redundant information for a specific kind of problem. The process of reducing a graph is based on obtaining smaller graphs (with fewer vertices) with major or relevant characteristics of the original graph. Algorithms that make use of the graph reduction approach (or reduction of solution search space) for the shortest path search do not guarantee obtaining an optimal path in all cases. The same applies to other types of problems such as graph reduction in workflow networks, computer networks, etc. In this paper we propose a graph reduction algorithm without loss of information. Our method is characterized by a flexible way to specify in what manner in it desirable to reduce a given graph. Therefore, our proposal can be used in solving various types of problems and obtaining optimal responses in less time. <![CDATA[<b>Probabilistic Integrated Exploration for Mobile Robots in Complex Environments</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462014000100015&lng=pt&nrm=iso&tlng=pt La utilización de mapas de ambiente, es uno de los requisitos principales para casi todas las tareas en robótica móvil. Desafortunadamente, no siempre es posible contar con este elemento, ya sea por la inaccesibilidad de los entornos o simplemente porque no se cuenta con una descripción utilizable de él. La solución a este problema es conocida como Exploración Integrada o SPLAM (Planificación, localización y mapeo simultáneos). Considerando este problema, presentamos algunas estrategias basadas en el filtro de Kalman extendido donde un robot móvil construye incrementalmente un mapa de su ambiente mientras simultáneamente usa este mapa para estimar la localización absoluta del robot. Al mismo tiempo, las decisiones locales sobre a donde debe moverse son realizadas utilizando la estrategia probabilística SRT, con la finalidad de minimizar el error en la estimación de la pose móvil. Aunque las estrategias basadas en herramientas clásicas mostraron buenos resultados, algunos problemas inherentes a las metodologías impiden obtener resultados óptimos. Por esta razón, nuestro trabajo se ha enfocado en la creación de una estrategia de SPLAM en donde la localización y el mapeo simultáneo se realizan usando un enfoque topológico radical basado en curvas B-Splines, las cuales han permitido la representación de ambientes complejos no estructurados. Así mismo, la planificación de la exploración es dirigida utilizando una nueva estrategia probabilística basada en grafos. Finalmente, los resultados obtenidos con la nueva solución propuesta son validados comparándolos con los resultados obtenidos mediante las estrategias basadas en herramientas clásicas.<hr/>The use of environment maps is one of the main requirements for almost all tasks in mobile robotics. Unfortunately, it is not always possible to have this element, either by the inaccessibility of the environment or simply because there is no usable description of it. The solution to this problem is known as Integrated Exploration or SPLAM (Simultaneous Planning, Localization and Mapping). Considering this problem, we present some strategies based on the extended Kalman filter (EKF), when the mobile robot incrementally builds a map of its environment, while simultaneously using this map for computing the absolute robot localization. At the same time, local decisions on where to move next are performed using the probabilistic strategy-SRT, in order to minimize the error of the estimation of the robot's pose and the configuration locations. Although the classic strategies have shown good results, there are some inherent problems that prevent achieving the optimal results. For this reason, the paper has focused on creating a SPLAM strategy when the simultaneous localization and mapping is performed using a radical topological approach based on B-spline curves and when the planning of the exploration is conducted using a probabilistic strategy based on graphs.