Scielo RSS <![CDATA[Computación y Sistemas]]> http://www.scielo.org.mx/rss.php?pid=1405-554620090003&lang=en vol. 13 num. 1 lang. en <![CDATA[SciELO Logo]]> http://www.scielo.org.mx/img/en/fbpelogp.gif http://www.scielo.org.mx <![CDATA[<b>Special Issue on Innovative Applications of AI</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462009000300001&lng=en&nrm=iso&tlng=en <![CDATA[<b>AsistO</b>: <b>A Qualitative MDP-based Recommender System for Power Plant Operation</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462009000300002&lng=en&nrm=iso&tlng=en This paper proposes a novel and practical model-based learning approach with iterative refinement for solving continuous (and hybrid) Markov decision processes. Initially, an approximate model is learned using conventional sampling methods and solved to obtain a policy. Iteratively, the approximate model is refined using variance in the utility values as partition criterion. In the learning phase, initial reward and transition functions are obtained by sampling the state-action space. The samples are used to induce a decision tree predicting reward values from which an initial partition of the state space is built. The samples are also used to induce a factored MDP. The state abstraction is then refined by splitting states only where the split is locally important. The main contributions of this paper are the use of sampling to construct an abstraction, and a local refinement process of the state abstraction based on utility variance. The proposed technique was tested in AsistO, an intelligent recommender system for power plant operation, where we solved two versions of a complex hybrid continuous-discrete problem. We show how our technique approximates a solution even in cases where standard methods explode computationally.<hr/>Este artículo propone una técnica novedosa y práctica de aprendizaje basada en modelos con refinamiento iterativo para resolver procesos de decisión de Markov (MDPs) continuos. Inicialmente, se aprende un modelo aproximado usando métodos de muestreo convencionales, el cual se resuelve para obtener una política. Iterativamente, el modelo aproximado se refina con base en la varianza de los valores de la utilidad esperada. En la fase de aprendizaje, se obtienen las funciones de recompensa inmediata y de transición mediante muestras del tipo estado-acción. Éstas primero se usan para inducir un árbol de decisión que predice los valores de recompensa y a partir del cual se construye una partición inicial del espacio de estados. Posteriormente, las muestras también se usan para inducir un MDP factorizado. Finalmente, la abstracción de espacio de estados resultante se refina dividiendo aquellos estados donde pueda haber cambios en la política. Las contribuciones principales de este trabajo son el uso de datos para construir una abstracción inicial, y el proceso de refinamiento local basado en la varianza de la utilidad. La técnica propuesta fue probada en AsistO, un sistema inteligente de recomendaciones para la operación de plantas generadoras de electricidad, donde resolvimos dos versiones de un problema complejo con variables híbridas continuas y discretas. Aquí mostramos como nuestra técnica aproxima una solución aun en casos donde los métodos estándar explotan computacionalmente. <![CDATA[<b>Probabilistic Intelligent Systems for Thermal Power Plants</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462009000300003&lng=en&nrm=iso&tlng=en Artificial Intelligence applications in large-scale industry, such as thermal power plants, require the ability to manage uncertainty because current applications are large, complex and influenced by unexpected events and their evolution in time. This paper shows some of the efforts developed at the Instituto de Investigaciones Eléctricas (IIE) to assist operators of thermal power plants in the diagnosis and planning tasks using probabilistic intelligent systems. A diagnosis system, a planning system and a decision support system are presented. The diagnosis system is based on qualitative probabilistic networks, and the decision support system uses influence diagrams. The planning system is based on the Markov Decision Processes formalism. These approaches were validated in different power plant applications. Current results have shown that the use of probabilistic techniques can play an important role in the design of intelligent support systems for thermal power plants.<hr/>Las aplicaciones de Inteligencia Artificial (IA) en industrias de gran escala, como las centrales generadoras termoeléctricas, requieren de la habilidad de manejar incertidumbre ya que estas aplicaciones son complejas e influenciadas por eventos inesperados que evolucionan en el tiempo. Este artículo muestra algunos de los esfuerzos desarrollados en el Instituto de Investigaciones Eléctricas (IIE) para apoyar a los operadores de plantas termoeléctricas en sus tareas de planeación y diagnóstico, usando sistemas inteligentes probabilistas. Se presentan en este artículo un sistema de diagnóstico, un sistema de planificación y un sistema de soporte a las decisiones. El sistema de diagnóstico está basado en redes probabilistas cualitativas y el sistema de diagnóstico en diagramas de influencia. El sistema de planificación está basado en el formalismo de los procesos de decisión de Markov. Estos tres sistemas fueron validados en diferentes aplicaciones dentro de la operación de la planta termoeléctrica. Los resultados obtenidos muestran que las técnicas probabilistas pueden jugar un importante papel en el diseño de sistemas de ayuda en la operación de plantas termoeléctricas. <![CDATA[<b>Using Machine Learning for Extracting Information from Natural Disaster News Reports</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462009000300004&lng=en&nrm=iso&tlng=en The disasters caused by natural phenomena have been present all along human history; nevertheless, their consequences are greater each time. This tendency will not be reverted in the coming years; on the contrary, it is expected that natural phenomena will increase in number and intensity due to the global warming. Because of this situation it is of great interest to have sufficient data related to natural disasters, since these data are absolutely necessary to analyze their impact as well as to establish links between their occurrence and their effects. In accordance to this necessity, in this paper we describe a system based on Machine Learning methods that improves the acquisition of natural disaster data. This system automatically populates a natural disaster database by extracting information from online news reports. In particular, it allows extracting information about five different types of natural disasters: hurricanes, earthquakes, forest fires, inundations, and droughts. Experimental results on a collection of Spanish news show the effectiveness of the proposed system for detecting relevant documents about natural disasters (reaching an F-measure of 98%), as well as for extracting relevant facts to be inserted into a given database (reaching an F-measure of 76%).<hr/>Los desastres causados por fenómenos naturales han estado presentes desde el principio de la historia del hombre; sin embargo, sus consecuencias son cada vez mayores. Esta tendencia podría no ser revertida en los próximos años; al contrario, se espera que los fenómenos naturales puedan incrementar en número e intensidad debido al calentamiento global. A causa de esta situación es de gran interés tener suficientes datos relacionados a los desastres naturales, ya que estos datos son absolutamente necesarios para analizar su impacto así como para establecer conexiones entre su ocurrencia y sus efectos. En correspondencia con esta necesidad, en este artículo describimos un sistema basado en métodos de Aprendizaje Automático que mejora la adquisición de datos de desastres naturales. Este sistema automáticamente llena una base de datos de desastres naturales con la información extraída de noticias de periódicos en línea. En particular, este sistema permite extraer información acerca de cinco tipos de desastres naturales: huracanes, temblores, incendios forestales, inundaciones y sequías. Los resultados experimentales en una colección de noticias en Español muestran la eficacia del sistema propuesto tanto para detectar documentos relevantes sobre desastres naturales (alcanzando una medida-F de 98%), así como para extraer hechos relevantes para ser insertados en una base de datos dada (alcanzando una medida-F de 76%). <![CDATA[<b>Incompressibility and Lossless Data Compression</b>: <b>An Approach by Pattern Discovery</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462009000300005&lng=en&nrm=iso&tlng=en We present a novel method for lossless data compression that aims to get a different performance to those proposed in the last decades to tackle the underlying volume of data of the Information and Multimedia Ages. These latter methods are called entropic or classic because they are based on the Classic Information Theory of Claude E. Shannon and include Huffman [8], Arithmetic [14], Lempel-Ziv [15], Burrows Wheeler (BWT) [4], Move To Front (MTF) [3] and Prediction by Partial Matching (PPM) [5] techniques. We review the Incompressibility Theorem and its relation with classic methods and our method based on discovering symbol patterns called metasymbols. Experimental results allow us to propose metasymbolic compression as a tool for multimedia compression, sequence analysis and unsupervised clustering.<hr/>Presentamos un método novedoso para compresión de datos sin pérdidas que tiene por objetivo principal lograr un desempeño distinto a los propuestos en las últimas décadas para tratar con los volúmenes de datos propios de la Era de la Información y la Era Multimedia. Esos métodos llamados entrópicos o clásicos están basados en la Teoría de la Información Clásica de Claude E. Shannon e incluye los métodos de codificación de Huffman [8], Aritmético [14], Lempel-Ziv [15], Burrows Wheeler (BWT) [4], Move To Front (MTF) [3] y Prediction by Partial Matching (PPM) [5]. Revisamos el Teorema de Incompresibilidad y su relación con los métodos clásicos y con nuestro compresor basado en el descubrimiento de patrones llamados metasímbolos. Los resultados experimentales nos permiten proponer la compresión metasimbólica como una herramienta de compresión de archivos multimedios, útil en el análisis y el agrupamiento no supervisado de secuencias. <![CDATA[<b>Pattern Recognition for Micro Workpieces Manufacturing</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462009000300006&lng=en&nrm=iso&tlng=en Two neural classifiers were developed for image recognition: PCNC (Permutation Coding Neural Classifier) and LIRA (Limited Receptive Area) neural classifiers. These neural classifiers are multipurpose neural classifiers. We applied them in micromechanics. Information about shape and texture of the micro workpiece can be used to improve precision of both assembly and manufacturing processes. The proposed neural classifiers were tested offline in the both tasks.<hr/>Dos clasificadores neuronales fueron desarrollados para el reconocimiento de imágenes: PCNC (clasificador neuronal con codificación con permutaciones) y LIRA (clasificador neuronal con área de recepción limitada). Estos clasificadores neuronales son clasificadores de diferentes aplicaciones. Nosotros usamos ellos en micromecánica. La información sobre la forma y textura del micro objeto se puede utilizar para mejorar la precisión de los procesos de ensamble y de fabricación. Los redes neuronales propuestos fueron probados fuera de línea en ambos tareas. <![CDATA[<b>G'<sub>3</sub>-Stable Semantics and Inconsistency</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462009000300007&lng=en&nrm=iso&tlng=en We present an overview on how to perform non-monotonic reasoning based on paraconsistent logics. In particular, we show that one can define a logic programming semantics based on the paraconsistent logic G'3 which is called G'3-stable semantics. This semantics defines a frame for performing non-monotonic reasoning in domains which are pervaded with vagueness and inconsistencies. In fact, we show that, by considering also a possibilistic logic point of view, one can use this extended framework for defining a possibilistic logic programming approach able to deal with reasoning, which is at the same time non-monotonic and uncertain.<hr/>Presentamos un resumen acerca de cómo realizar razonamiento no-monótono basado en lógicas paraconsistentes. En particular, mostramos que es posible definir una semántica de programación lógica basada en la lógica paraconsistente G'3, la cual es llamada semántica G'3-estable. Esta semántica define un marco para realizar razonamiento no-monótono en dominios los cuales están plagados de vaguedades e inconsistencias. De hecho, mostramos que al considerar también un punto de vista lógico posibilista, es posible usar la extensión de este marco de trabajo para definir un enfoque de programación lógica posibilístico que puede tratar con razonamiento que es al mismo tiempo no monótono e incierto. <![CDATA[<b>Using Simulated Annealing with a Neighborhood Heuristic for Roll Cutting Optimization</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462009000300008&lng=en&nrm=iso&tlng=en This article presents the use of the Simulated Annealing algorithm with a heuristic to solve the waste minimization problem in roll cutting programming, in this case, paper. Client orders, which vary in weight, width, and external and internal diameter, are fully satisfied. Several tests were performed with real data from a paper company in which an average of 30% waste reduction and 100% reduction in production to inventory are obtained compare to the previous procedure.<hr/>Este artículo presenta el uso del algoritmo de Recocido Simulado con una heurística para resolver el problema de minimización de desperdicio en la programación de cortes en rollos, en este caso de papel. Las órdenes de los clients, que varían en peso, ancho, y diámetro interno y externo, se satisfacen al 100%. Se realizan varias pruebas con datos reales de una compañía en donde en promedio se obtiene un ahorro del 30% de desperdicio y 100% de producción a inventario comparado con el procedimiento anterior. <![CDATA[<b>Teaching safety precautions in a laboratory DVE</b>: <b>the effects of information location and interactivity</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462009000300009&lng=en&nrm=iso&tlng=en Information location and interactivity are two attributes of desktop virtual environment (DVE) design that can be exploited to enhance the ability of learners to acquire information and skills that transfer to real world. The term "information location" refers to the spatial relationship between linguistic information (text and sound) and virtual reality scenes. "Interactivity" refers to the actions by the learner that are afforded by the DVE (i.e. object manipulation, navigation, and user-system interaction). The effects of these attributes were assessed via pre, post, and retention measures of knowledge of laboratory precautions. Although no statistically significant difference was found, results indicate that co-located information produces a positive effect upon the learning and retention of declarative knowledge. However, "interactivity" appears to cause a detrimental effect on learning that depends on user-system activities and performance issues. An interesting finding is that co-located information encourages more extensive exploration of the DVE which, in turn, facilitates retention of spatial knowledge.<hr/>La ubicación de la información y la interactividad son dos atributos del diseño de ambientes virtuales de escritorio (AVE) que pueden ser explotados para mejorar la capacidad del aprendiz para adquirir información y habilidades que se transfieren al mundo real. La "ubicación de la información" se refiere a la relación espacial entre información lingüística (texto y sonido) y escenas virtuales. "Interactividad" se refiere a las acciones del aprendiz que son proporcionadas por el AVE (i. e., manipulación de objetos, navegación e interacción usuario-sistema). Los efectos de estos atributos fueron evaluados midiendo el conocimiento de precauciones de laboratorio antes y después de la capacitación, así como retención del conocimiento. Aunque no se encontraron diferencias estadísticas significativas, los resultados indican que la ubicación de la información produce un efecto positivo en el aprendizaje y retención del conocimiento declarativo. Sin embargo, "interactividad" causa un efecto negativo en el aprendizaje atribuible a las actividades usuario-sistema y ejecución de tareas. Un interesante hallazgo es que la información colocada fomenta una exploración exhaustiva del AVE, lo cual facilitó retención del conocimiento espacial. <![CDATA[<b><i>Development of Instance Indicators Applicable to Algorithm Selection for the 2-Partition Problem</i></b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462009000300010&lng=en&nrm=iso&tlng=en En este trabajo se abordó el problema de transformar instancias e indicadores de complejidad entre los problemas Bin-Packing y 2-Partition. Diversos investigadores han realizado reducciones y transformaciones polinomiales entre problemas NP-completos, los principales son Garey & Johnson, Karp y Cook. La transformación de 2-Partition a Bin-Packing existe en la literatura. Sin embargo no existe la transformación de Bin-Packing a 2-Partition, ni la transformación de indicadores con el fin de ser usados en la selección de algoritmos que mejor resuelven una instancia del problema 2-Partition. En esta tesis se propone un nuevo enfoque de solución para transformar instancias, desarrollar indicadores de complejidad y solución de los problemas Bin-Packing al problema 2-Partition, mediante una metodología y el desarrollo de lenguajes formales para expresar las instancias de ambos problemas.<hr/>In this work we approach the problem of transforming instances and complexity indicators between the problems discovered being Bin-Packing and 2-Partition. Several researchers have reductions and polynomial transformations between NP-complete problems, the main ones Garey & Johnson, Karp and Cook. The transformation of 2-Partition into Bin-Packing exists in literature. Nevertheless, does not exist the transformation of Bin-Packing into 2-Partition, nor the transformation of indicators with the purpose of to be used in the selection of algorithms that better solves an instance of the 2-Partition problem. In this thesis a new approach of solution is proposed to transform instances, to develop complexity indicators and to solve the Bin-Packing problem to the 2-Partition problem, by means of a methodology and formal languages to express the instances of both problems.