Scielo RSS <![CDATA[Computación y Sistemas]]> http://www.scielo.org.mx/rss.php?pid=1405-554620110001&lang=en vol. 14 num. 3 lang. en <![CDATA[SciELO Logo]]> http://www.scielo.org.mx/img/en/fbpelogp.gif http://www.scielo.org.mx <![CDATA[<b>Editorial</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462011000100001&lng=en&nrm=iso&tlng=en <![CDATA[<b>New High-Performance Full Adders Using an Alternative Logic Structure</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462011000100002&lng=en&nrm=iso&tlng=en This paper presents two new high-speed low-power 1-bit full-adder cells using an alternative logic structure, and the logic styles DPL and SR-CPL. The adders were designed using electrical parameters of a 0.35µm Complementary Metal-Oxide-Semiconductor (CMOS) process, and were compared with various adders published previously, with regards of power-delay product. To validate the performance simulation results of one of the proposed adders, an 8-bits pipelined multiplier was fabricated using a 0.35µm CMOS technology, and it showed to provide superior performance.<hr/>En este artículo se presentan dos nuevos sumadores de 1-bit de alta velocidad y bajo consumo de potencia, utilizando en su diseño una estructura lógica alternativa y los estilos lógicos de circuitos DPL y SR-CPL. Los nuevos sumadores fueron comparados con diversos sumadores recientemente publicados en la literatura considerando el producto potencia-retardo, principal figura de mérito de circuitos aritméticos. Con el fin de validar los resultados obtenidos de simulación, uno de los sumadores fue aplicado al diseño y fabricación de un multiplicador en "pipeline" de 8-bits utilizando la tecnología CMOS de 0.35µm. Los resultados experimentales obtenidos mostraron un desempeño superior. <![CDATA[<b>A Multi-Agent Architecture to Support Communities of Practice in Organizations</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462011000100003&lng=en&nrm=iso&tlng=en Este artículo presenta una arquitectura multi-agente diseñada para dar apoyo a las comunidades de práctica en organizaciones preocupadas por el intercambio de conocimiento. El principal objetivo de esta propuesta es facilitar el intercambio de conocimiento en empresas donde sus empleados están organizados en comunidades. Además de esto, este trabajo trata de apoyar a los miembros de la comunidad al momento de decidir en qué o quién confiar. Para esto, se propone un modelo de confianza basado en cuatro factores que las personas de manera consciente o inconsciente suelen considerar al momento de decidir si confían o no en un objeto o fuente de conocimiento.<hr/>This paper presents a two layer multi-agent architecture designed to support communities of practice in organizations which are concerned about knowledge sharing. The main goal of this proposal is, therefore to facilitate knowledge exchange in organizations whose employees are organized into communities. <![CDATA[<b>A Low-Complexity current-mode WTA circuit based on CMOS Quasi-FG Inverters</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462011000100004&lng=en&nrm=iso&tlng=en In this paper, a low-complexity current-mode Winner-Take-All circuit (WTA) of O (n) complexity with logical outputs is presented. The proposed approach employs a Quasi-FG Inverter as the key element for current integration and the computing of the winning cell. The design was implemented in a double-poly, three metal layers, 0.5µm CMOS technology. The circuit exhibits a good accuracy-speed tradeoff when compared to other reported WTA architectures.<hr/>En este artículo, se presenta un circuito "ganador toma todo" (WTA) de baja complejidad en modo de corriente con salidas digitales. La propuesta se basa en el uso de un inversor que utiliza la técnica de Quasi-FG, el cual, realiza una integración de corriente y el cómputo de la celda ganadora. El diseño fue implementado usando una tecnología de doble polisilicio y tres capas de metal para interconexión en tecnología CMOS de 0.5µm. El circuito presenta buena precisión y velocidad en comparación con otras arquitecturas WTA existentes. <![CDATA[<b>Contrast Enhancement Based on a Morphological Rational Multiscale Algorithm</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462011000100005&lng=en&nrm=iso&tlng=en Contrast enhancement is an important task in image processing and it is commonly used as a preprocessing step in order to improve the results for other tasks such as segmentation. However, not only do some methods for contrast improvement have good performance working on low contrast regions, but they also affect good contrast regions; owing to the fact that some elements could be vanished, representing a loss of information. A method focused on images with different luminance conditions is introduced in the present work. The proposed method is based on morphological filters by reconstruction and rational operations, which together, allow a uniform contrast enhancement. Furthermore, due to the properties of these morphological transformations, the creation of new elements on image is avoided. The processing was made on luminance values in the u'v'Y' color space, which permits to keep the chrominance and to avoid the creation of new colors. As a result of the previous considerations, the proposed method keeps the natural color appearance of the image.<hr/>La mejora del contraste es una tarea importante en procesamiento de imágenes y a menudo es usada como paso de pre-procesamiento a fin de mejorar los resultados de procesos como segmentación. Algunos métodos para mejora de contraste tienen un buen desempeño trabajando en regiones con poco contraste pero también afectan las regiones con suficiente contraste; este es un efecto no deseado debido a que algunos elementos de la imagen pueden ser eliminados lo cual representa una pérdida de información. En este trabajo se presenta una mejora de contraste enfocada a imágenes que tienen diferente luminancia sobre la misma escena. El método propuesto está basado en filtros morfológicos por reconstrucción y operaciones racionales, que en conjunto permiten una mejora de contraste uniforme. Además, debido a las propiedades de estas transformaciones morfológicas se evita la creación de nuevos elementos. El procesamiento trabaja sobre los valores de luminancia en el espacio de color u'v'Y', lo cual permite mantener el croma y evitar la creación de nuevos colores. Como resultado de las consideraciones mencionadas, este método provee una mejora de contraste uniforme y mantiene la apariencia natural de la imagen. <![CDATA[<b>Fault Detection in a Heat Exchanger, Comparative Analysis between Dynamic Principal Component Analysis and Diagnostic Observers</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462011000100006&lng=en&nrm=iso&tlng=en A comparison between the Dynamic Principal Component Analysis (DPCA) method and a set of Diagnostic Observers (DO) under the same experimental data from a shell and tube industrial heat exchanger is presented. The comparative analysis shows the detection properties of both methods when sensors and/or actuators fail online, including scenarios with multiple faults. Similar metrics are defined for both methods: robustness, quick detection, isolability capacity, explanation facility, false alarm rates and multiple faults identifiability. Experimental results show the principal advantages and disadvantages of both methods. DO showed quicker detection for sensor and actuator faults with lower false alarm rate. Also, DO can isolate multiple faults. DPCA required a minor training effort; however, it can not identify two or more sequential faults.<hr/>El artículo presenta una comparación entre dos métodos de detección de fallas, Análisis de Componentes Principales Dinámico (DPCA por sus siglas en inglés) y Observadores de Diagnóstico (DO por sus siglas en inglés), bajo los mismos datos experimentales extraídos de un intercambiador de calor industrial de tubo y coraza. El análisis comparativo muestra las propiedades de detección de ambos métodos cuando sensores y/o actuadores fallan en línea, incluyendo fallas múltiples. Para ambos métodos se definen métricas similares: robustez, tiempo de detección, capacidad de aislamiento y explicación de propagación de fallas, tasa de falsas alarmas y capacidad de identificar fallas múltiples. Los resultados experimentales muestran las ventajas y desventajas de ambos métodos. DO detecta más rápido las fallas de sensores y actuadores, presenta menor tasa de falsas alarmas y puede aislar fallas múltiples. DPCA requiere menor esfuerzo de entrenamiento; sin embargo, no puede identificar 2 o más fallas secuenciales. <![CDATA[<b>Designing Type-1 Fuzzy Logic Controllers via Fuzzy Lyapunov Synthesis for Nonsmooth Mechanical Systems</b>: <b>The Perturbed Case</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462011000100007&lng=en&nrm=iso&tlng=en Fuzzy Lyapunov Synthesis is extended for the design of type-1 fuzzy logic controllers for an output regulation problem for a servomechanism with backlash. The problem in question is to design a feedback controller so as to obtain the closed-loop system in which all trajectories are bounded and the load of the driver is regulated to a desired position while also attenuating the influence of external disturbances. Provided the servomotor position is the only measurement available for feedback, the proposed extension is far from trivial because of nonminimum phase properties of the system. Performance issues of the fuzzy regulator constructed are illustrated in an experimental study.<hr/>La Síntesis Difusa de Lyapunov se extiende para el diseño de controladores difusos tipo-1 para un problema de regulación de salida de un servomecanismo con backlash. El problema en cuestión es el diseño de un controlador retroalimentado para obtener el sistema de lazo cerrado en el cual todas las trayectorias están acotadas y la carga del mecanismo se regula en una posición determinada a la vez que atenúa la influencia de perturbaciones externas. La posición del servomotor es la única medida disponible para retroalimentación, la propuesta está lejos de ser trivial debido a las propiedades de fase no mínima del sistema. El funcionamiento de los reguladores difusos construidos se muestran en un estudio experimental. <![CDATA[<b>A Statistical comparative analysis of Simulated Annealing and Variable Neighborhood Search for the Geographic Clustering Problem</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462011000100008&lng=en&nrm=iso&tlng=en This paper describes a factorial statistical study that compares the quality of solutions produced by two heuristics: Simulated Annealing (SA) and Variable Neighborhood Search (VNS). These methods are used to solve the Geographic Clustering Problem (GCP), and the quality of the solutions produced for specific times has been compared. With the goal of comparing the quality of the solutions, where both heuristics participate in an impartial evaluation, time has been the only common element considered for VNS and SA. At this point, two factorial experiments were designed and the corresponding parameters for each heuristic were carefully modeled leaving time as the cost function. In instances of 24 objects, the experiments involved the execution of two sets of tests recording the results of the different response times and the associated values of the objective function for each heuristic and instance conditions. The solution to this problem requires a partitioning process where each group is composed of objects that fulfill better the objective: the minimum accumulated distance from the objects to the centroid of each group. The GCP is a combinatorial NP-hard problem (Bação, Lobo and Painho, 2004).<hr/>Este artículo describe un estudio estadístico factorial para comparar la calidad de las soluciones de dos heurísticas: Recocido Simulado (RS) y Búsqueda en Entorno Variable (BEV). Estos métodos son usados para resolver el problema de agregación geográfica, y se han comparado de acuerdo a la calidad de las soluciones obtenidas en tiempos específicos estimados. Con el objetivo de comparar la calidad de las soluciones, donde las dos heurísticas participen en una evaluación equitativa, se ha considerado el tiempo como el único elemento común para BEV y RS. En este punto, se diseñaron dos experimentos factoriales donde se modelaron cuidadosamente los parámetros correspondientes para cada heurística dejando como función de costo al tiempo. Estos experimentos implicaron la ejecución de dos conjuntos de pruebas para instancias de 24 objetos registrándose los resultados de los diferentes tiempos de respuesta y los valores asociados de la función objetivo para cada heurística. La solución a este problema requiere un proceso de particionamiento donde cada grupo está formado de objetos que cumplen mejor con el objetivo: la distancia mínima acumulada de los objetos al centroide en cada grupo. El problema de agregación geográfica es combinatorio NP-duro (Bação, Lobo and Painho, 2004). <![CDATA[<b>Periodicity and Texel Size Estimation of Visual Texture Using Entropy Cues</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462011000100009&lng=en&nrm=iso&tlng=en Texture periodicity and texture element (texel) size are important characteristics for texture recognition and discrimination. In this paper, an approach to determine both, texture periodicity and texel size, is proposed. Our method is based on the entropy, a texture measure computed from the Sum and Difference Histograms. The entropy value is sensitive to the parameters in such histograms and takes its lowest value when the parameters match with texel size or its integer multiples, in any specific direction. We show the performance of our method by texture synthesis, tiling a sample of the detected size and measuring the similarity between the original image and the synthesized one, showing good results with regular textures and texels with different shapes, being useful for practical applications as well because of its simple implementation.<hr/>La periodicidad de textura y el tamaño del elemento de textura (texel), son características importantes para el reconocimiento de texturas y su discriminación. En este artículo se propone un enfoque para determinar tanto la periodicidad de textura como el tamaño del texel. Nuestro método está basado en una medida de entropía de textura, calculada a partir de los histogramas de sumas y diferencias. El valor de la medida de entropía es sensible a los parámetros de tales histogramas y alcanza un valor bajo cuando dichos parámetros coinciden con el tamaño del texel o sus múltiplos enteros, en una determinada dirección. El rendimiento de nuestro enfoque es mostrado mediante síntesis de textura, al colocar repetidamente una muestra del tamaño del texel detectado sobre una superficie del mismo tamaño de la textura original y midiendo la semejanza entre la imagen sintetizada y la imagen original. Nuestro método muestra buenos resultados con texturas periódicas y semiperiódicas, pudiendo utilizarse en aplicaciones prácticas por su sencilla implementación. <![CDATA[<b>Semantic Representation of Raster Spatial Data</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462011000100010&lng=en&nrm=iso&tlng=en When people think spatially, they do not usually consider geographic coordinates nor projections. Facing questions having a spatial sense, people do not answer with maps or coordinates, but use some references whose spatial location is "well known". For instance, the answer of a conventional geographic information system to the question "Where is the CIC?" would be "in coordinates 19.50314°N, 99.14759°W". In contrast, a person would answer "in Zacatenco" or "near to Eje Central". The semantic processing attempts to enrich an abstraction level similar to the one that people use commonly. This processing, applied to spatial data, does not depend on scales, resolutions, projections or others that are fundamental in conventional systems. We assume that the first step for making semantic processing is the semantic description of "raw" spatial data. Such description is the identification of the objects contained in data and the location of such objects within a conceptual framework, where they get a meaning. In this work, we present a methodology for making this semantic description using as a case study the digital elevation models. The methodology is build up of three stages: conceptualization, to define the conceptual framework of the description; synthesis, to process "raw" spatial data and to obtain the spatial objects contained in data; and description, to generate the representation of results from the synthesis according to the conceptual framework.<hr/>Cuando las personas pensamos espacialmente, no lo hacemos teniendo en mente cosas como coordenadas o proyecciones; ante preguntas que tienen una connotación espacial, las personas no contestamos con mapas ni con coordenadas; contestamos con referencias a objetos cuya ubicación es "bien conocida". Por ejemplo, ante la pregunta "¿Dónde está el CIC?", la respuesta de un sistema de información geográfica convencional sería "en 19.50314°N, 99.14759°O", pero una persona nos diría "en Zacatenco" o "cerca del Eje Central". El procesamiento semántico trata de alcanzar un nivel de abstracción parecido al que las personas utilizamos. Este tipo de procesamiento, aplicado a datos espaciales, no depende de escalas, resoluciones, proyecciones ni de ninguna de esas cosas que son importantes en los sistemas convencionales. Consideramos que el primer paso para realizar procesamiento semántico es la descripción semántica de los datos espaciales "crudos", dicha descripción consiste en la identificación de los objetos contenidos en los datos y la ubicación de esos objetos en un marco conceptual dentro del cual obtienen un significado. En este trabajo se presenta una metodología para realizar esta descripción semántica; utilizando como caso de estudio los modelos digitales de elevación. La metodología consta de tres etapas: la conceptualización, en la que se define el marco conceptual para la descripción; la síntesis, en la cual se procesan los datos espaciales "crudos" y se obtienen los objetos espaciales que contienen; y la descripción, en la que se realiza la representación de los resultados de la síntesis en términos del marco conceptual.