Scielo RSS <![CDATA[Computación y Sistemas]]> http://www.scielo.org.mx/rss.php?pid=1405-554620100003&lang=pt vol. 14 num. 1 lang. pt <![CDATA[SciELO Logo]]> http://www.scielo.org.mx/img/en/fbpelogp.gif http://www.scielo.org.mx http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462010000300001&lng=pt&nrm=iso&tlng=pt <![CDATA[<b>Tetrahedral Grid Generators and the Eigenvalue Calculation with Edge Elements</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462010000300002&lng=pt&nrm=iso&tlng=pt In this work we investigate some computational aspects of the eigenvalue calculation with edge elements; those include: the importance of the grid generator and node-edge numbering. As the examples show, the sparse structure of the mass and stiffness matrices is highly influenced by the edge numbering. Tetrahedral grid generators are mainly designed for nodal based finite elements so an edge numbering is required. Two different edge numbering schemes are tested with six different grid generators. Significant bandwidth reduction can be obtained by the proper combination of the edge numbering scheme with the grid generator method. Moreover, an ordering algorithm such as the Reverse Cuthill McKee can improve the bandwidth reduction which is necessary to reduce storage requirements.<hr/>En este trabajo se investigan algunos aspectos computacionales del cálculo de eigenvalores con elementos de contorno tales como la importancia del generador de mallas y la numeración de nodos y lados. Como muestran los ejemplos, la estructura esparcida de las matrices de masa y momentos es altamente influenciada por la numeración de los lados. Generadores de mallas en tetraedros son diseñados principalmente para elementos finitos basados en los nodos, así una numeración de los lados es requerida. Se realizaron pruebas con dos esquemas de enumeración de los lados con seis generadores de mallas distintos. Una reducción de banda significante puede obtenerse con una combinación apropiada de esquema de numeración de los lados con el método empleado por el generador de malla. Más aún un algoritmo de reordenamiento como el RCM puede mejorar la reducción de ancho de banda lo cual es necesario para reducir los requerimientos de almacenamiento. <![CDATA[<b>Multiple Fault Diagnosis in Electrical Power Systems with Dynamic Load Changes Using Probabilistic Neural Networks</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462010000300003&lng=pt&nrm=iso&tlng=pt Power systems monitoring is particularly challenging due to the presence of dynamic load changes in normal operation mode of network nodes, as well as the presence of both continuous and discrete variables, noisy information and lack or excess of data. This paper proposes a fault diagnosis framework that is able to locate the set of nodes involved in multiple fault events. It detects the faulty nodes, the type of fault in those nodes and the time when it is present. The framework is composed of two phases: In the first phase a probabilistic neural network is trained with the eigenvalues of voltage data collected during normal operation, symmetrical and asymmetrical fault disturbances. The second phase is a sample magnitude comparison used to detect and locate the presence of a fault. A set of simulations are carried out over an electrical power system to show the performance of the proposed framework and a comparison is made against a diagnostic system based on probabilistic logic.<hr/>El monitoreo de sistemas de potencia es particularmente retador debido a la presencia de cambios dinámicos de carga de los nodos de la red en modo de operación normal, así como la presencia de variables continuas y discretas, información con ruido y falta o exceso de datos. Este artículo propone un método de diagnóstico de fallas que es capaz de localizar el conjunto de nodos involucrado en eventos de fallas múltiples. El método detecta los nodos con falla, el tipo de falla y el tiempo en el cual está presente la falla. El método está compuesto de dos fases: En la primera fase una red neuronal probabilística es entrenada con los eigenvalores de los datos de voltaje obtenidos en operación normal así como con fallas simétricas y asimétricas. La segunda fase emplea una comparación entre las muestras para detectar y localizar la presencia de una falla. Se lleva a cabo un conjunto de simulaciones en un sistema eléctrico de potencia para mostrar el desempeño del método propuesto y se realiza una comparación contra un sistema de diagnóstico basado en lógica probabilística. <![CDATA[<b>An Efficient </b><b>Δ</b><b>-Causal Distributed Algorithm for Synchronous Cooperative Systems in Unreliable Networks</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462010000300004&lng=pt&nrm=iso&tlng=pt In cooperative systems causal ordering delivery has been used to resolve problems of coherency of type producer-consumer. Causal order delivery is important for distributed systems since it allows an asynchronous execution to participants. When time delivery constraints are considered, ensuring causal delivery becomes more complex, as is the case for synchronous cooperative systems, such as Telemedicine and Teleimmersion. In these systems, the messages (units of data of continuous and discrete media) have an associated lifetime that determines the period of useful time in which the messages must be delivered. On the other hand, generally in these systems there is no time for retransmit them when messages are lost. Causal order with time constraints has previously been addressed, and it is called Δ-causal order. In this paper, we present an efficient Δ-causal distributed algorithm for unreliable networks that is characterized by the use of a forward error correction (FEC) scheme and a distributed method to calculate the message lifetime based on relative time points (i.e. no global time is used). We show the efficiency of our Δ-causal algorithm in terms of the control information attached per message.<hr/>En los sistemas cooperativos el ordenamiento causal ha sido usado para resolver problemas de coherencia de tipo productor-consumidor. La entrega de orden causal es importante en general para los sistemas distribuidos debido a que permite a los participantes una ejecución asíncrona. Cuando las restricciones de entrega en tiempo real son contempladas, asegurar la entrega causal se vuelve más complejo, como es el caso para los sistemas cooperativos síncronos, tales como Telemedicina y Teleinmersión. En estos sistemas, los mensajes (datos continuos y discretos) tienen asociado un tiempo de vida que determina el periodo de tiempo útil en cual los mensajes deben ser entregados, y por el otro lado, en general en estos sistemas, cuando los mensajes son perdidos no existe tiempo para retransmitirlos. El orden causal con restricciones de tiempo ha sido previamente estudiado, y es nombrado orden Δ-causal. En este trabajo, presentamos un algoritmo distribuido Δ-causal eficiente sobre redes no fiables, nuestro algoritmo se caracteriza por el uso de un esquema de corrección de errores hacia delante (FEC) y un método distribuido para calcular el tiempo de vida de un mensaje basado en puntos de tiempo relativo (ningún tiempo global es utilizado). Mostramos la eficiencia de nuestro algoritmo Δ-causal en términos de la información de control unida a cada mensaje. <![CDATA[<b>Reducing the Experiments Required to Assess the Performance of Metaheuristic</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462010000300005&lng=pt&nrm=iso&tlng=pt When assessing experimentally the performance of metaheuristic algorithms on a set of hard instances of an NP-complete problem, the required time to carry out the experimentation can be very large. A means to reduce the needed effort is to incorporate variance reduction techniques in the computational experiments. For the incorporartion of these techniques, the traditional approaches propose methods which depend on the technique, the problem and the metaheuristic algorithm used. In this work we develop general-purpose methods, which allow incorporating techniques of variance reduction, independently of the problem and of the metaheuristic algorithm used. To validate the feasibility of the approach, a general-purpose method is described which allows incorporating the antithetic variables technique in computational experiments with randomized metaheuristic algorithms. Experimental evidence shows that the proposed method yields a variance reduction of the random outputs in 78% and that the method has the capacity of simultaneously reducing the variance of several random outputs of the algorithms tested. The overall reduction levels reached on the instances used in the test cases lie in the range from 14% to 55%.<hr/>Cuando se evalúa el desempeño de algoritmos metaheurísticos, con un conjunto de instancias difíciles de un problema NP-completo, el tiempo requerido para realizar la experimentación puede ser muy grande. Una forma de reducir el esfuerzo necesario es incorporar técnicas de reducción de la varianza en los experimentos computacionales. Para incorporar dichas técnicas, los enfoques tradicionales proponen métodos que dependen de la técnica, del problema y del algoritmo usado. En este trabajo se propone desarrollar métodos de propósito general, los cuales permitan incorporar técnicas de reducción de la varianza, independientemente del problema y del algoritmo metaheurístico usado. Para validar la factibilidad del enfoque, se describe un método de propósito general, el cual permite incorporar la técnica de variables antitéticas en experimentos computacionales con algoritmos metaheurísticos aleatorizados. La evidencia experimental muestra que el método propuesto produce una reducción de la varianza de las salidas aleatorias en un 78% de las instancias consideradas y que el método tiene la capacidad de reducir simultáneamente la varianza de varias salidas aleatorias de los algoritmos probados. Los niveles globales de reducción alcanzados con las instancias usadas en los casos de prueba van del 14% al 55%. <![CDATA[<b>Is the Coordinated Clusters Representation an analog of the Local Binary Pattern?</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462010000300006&lng=pt&nrm=iso&tlng=pt Both the Local Binary Pattern (LBP) and the Coordinated Clusters Representation (CCR) are two methods used successfully in the classification and segmentation of images. They look very similar at first sight. In this work we analyze the principles of the two methods and show that the methods are not reducible to each other. Topologically they are as different as a sphere and a torus. In extracting of image features, the LBP uses a specific technique of binarization of images with the local threshold, defined by the central pixel of a local binary pattern of an image. Then, the central pixel is excluded of each local binary pattern. As a consequence, the mathematical basis of the LBP method is more limited than that of the CCR. In particular, the scanning window of the LBP has always an odd dimensions, while the CCR has no this restriction. The CCR uses a binarization as a preprocessing of images, so that a global or a local threshold can be used for that purpose. We show that a classification based on the CCR of images is potentially more versatile, even though the high performance of both methods was demonstrated in various applications.<hr/>La Representación de Imágenes por Cúmulos Coordinados (RICC) y el Local Binary Pattern (LBP) son métodos eficazmente usados para la clasificación y segmentación de imágenes. A primera vista éstos parecen muy similares. Con un análisis de los principios de dos métodos demostramos que no son reducibles uno a otro; en términos de topología matemática son tan diferentes como esfera y dona. En la etapa de extracción de características de una imagen, el LBP usa una técnica específica de binarización de imágenes con umbral local, que se define por el píxel central de un patrón local de la imagen. Después, el píxel central se excluye de cada patrón local. Por tanto, el sustento matemático del método de LBP es más limitado que el de la RICC. En particular, la ventana de barrido en LBP siempre tiene dimensiones impares, la de la RICC no tiene esta restricción. La RICC requiere la binarización como una etapa de preprocesado de imagen y, por tanto, puede usarse un umbral global o local adaptable. La clasificación basada en la RICC es más versátil, aunque las eficiencias terminales de clasificación por los dos métodos pueden ser muy cercanas en muchas aplicaciones. <![CDATA[<b>Real-time Discrete Nonlinear Identification via Recurrent High Order Neural Networks</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462010000300007&lng=pt&nrm=iso&tlng=pt This paper deals with the discrete-time nonlinear system identification via Recurrent High Order Neural Networks, trained with an extended Kalman filter (EKF) based algorithm. The paper also includes the respective stability analysis on the basis of the Lyapunov approach for the whole scheme. Applicability of the scheme is illustrated via real-time implementation for a three phase induction motor.<hr/>Este artículo trata el problema de identificación de sistemas no lineales discretos usando redes neuronales recurrentes de alto orden entrenadas con un algoritmo basado en el filtro de Kalman extendido (EKF). El artículo también incluye el análisis de estabilidad para el sistema completo, en las bases de la técnica de Lyapunov. La aplicabilidad del esquema se ilustra a través de la implementación en tiempo real para un motor de inducción trifásico. <![CDATA[<b>Fast Most Similar Neighbor (MSN) classifiers for Mixed Data</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462010000300008&lng=pt&nrm=iso&tlng=pt The k nearest neighbor (k-NN) classifier has been extensively used in Pattern Recognition because of its simplicity and its good performance. However, in large datasets applications, the exhaustive k-NN classifier becomes impractical. Therefore, many fast k-NN classifiers have been developed; most of them rely on metric properties (usually the triangle inequality) to reduce the number of prototype comparisons. Hence, the existing fast k-NN classifiers are applicable only when the comparison function is a metric (commonly for numerical data). However, in some sciences such as Medicine, Geology, Sociology, etc., the prototypes are usually described by qualitative and quantitative features (mixed data). In these cases, the comparison function does not necessarily satisfy metric properties. For this reason, it is important to develop fast k most similar neighbor (k-MSN) classifiers for mixed data, which use non metric comparisons functions. In this thesis, four fast k-MSN classifiers, following the most successful approaches, are proposed. The experiments over different datasets show that the proposed classifiers significantly reduce the number of prototype comparisons.<hr/>El clasificador k vecinos más cercanos (k-NN) ha sido ampliamente utilizado dentro del Reconocimiento de Patrones debido a su simplicidad y buen funcionamiento. Sin embargo, en aplicaciones en las cuales el conjunto de entrenamiento es muy grande, la comparación exhaustiva que realiza k-NN se vuelve inaplicable. Por esta razón, se han desarrollado diversos clasificadores rápidos k-NN; la mayoría de los cuales se basan en propiedades métricas (en particular la desigualdad triangular) para reducir el número de comparaciones entre prototipos. Por lo cual, los clasificadores rápidos k-NN existentes son aplicables solamente cuando la función de comparación es una métrica (usualmente con datos numéricos). Sin embargo, en algunas ciencias como la Medicina, Geociencias, Sociología, etc., los prototipos generalmente están descritos por atributos numéricos y no numéricos (datos mezclados). En estos casos, la función de comparación no siempre cumple propiedades métricas. Por esta razón, es importante desarrollar clasificadores rápidos basados en la búsqueda de los k vecinos más similares (k-MSN) para datos mezclados que usen funciones de comparación no métricas. En esta tesis, se proponen cuatro clasificadores rápidos k-MSN, siguiendo los enfoques más exitosos. Los experimentos con diferentes bases de datos muestran que los clasificadores propuestos reducen significativamente el número de comparaciones entre prototipos.