Scielo RSS <![CDATA[Computación y Sistemas]]> http://www.scielo.org.mx/rss.php?pid=1405-554620110002&lang=en vol. 14 num. 4 lang. en <![CDATA[SciELO Logo]]> http://www.scielo.org.mx/img/en/fbpelogp.gif http://www.scielo.org.mx <![CDATA[<b>Editorial</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462011000200001&lng=en&nrm=iso&tlng=en <![CDATA[<b>Model Based Testing for Workflow Enabled Applications</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462011000200002&lng=en&nrm=iso&tlng=en In recent years, workflow enabled applications have been used in an increasing number of contexts. This has required the swift development of new workflow languages and of their corresponding engines. However, the tools available to support the development of these engines are insufficient. In particular, the tools to test the implementation of engines have serious limitations, and are not well suited to test workflows. To address this problem we have developed ATF, a framework to build test environments and test suites for workflow engines. ATF is complemented by TDR, a roadmap that specifies the steps to adapt ATF to specific workflow languages and engines; TDR also specifies the steps to develop a complete test suite. This paper presents both the ATF and the TDR, and illustrates their usage in the context of a workflow engine built using the Cumbia platform.<hr/>La aplicación de la tecnología de los workflows a un gran número de contextos ha traído consigo la necesidad de desarrollar rápidamente nuevos lenguajes de workflow con sus correspondientes motores. Sin embargo, las herramientas para apoyar este desarrollo son insuficientes y en particular lo son las que servirían para probar que los motores implementen correctamente la semántica de los lenguajes. Para enfrentar esta limitación, hemos desarrollado ATF, un framework abstracto para el desarrollo de entornos de prueba y escenarios de prueba para nuevos motores y nuevos lenguajes de workflow. ATF es complementado por TDR, una hoja de ruta que especifica los pasos para construir un nuevo ambiente de pruebas basada en ATF. Este artículo presenta tanto ATF como TDR e ilustra la forma en la que se utilizaron para probar un motor de workflow construido sobre la plataforma Cumbia. <![CDATA[<b>An Strategy for the Dynamic Selection of Features Applied to the Stabilization of Image Sequences</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462011000200003&lng=en&nrm=iso&tlng=en En este trabajo se presenta una estrategia para la discriminación entre las características pertenecientes a objetos fijos y móviles de una escena observada desde una cámara sujeta a vibración. Nuestra estrategia selecciona como características fijas aquellas que minimizan el error de la proyección de la homográfica entre las imágenes, siendo tolerante a oclusiones de regiones y cambios lumínicos en la escena. Una posible aplicación de este resultado es la estabilización de secuencias de imágenes. En una etapa experimental, utilizando distintos escenarios en exteriores, mostramos los resultados y evidencia que los niveles de precisión obtenidos son mejores, que los obtenidos por propuestas eficientes basadas en la selección aleatoria de características, tal como la de RANSAC.<hr/>This work introduces an algorithm to discriminate between either moving or static features of a given scene as observed from a fixed camera, which is under the effects of vibration,. In our strategy, we select the features minimizing the registration error from one image to the next one. The process discards the features corresponding to moving objects and untrackable regions. The algorithm is applied to the task of stabilizing an image sequence. In our experiments, we benchmark our approach with several images sequences and match the results with a randomized strategy known as RANSAC. <![CDATA[<b>Trajectory Optimization for Systems Under Nonholonomic Constraints</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462011000200004&lng=en&nrm=iso&tlng=en Presentamos una estrategia numérica para calcular trayectorias válidas para sistemas sin deriva con restricciones diferenciales no integrables que minimicen el consumo de energía expresado como la norma L2 del control. Utilizamos herramientas de la teoría del control óptimo y la programación no lineal para formular y resolver el problema de optimización. Primero analizamos las condiciones necesarias que debe satisfacer el control óptimo. Posteriormente convertimos el problema de dimensión infinita a un problema de optimización no lineal de dimensión finita. Esta formulación nos permite generar las trayectorias deseadas utilizando una estrategia simple y eficiente basada en la Programación Cuadrática Secuencial (PCS). Comparamos la estrategia propuesta con el algoritmo desarrollado por [Fernandes, et al., 1994], en términos de convergencia y tiempo de cálculo, utilizando varios modelos cinemáticos de robots móviles con ruedas y remolques y también un modelo dinámico de robot espacial.<hr/>This paper presents a numerical strategy to compute feasible trajectories for driftless systems under nonintegrable differential constraints that minimize the norm of the control. We made use of optimal control tools and nonlinear programming to formulate and solve the optimization problem. First, we analyze the necessary conditions to be satisfied by the optimal control. Then, we transform the infinite-dimensional problem into a finite-dimensional nonlinear optimization problem. This formulation allows us to generate the desired trajectories by using a simple and efficient strategy based on the Sequential Quadratic Programming (SQP). We compare the proposed strategy with the algorithm developed by [Fernandes, et al., 1994], in terms of convergence and computational time, by using various kinematic models of mobile robots with wheels, chained systems and a dynamic model of space robot. <![CDATA[<b>Class-Conditional Probabilistic Principal Component Analysis</b>: <b>Application to Gender Recognition</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462011000200005&lng=en&nrm=iso&tlng=en This paper presents a solution to the problem of recognizing the gender of a human face from an image. We adopt a holistic approach by using the cropped and normalized texture of the face as input to a Naíve Bayes classifier. First it is introduced the Class-Conditional Probabilistic Principal Component Analysis (CC-PPCA) technique to reduce the dimensionality of the classification attribute vector and enforce the independence assumption of the classifier. This new approach has the desirable property of a simple parametric model for the marginals. Moreover this model can be estimated with very few data. In the experiments conducted we show that using CC-PPCA we get 90% classification accuracy, which is similar result to the best in the literature. The proposed method is very simple to train and implement.<hr/>Este trabajo presenta una solución al problema del reconocimiento del género de un rostro humano a partir de una imagen. Adoptamos una aproximación que utiliza la cara completa a través de la textura de la cara normalizada y redimensionada como entrada a un clasificador Náive Bayes. Presentamos la técnica de Análisis de Componentes Principales Probabilístico Condicionado-a-la-Clase (CC-PPCA) para reducir la dimensionalidad de los vectores de características para la clasificación y asegurar la asunción de independencia para el clasificador. Esta nueva aproximación tiene la deseable propiedad de presentar un modelo paramétrico sencillo para las marginales. Además, este modelo puede estimarse con muy pocos datos. En los experimentos que hemos desarrollados mostramos que CC-PPCA obtiene un 90% de acierto en la clasificación, resultado muy similar al mejor presentado en la literatura. El modelo propuesto es muy sencillo de entrenar e implementar. <![CDATA[<b>Using a Markov Random Field for Image Re-ranking Based on Visual and Textual Features</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462011000200006&lng=en&nrm=iso&tlng=en We propose a novel method to re-order the list of images returned by an image retrieval system (IRS). The method combines the original order obtained by the IRS, the similarity between images obtained with visual and textual features, and a relevance feedback approach, all of them with the purpose of separating relevant from irrelevant images, and thus, obtaining a more appropriate order. The method is based on a Markov random field (MRF) model, in which each image in the list is represented as a random variable that could be relevant or irrelevant. The energy function proposed for the MRF combines two factors: the similarity between the images in the list (internal similarity); and information obtained from the original order and the similarity of each image with the query (external similarity). Experiments were conducted with resources from the Image CLEF 2008 forum for the photo retrieval track, taking into account textual and visual features. The results show that the proposed method improves, according to the MAP measure, the order of the original list up to 63% (in the textual case) and up to 55% (in the visual case); and suggest future work using a combination of both kind of features.<hr/>En este trabajo proponemos un método novedoso para re-ordenar una lista de imágenes recuperadas por un sistema de recuperación de imágenes (SRI). El método combina el orden original obtenido por el SRI, la similitud entre imágenes, obtenida con las características visuales y textuales, y un enfoque de retroalimentación de relevancia, todos ellos con el propósito de separar las imágenes relevantes de las irrelevantes, y así, obtener un orden más apropiado. El método está basado en el modelo de un campo aleatorio de Markov (CAM), en el que cada imagen en la lista fue representada como una variable aleatoria con dos posibles valores: relevante o irrelevante. La función de energía propuesta para el campo aleatorio de Markov combina dos factores: la similitud entre imágenes en la lista (similitud interna); y la información obtenida del orden original y la similitud de cada imagen con la consulta (similitud externa). Los experimentos fueron realizados con los recursos del foro Image CLEF 2008 para la tarea de recuperación de fotografías, tomando en cuenta los atributos textuales y visuales. Los resultados mostraron que el método propuesto mejora, de acuerdo con la medida MAP, el orden de la lista original hasta en un 63% (en el caso textual) y hasta un 55% (en el caso visual); y sugieren como trabajo a futuro el utilizar una combinación de ambos tipos de atributos. <![CDATA[<b>Automatic Code Generation from Finite State Machines</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462011000200007&lng=en&nrm=iso&tlng=en Este trabajo presenta una herramienta de generación automática de código fuente en lenguajes orientados a objetos para modelos abstractos expresados en UML. La herramienta permite la generación de código, tanto de la estructura estática como del comportamiento dinámico, presentes en modelos de sistemas de software. En específico, permite generar código fuente en el lenguaje C++, a partir de los diagramas de clases, diagramas de estados, y diagramas de actividad del UML. Dicha herramienta podrá ser integrada a herramientas CASE de modelado, con capacidades apropiadas de exportación de modelos del UML en formato XMI. En el trabajo se presentan detalles sobre el diseño y la implementación de la herramienta, haciendo hincapié en la generación del comportamiento dinámico. Además, se muestran los resultados de su evaluación en casos de estudio.<hr/>In this work, we present a tool for automatic source code generation, in OO languages, from abstract models expressed in UML. The tool allows the code generation, as much of the static structure as the dynamic behavior, present in models of software systems. Specifically, it allows to generate source code in the C++ language, from the classes diagrams, state diagrams, and activities diagrams of the UML. This tool could be integrated to a modeling CASE tool, with appropriate exporting capacities of UML models in format XMI . We present details of tool design and implementation, with special attention in code generation for dynamic behavior. In addition, to evaluate the tool, we present study cases. <![CDATA[<b>A Feed-Forward Neural Networks-Based Nonlinear Autoregressive Model for Forecasting Time Series</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462011000200008&lng=en&nrm=iso&tlng=en In this work a feed-forward NN based NAR model for forecasting time series is presented. The learning rule used to adjust the NN weights is based on the Levenberg-Marquardt method. In function of the long or short term stochastic dependence of the time series, we propose an online heuristic law to set the training process and to modify the NN topology. The approach is tested over five time series obtained from samples of the Mackey-Glass delay differential equations and from monthly cumulative rainfall. Three sets of parameters for MG solution were used, whereas the monthly cumulative rainfall belongs to two different sites and times period, La Perla 1962-1971 and Santa Francisca 200-2010, both located at Córdoba, Argentina. The approach performance presented is shown by forecasting the 18 future values from each time series simulated by a Monte Carlo of 500 trials with fractional Gaussian noise to specify the variance.<hr/>Se presenta un modelo auto-regresivo no lineal (ARN) basado en redes neuronales para el pronóstico de series temporales. La regla de aprendizaje para ajustar los parámetros de la red neuronal (RN) está basado en el método Levenberg-Marquardt en función de la dependencia estocástica de la serie temporal, proponemos una ley heurística que ajusta el proceso de aprendizaje y modifica la topología de la RN. Esta propuesta es experimentada sobre cinco series temporales. Tres son obtenidas de la ecuación de Mackey-Glass (MG) en un intervalo de tiempo. Las dos restantes son series históricas de lluvia acumulada mensualmente pertenecientes a dos lugares y tiempos diferentes, La Perla 1962-1971 y Santa Francisca 2000-2010, Córdoba, Argentina. El desempeño del esquema se muestra a través del pronóstico de 18 valores de cada serie temporal, donde el pronóstico fue simulado mediante Monte Carlo con de 500 realizaciones con ruido Gaussiano fraccionario para especificar la varianza. <![CDATA[<b>General Algorithm for the Semantic Decomposition of Geo-Image</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462011000200009&lng=en&nrm=iso&tlng=en The thesis presents an object oriented methodology for the semantic extraction of a geo-image which is defined by a set of natural language labels. The approach is composed of two main stages: analysis and synthesis. The analysis stage detects the main geographic components of a geo-image by means of the color quantification, geometry and topology of the geospatial objects. The result of this stage is a set of geo-images with intensities that are approximately uniform. The synthesis stage extracts the main geographic objects that have been identified and a labeling process in two levels (general and specialized), which is equivalent to consider both local and global information of a geo-image. The aim of the general labeling process is to associate a label of the adequate thematic to each region, taking into account the RGB characteristics of the image. In order to specialize each geographic object, we have proposed a specialization algorithm that considers geometric and topologic relations among them, represented in geographic application domain ontology. The obtained set of labels describes the geo-image semantics.<hr/>Esta tesis presenta una metodología orientada a objetos para la extracción de la semántica de una geo-imagen definida por un conjunto de etiquetas en lenguaje natural. La metodología está compuesta de dos grandes etapas: análisis y síntesis. La etapa de análisis detecta los principales elementos geográficos de una geo-imagen mediante la cuantificación de características como color, geometría y topología de los objetos geográficos. El resultado de esta etapa es un conjunto de geo-imágenes con intensidades de color aproximadamente uniforme. La etapa de síntesis extrae los objetos geográficos que fueron identificados y realiza un proceso de etiquetado en dos niveles (general y especializado), el cual es equivalente a considerar tanto la información global como local de una geo-imagen. El propósito del etiquetado general es asociar a cada región una etiqueta de una temática adecuada, tomando en consideración la información RGB de la geo-imagen. Para especializar cada objeto geográfico, se propone un algoritmo de especialización que considera la geometría y relaciones topológicas entre los objetos geográficos, tomando como base una ontología de aplicación del dominio geográfico. El conjunto de etiquetas resultante describe la semántica de una geo-imagen.