Scielo RSS <![CDATA[Computación y Sistemas]]> http://www.scielo.org.mx/rss.php?pid=1405-554620130004&lang=pt vol. 17 num. 4 lang. pt <![CDATA[SciELO Logo]]> http://www.scielo.org.mx/img/en/fbpelogp.gif http://www.scielo.org.mx <![CDATA[<b>Editorial</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462013000400001&lng=pt&nrm=iso&tlng=pt <![CDATA[<b>A Semantically-based Lattice Approach for Assessing Patterns</b> <b>in Text Mining Tasks</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462013000400002&lng=pt&nrm=iso&tlng=pt In this paper, a new approach to automatically assessing patterns in text mining is proposed. It combines corpus based semantics and Formal Concept Analysis in order to deal with semantic and structural properties for concepts discovered in tasks such as generation of association rules. Experiments show the promise of our evaluation method to effectively assess discovered patterns when compared with other state-of-the-artevaluation methods.<hr/>En este artículo, se propone un nuevo enfoque para la evaluación automática de patrones en minería de textos. Éste combina semantica basada en corpus y Análisis Formal de Conceptos con el fin de manejar propiedades estructurales y semánticas para conceptos descubiertos en tareas tales como generacio¿ón de reglas de asociación. Los experimentos muestran los resultados promisorios de nuestro método para evaluar efectivamente patrones descubiertos cuando se compara con otros métodos de evaluacióon de la literatura. <![CDATA[<b>Efficient use of Pivots for Approximate Search in Metric Spaces</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462013000400003&lng=pt&nrm=iso&tlng=pt El contexto de este trabajo es la búsqueda rápida de vecinos más cercanos en espacios métricos. Uno de los objetivos de estos algoritmos es la reducción del tiempo de respuesta durante la búsqueda. Reducir el tiempo de respuesta consiste muchas veces en reducir el número de distancias a calcular, debido al alto coste computacional que de por sí pueden tener las distancias a utilizar en ciertas aplicaciones. Nosotros proponemos una nueva versión y mejoras de un algoritmo recientemente publicado, PiAESA, variante del algoritmo AESA, usado como referencia en este área por sus buenos resultados desde hace más de 20 años. La nueva versión es más simple y permite una mejor comprensión del algoritmo y sus parámetros. Además, se ha conseguido aumentar la eficiencia definiendo una versión aproximada. Los resultados empíricos obtenidos utilizando datos artificiales y reales confirman una mejora en los resultados de la versión aproximada, con un alto porcentaje de una respuesta correcta (dada por un algoritmo exacto).<hr/>This work focuses on pivot-based fast nearest neighbor search algorithms that can work in any metric space. One of the objectives of these algorithms is to reduce the time consumed during search. Reducing time consumption of such algorithms usually consists in reducing the number of distances for computing, due to the high cost that they have in certain applications. We introduce a new version and improvements for a recently proposed algorithm, PiAESA, a variant of the AESA algorithm, used as baseline for performance measurement for over twenty years. The new version is simpler and allows better understanding of the algorithm and parameters used. Moreover, the efficiency is increased by defining an approximated version. Our empirical results with real and artificial databases confirm a consistent improvement in performance, when retrieving very high percentage of the correct answers (given by the exact algorithm). <![CDATA[<b>On the NP-Completeness of Computing the Commonality</b> <b>Among the Objects Upon Which a Collection of Agents Has Performed an Action</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462013000400004&lng=pt&nrm=iso&tlng=pt We prove the NP-completeness of the so-called Social Group Commonality (SGC) problem which queries the commonality among the objects 'touched' by collections of agents while executing an action. Although it naturally arises in several contexts, e.g., in profiling the behavior of a collection of system users, SGC (to the authors' knowledge) has been ignored. Our proof of SGC NP-completeness consists of a Karp reduction from the well-known Longest Common Subsequence (LCS) problem to SGC. We also prove that a special case of SGC which we call 2-SGC, where the commonality among actions is limited to agent pairs, remains NP-complete. For proving NP-completeness of 2-SGC though, our reduction departs from the well-known Hitting Set problem. Finally, we hypothesize that the optimality version of SGC is NP-hard, hinting on how to deal with the proof obligation.<hr/>En este trabajo demostramos que el problema que llamamos Comunalidad de grupos sociales (SGC por sus siglas en inglés) es NP-completo. Este problema consulta la comunalidad entre los objetos tocados por una colección de agentes que ejecutan acciones. Aunque se presenta naturalmente en varios contextos e.g., perfilar el comportamiento de un conjunto de usuarios de un sistema, SGC ha sido, acorde al conocimiento de los autores, ignorado. Nuestra demostración consiste en una reducción de Karp a partir del problema conocido como Longest Common Subsequence (LCS). Probamos también que un caso especial, al que llamamos 2-SGC, donde la comunalidad entre las acciones esta limitada a pares de agentes, sigue siendo NP-completo. Para probar 2-SGC, nuestra reducción parte del problema conocido como Hitting Set. Antes de concluir con el articulo, especulamos que la versión de optimización de SGC es NP-duro, dando indicaciones de como realizar la demostración necesaria. <![CDATA[<b>Model Counting in the 2</b><b><i>μ</i></b><b> -3MON Syntactic Class</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462013000400005&lng=pt&nrm=iso&tlng=pt El problema de conteo de modelos en formulas Booleanas es un problema #P-completo, es decir, no se conocen algoritmos deterministas en el modelo clásico de computabilidad (máquinas de Turing) que realice este conteo con complejidad en tiempo polinomial. La dificultad persiste aún imponiendo condiciones mas restrictivas sobre las clases sintácticas de fórmulas Booleanas. En este artículo presentamos una familia tratable dentro de la clase sintáctica 2μ-3MON. La identificación de esta familia se hace a travos del hipergrafo asociado a estructuras simples como cadenas y ciclos. Se identifican también operadores matriciales que actúan sobre estas estructuras; estos operadores conducen a algoritmos eficientes que efectúan el conteo de modelos sobre la familia identificada en tiempo lineal con respecto al número de clausulas de la fórmula instanciada, a diferencia de los métodos basados en invariantes hipergráficos (como el ancho de árbol) que realizan este conteo en tiempo cúbico.<hr/>The counting model problem in Boolean formulas is #P-complete, i.e., there is no known deterministic algorithm in the classical computability model (Turing machine) that makes this count in polynomial time. The difficulty persists even imposing more restrictive conditions on the syntactic classes of Boolean formulas. In this paper we present a treatable family within the syntactical class 2μ-3MON. The identification of this family is done by using the hypergraph associated with simple structures such as chains and cycles. Then, matrix operators acting over these structures are identified; these operators lead to efficient algorithms that perform the model counting on the identified family in linear time for the number of clauses in the instantiated formula; unlike hypergraphic invariant based methods (such as tree width), which perform the count in cubic time. <![CDATA[<b>A New Measure of Circularity Based on Distribution of the Radius</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462013000400006&lng=pt&nrm=iso&tlng=pt The measures most commonly used in current literature to compute the roundness of digital objects are derivations of the form factor based on area and perimeter computations. However, these measures are highly dependent on image resolution and sensitive to shape variations. In this article, a new measure is proposed. This measure takes into consideration the dominant geometry of objects, avoiding the use of such parameters as area, perimeter and Ferret's diameter. The proposed measure is easy to compute, and since it is a distribution of probability based on the radius, it is invariant to abrupt changes in contours or to shape resolution. In order to show the performance of this measure, it is compared with three other recently proposed measures: factor shape, which is recommended by the American Standard Test Measurement, mean roundness and radius ratio.<hr/>Las medidas de circularidad más utilizadas en la literatura actual para calcular la redondez de objetos digitales son derivaciones del factor de forma, que se basa en el área y perímetro. Sin embargo, estas medidas son altamente dependientes de la resolución de la imagen y sensibles a variaciones de forma. En este artículo se propone una nueva medida de circularidad que considera la geometría dominante de los objetos, evitando el uso de parámetros como área, perímetro y diámetro de Ferret. La medida propuesta tiene una complejidad computacional baja, y debido a que es basada en la distribución de probabilidad de los radios, no es afectada por cambios bruscos en los contornos o forma de resolución. Para mostrar el comportamiento de la medida, esta es comparada con otras tres medidas recientemente propuestas: factor de forma, la cual es recomendada por la medición de estándar americano de pruebas y materiales, redondez media y la relación de radio. <![CDATA[<b>Image Transform based on Alpha-Beta Associative Memories</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462013000400007&lng=pt&nrm=iso&tlng=pt En este artículo se presenta un método de memorias asociativas alfa-beta para imágenes (MAABI), que origina la transformada alfa-beta (TAB) para imágenes. Esta transformada se aplica a sub-bloques de una imagen en escala de grises y genera una memoria heteroasociativa alfa-beta en cada subbloque, a partir de una matriz de transformación dada con la transformada alfa-beta inversa (TABI) recuperamos los patrones de la imagen original. El proceso de compresión de datos se divide en tres fases: transformación, cuantificación y codificación; este modelo se enfoca en la transformación de la imagen para compararse con la transformada morfológica (TM), basada en las memorias asociativas morfológicas (MAM). Se utiliza la entropía de Shannon como medida de la cantidad de bits contenidos en cada imagen. La TM, al igual que métodos tradicionales, como la transformada discreta del coseno (DCT) o la transformada discreta wavelet (DWT), no ofrece compresión alguna de la imagen; por lo que una de las ventajas ofrecidas por la TAB es que la imagen transformada posee una menor entropía que la imagen original. Asimismo, la TAB ofrece rapidez en el procesamiento con un reducido número de operaciones elementales, tales como sumas, restas, máximos y mínimos.<hr/>In this paper, a new method of alphabeta associative memories for images (MAABI) is presented. This method results in the alpha-beta transform (TAB) for images. The alpha-beta transform presented in this paper is applied to sub-blocks of a gray-scale image and generates an alpha-beta heteroassociative memory on each sub-block using a given transformation matrix. By means of the inverse alpha-beta transform (TABI), the original image patterns are recovered. The data compression process is divided into three stages: transformation, quantization and coding. Our model is focused on image transformation; we compare it with the morphological transform (TM) based on the morphological associative memories (MAM). In order to measure the number of bits contained in an image, the Shannon's entropy is used. The TM, as well as such traditional transforming methods as the discrete cosine transform (DCT) and the discrete wavelet transform (DWT), cannot perform compression over an image; that is why the main advantage of the AB is a smaller value of the entropy measure of the transformed image compared to the entropy of the original image. In addition, TAB provides a faster processing with a small number of elementary operations such as addition, subtraction, maximum and minimum. <![CDATA[<b>Harmony Search Algorithm and its Use in Digital Image Processing</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462013000400008&lng=pt&nrm=iso&tlng=pt Métodos tradicionales de procesamiento de imagen presentan diferentes dificultades al momento de ser usados en imágenes que poseen ruido considerable y distorsiones. Bajo tales condiciones, el uso de técnicas de optimización se ha extendido en los últimos años. En este artículo se explora el uso del algoritmo de Búsqueda Armónica (BA) para el procesamiento digital de imágenes. BA es un algoritmo metaheurístico inspirado en la manera en que músicos buscan la armonía óptima en la composición musical, el cual ha sido empleado exitosamente para resolver problemas complejos de optimización. En este artículo se presenta dos problemas representativos del área de procesamiento digital de imágenes, como lo son: la detección de círculos y la estimación de movimiento, los cuales son planteados desde el punto de vista de optimización. Considerando este enfoque, en la detección de círculos se utiliza una combinación de tres puntos borde para codificar círculos candidatos. Utilizando las evaluaciones de una función objetivo (que determina si tales círculos están presentes en la imagen) el algoritmo de BA realiza una exploración eficiente hasta encontrar el circulo que mejor se aproxime a aquel contenido en la imagen (armonía óptima). Por otro lado, en la estimación de movimiento se utiliza el algoritmo de BA para encontrar el vector de movimiento que minimice la suma de diferencias absolutas entre bloques de dos imágenes consecutivas. Resultados experimentales muestran que las soluciones generadas son capaces de resolver adecuadamente los problemas planteados.<hr/>Classical methods often face big difficulties in solving image processing problems when images contain noise and distortions. For such images, the use of optimization approaches has been extended. This paper explores application of the Harmony Search (HS) algorithm to digital image processing. HS is a meta-heuristic optimization algorithm inspired by musicians improvising new harmonies while performing. In this paper, we consider two tasks as examples: circle detection and motion estimation, both issues are approached as optimization problems. In such approach, circle detection uses a combination of three edge points as parameters to construct candidate circles. A matching function determines if such candidate circles are actually present in a given image. In motion estimation, the HS algorithm is used to find a motion vector that minimizes the sum of absolute differences between two consecutive images. Experimental results show that the generated solutions are able to properly solve the problems under consideration. <![CDATA[<b>On Efficiency of Detection of Subpixel Targets with Hypothesis Dependent Structured Background Power</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462013000400009&lng=pt&nrm=iso&tlng=pt In this paper, matched detector (MD) and matched subspace detector (MSD) are studied when the structured background power is different under the null and the alternative hypotheses. The distributions of two test statistics are derived under these conditions. It has been analytically shown that these detectors can suffer a drastic degradation in performance for background power deviations under alternative hypothesis. We discuss the differences between the performances of these detectors in the case of the structured and unstructured backgrounds with uncorrelated Gaussian noise. The theoretical results are compared with simulated data and good agreement is reported. We present experimental results of small floating object detection on an agitated sea surface using spectral digital video experiments which validate the theoretical results.<hr/>El detector acoplado (MD) y el detector de subespacio acoplado (MSD) son estudiados cuando la potencia de fondo estructurado es diferente bajo las hipótesis alternativa y nula. Las distribuciones de las dos pruebas estadísticas son realizadas bajo las mismas condiciones. Ha sido analíticamente demostrado que esos dos detectores pueden sufrir una degradación drástica de su eficiencia para las desviaciones de la potencia de fondo bajo hipótesis alternativas. Se discuten las diferencias entre los rendimientos de esos detectores en el caso de fondos estructurados y no estructurados con ruido Gaussiano no correlacionado. Los resultados teóricos son comparados con los datos simulados y una buena concordancia es reportada. Se presentan resultados experimentales de la detección de objetos pequeños flotando en la superficie agitada del mar, usando el experimento del video digital espectral, que demuestra la validación de los resultados teóricos. <![CDATA[<b>Ontology-Driven Semantic Comparison between Geographic Data Sets</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462013000400010&lng=pt&nrm=iso&tlng=pt En este artículo se presenta una metodología para la comparación de conjuntos de datos geográficos (CDG) con un enfoque semántico. Esto se realiza a través de su representación conceptual, es decir, mediante ontologías. Se propone de esta forma debido a que la mayoría de las comparaciones que se realizan es a través de técnicas sintácticas y no a través de la semántica de los conceptos. La metodología se compone de cuatro etapas: conceptualización, en la cual se genera una ontología de aplicación, por medio de los metadatos de los CDG a comparar. La etapa es el enriquecimiento, utilizada para poblar la ontología con datos, con la finalidad de generar una ontología enriquecida por cada CDG a comparar. En la etapa de comparación, se implementa un conjunto de algoritmos para medir la similitud entre las propiedades y relaciones de las ontologías enriquecidas. Finalmente, la etapa de interpretación y representación se muestran los resultados obtenidos de la comparación. Como caso de estudio se realizó la comparación de CDGs proporcionados por dos instituciones públicas de México.<hr/>In this paper a methodology for making the comparison and assessment of geographic datasets (CDG) with a semantic approach is presented. It is carried out by means of the processing of conceptual representations, in a particular case with ontologies. It is important to mention that the most of works related to CDG comparison use syntactic approaches for the analysis, according to above we propose to change this focus with semantic approaches. The methodology is composed of four stages. Conceptualization, where by using metadata from the CDGs the application ontology is generated. The enrichment stage consists in populating the ontology with data in order to create an enriched ontology for each CDG to compare. At the comparison stage, a set of algorithms for measuring the similarity between the properties and relationships of the enriched ontologies is developed. Finally, the interpretation and representation stages are in charge of showing the results of the CDGs comparison. As a case study, two Mexican government institutions provided the CDGs in order to make the comparison and assessment. <![CDATA[<b>Handling the Multi-Class Imbalance Problem using ECOC</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462013000400011&lng=pt&nrm=iso&tlng=pt El problema del desbalance de clases puede producir un deterioro importante en la efectividad del clasificador, en particular con los patrones de las clases menos representadas. El desbalance en el conjunto de entrenamiento (CE) significa que una clase es representada por una gran cantidad de patrones mientras que otra es representada por muy pocos. Los estudios existentes se encuentran orientados principalmente a tratar problemas de dos clases, no obstante, un importante número de problemas reales se encuentran representados por múltiples clases, donde resulta más difícil su discriminación para el clasificador. El éxito de la Mezcla de Expertos (ME) se basa en el criterio de "divide y vencerás". En su funcionamiento general, el problema es dividido en fragmentos más pequeños que serán estudiados por separado. De este modo, el modelo general es poco influenciado por las dificultades individuales de sus componentes. La idea principal del estudio aquí mostrado, es construir una Mezcla de expertos cuyos miembros serán entrenados en una parte del problema general y de este modo, mejorar el rendimiento del clasificador en el contexto de múltiples clases. Para este fin, se hace uso de los métodos conocidos como Error-correcting output codes (ECOC), que permiten realizar una codificación en parejas de clases el problema de estudio. Resultados experimentales sobre conjuntos de datos reales, muestran la viabilidad de la estrategia aquí propuesta.<hr/>Imbalanced training sample means that one class is represented by a large number of examples while the other is represented by only a few. This problem may produce an important deterioration of the classifier performance, in particular with patterns belonging to the less represented classes. The majority of the studies in this area are oriented, mainly, to resolve problems with two classes. However, many real problems are represented by multiple classes, where it is more difficult to discriminate between them. The success of the Mixture of Experts (ME) strategy is based on the criterion of "divide and win". The general process divides the global problem into smaller fragments which will be studied separately. In this way, the general model has few influences of the individual difficulties (of their members). In this paper we propose a strategy for handling the class imbalance problem for data sets with multiple classes. For that, we integrate a mixture of experts whose members will be trained as a part of the general problem and, in this way, will improve the behavior of the whole system. For dividing the problem we employ the called Error-correcting output codes (ECOC) methods, when the classes are codified in pairs, which are considered for training the mixture of experts. Experiments with real datasets demonstrate the viability of the proposed strategy. <![CDATA[<b>3D Modeling of the Mexican Sign Language for a Speech-to-Sign Language System</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462013000400012&lng=pt&nrm=iso&tlng=pt There are many people with communication impairments, deafness being one of the most common of them. Deaf people use Sign Language (SL) to communicate, and translation systems (Speech/Text-to-SL) have been developed to assist such communication. However, since SLs are dependent of countries and cultures, there are differences between grammars, vocabularies, and signs, even if these come from places with similar spoken languages. In Mexico, work in this field is very limited, so any development must consider the characteristics of the Mexican-Sign-Language (MSL). In this paper, we present a new approach to creating a Mexican Speech-to-SL system, integrating 3D modeling of the MSL with a multi-user Automatic Speech Recognizer (ASR) with dynamic adaptation. The 3D models (avatar) were developed by means of motion capture of a MSL performer. Kinect was used as a 3D sensor for the motion capture process, and DAZ Studio 4 was used for its animation. The multi-user ASR was developed using the HTK and Matlab as the programming platform for a Graphical User Interface (GUI). Experiments with a vocabulary set of 199 words were performed to validate the system. An accuracy of 96.2% was achieved for the ASR and interpretation into MSL of 70 words and 20 spoken sentences. The 3D avatar presented clearer realizations than those of standard video recordings of a human MSL performer.<hr/>Hay muchas personas con problemas para comunicarse, siendo la sordera una de las más comunes. Personas con este problema hacen uso de Lenguaje de Señas (LSs) para comunicarse, y sistemas de traducción (Voz/Texto-a-LS) se han desarrollado para asistir a esta tarea. Sin embargo, porque los LSs son dependientes de países y culturas, hay diferencias entre gramáticas, vocabularios y señas, incluso si estos provienen de lugares con lenguajes hablados similares. En México, el trabajo es muy limitado en este campo, y cualquier desarrollo debe considerar las características del Lenguaje de Señas Mexicano (LSM). En este artículo, presentamos nuestro enfoque para un sistema de Voz-a-LS Mexicano, integrando el modelado 3D del LSM con un Reconocedor Automático de Voz (RAV) multi-usuario con adaptación dinámica. Los modelos 3D (avatar) fueron desarrollados por medio de captura de movimiento de un signante del LSM. Kinect fue usado como un sensor 3D para el proceso de captura de movimiento, y DAZ Studio 4 fue usado para su animación. El RAV multi-usuario fue desarrollado usando HTK y Matlab fue la plataforma de programación para la Interfaz Gráfica de Usuario (GUI). Experimentos con un vocabulario de 199 palabras fueron realizados para validar el sistema. Una precisión del 96.20% fue obtenida para el RAV e interpretación en vocabulario del LSM de 70 palabras y 2o frases habladas. Las realizaciones del avatar 3D fueron más claras que aquellas de grabaciones de video de un signante humano del LSM. <![CDATA[<b>Analog Processing based on Quasi-Infinite Resistors</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462013000400013&lng=pt&nrm=iso&tlng=pt El presente trabajo propone una técnica para diseñar, a partir de elementos altamente resistivos, circuitos integrados CMOS analógicos tales como amplificadores compensados en offset, filtros sintonizables de baja frecuencia, espejos de corriente programables y generadores de funciones de membresía. La técnica propuesta incorpora transistores operando en la región de inversión débil para reducir los requerimientos de área y las contribuciones de offset, así como para reducir las componentes de ruido y distorsión, mejorando el compromiso exactitud-velocidad-potencia. Éstas características permiten facilitar el acondicionamiento de señales de baja frecuencia y habilitar el diseño de dispositivos con sintonización multidécada de ganancia y frecuencia. Por otro lado, los circuitos propuestos son atractivos para la implementación analógica de arquitecturas reservadas al ámbito digital, tales como filtros adaptables y sistemas difusos, por mencionar algunos, así como dispositivos de procesamiento y acondicionamiento de señal de alta eficiencia. Se reportan caracterizaciones a partir de simulaciones, mediciones y análisis estadísticos de prototipos diseñados con una tecnología CMOS de 0.5|im de largo de canal, dos capas de polisilicio y tres capas de metal. Los resultados obtenidos concuerdan con aquellos anticipados en el diseño de los circuitos.<hr/>This work proposes a technique for design of CMOS analog integrated circuits such as offset compensated amplifiers, low-frequency filters, programmable current mirrors and membership function generators, based on high-value (quasi-infinite) resistors. The proposed technique incorporates transistors operating in weak-inversion mode in order to reduce the area requirements and minimize the DC-offset. In addition, improvement on both, noise performance and linearity, are achieved along with an enhanced speed-accuracy-power tradeoff. Those features make easier the processing of low-frequency signals and allow the design of systems with multi-decade tunability of gain and frequency. The presented circuits are attractive for implementation of high-accuracy processors for signal conditioning as well as architectures usually reserved to digital approaches, for instance neural networks, adaptive filters, and neuro-fuzzy systems, to mention a few. Characterization through computer simulations, statistical analysis and experimental measurements of prototypes in a double-poly, three metal layers, 0.5pm CMOS technology are reported. The attained results follow the course anticipated in the design of the circuits. <![CDATA[<b>A New Service-Based Approach for Enterprise Modeling</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462013000400014&lng=pt&nrm=iso&tlng=pt At present, there exist many modeling techniques for capturing business semantics from different perspectives: transactional, goal-oriented, aspect-oriented, value-oriented, etc. The results of these modeling techniques serve as natural input for the software system generation process. However, none of these current modeling proposals takes into account the service nature of most business organizations and/or the growing importance of service orientation in computing. In this paper we present a solution to this problem: a new business service-oriented modeling approach which extends the i* framework. The proposed approach enables analysts to represent an organizational model as a composition of business services, where business services are the basic building blocks to encapsulate a set of business process models. In these models, actors participate in actor dependency networks through interfaces defined in a business service specification. Our proposal is illustrated by several real life examples.<hr/>Actualmente existen muchas técnicas de modelado para capturar la semántica de un negocio desde muy diferentes perspectivas: transaccional, orientada a metas, orientada a aspectos, orientada al valor, etc. Los resultados de estas técnicas de modelado son la entrada natural para el proceso de generación de sistemas de información. Sin embargo, ninguna de estas propuestas de modelado actuales representa la naturaleza orientada a servicios de muchas organizaciones, y tampoco reconocen el crecimiento de la orientación a servicios en computación. En este artículo se propone, como solucion al problema planteado, un nuevo enfoque de modelo organizacional orientado a servicios de negocios, el cual extiende el framework de modelado i* . El enfoque de modelado propuesto permite al analista representar un modelo organizacional como una composición de servicios de negocio, lo cuales son los elementos básicos que encapsulan un conjunto de modelos de procesos de negocio. En estos modelos propuestos, los actores participan en las redes de dependencias de actores a traves de interfaces definidas en la especificación de cada servicio de negocio. La propuesta es ilustrada a traves de ejemplos reales. <![CDATA[<b>Generative Manifold Learning</b> <b>for the Exploration of Partially Labeled Data</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462013000400015&lng=pt&nrm=iso&tlng=pt In many real-world application problems, the availability of data labels for supervised learning is rather limited and incompletely labeled datasets are commonplace in some of the currently most active areas of research. A manifold learning model, namely Generative Topographic Mapping (GTM), is the basis of the methods developed in the thesis reported in this paper. A variant of GTM that uses a graph approximation to the geodesic metric is first defined. This model is capable of representing data of convoluted geometries. The standard GTM is here modified to prioritize neighbourhood relationships along the generated manifold. This is accomplished by penalizing the possible divergences between the Euclidean distances from the data points to the model prototypes and the corresponding geodesic distances along the manifold. The resulting Geodesic GTM (Geo-GTM) model is shown to improve the continuity and trustworthiness of the representation generated by the model, as well as to behave robustly in the presence of noise. We then proceed to define a novel semi-supervised model, SS-Geo-GTM, that extends Geo-GTM to deal with semi-supervised problems. In SS-Geo-GTM, the model prototypes obtained from Geo-GTM are linked by the nearest neighbour to the data manifold. The resulting proximity graph is used as the basis for a class label propagation algorithm. The performance of SS-Geo-GTM is experimentally assessed via accuracy and Matthews correlation coefficient, comparing positively with an Euclidean distance-based counterpart and the alternative Laplacian Eigenmaps and semi-supervised Gaussian mixture models.<hr/>En muchos problemas aplicados del mundo real, la disponibilidad de etiquetas de los datos para el aprendizaje supervisado es bastante limitada y los conjuntos de datos etiquetados incompletamente son habituales en algunas de las áreas de investigación actualmente mas activas. Un modelo de aprendizaje de variedades, el Mapeo Topográfico Generativo (GTM como acrónimo del nombre en inglés), es la base de los métodos desarrollados en la tesis reportada en este artículo. Se define en primer lugar una extensión de GTM que utiliza una aproximacion de grafos para la métrica geodésica. Este modelo es capaz de representar datos de geometría intrincada. El GTM estándar se modifica aquí para priorizar relaciones de vecindad a lo largo de la variedad generada. Esto se logra penalizando las divergencias posibles entre las distancias euclideanas de los puntos de datos a los prototipos del modelo y las distancias geodésicas correspondientes a lo largo de la variedad. Se muestra aquí que el modelo GTM geodésico (Geo-GTM) resultante mejora la continuidad y la fiabilidad de la representacion generada por el modelo, al igual que se comporta robustamente en presencia de ruido. Después, procedemos a definir un modelo semi-supervisado novedoso, SS-Geo-GTM, que extiende Geo-GTM para tratar problemas semi-supervisados. En SS-Geo-GTM, los prototipos del modelo obtenidos de Geo-GTM son vinculados mediante el vecino mas cercano a la variedad de datos. El grafo de proximidad resultante se utiliza como la base para un algoritmo de propagación de etiquetas de clase. El rendimiento de SS-Geo-GTM se evalúa experimentalmente a travos de las medidas de exactitud y el coeficiente de correlación de Matthews, comparando positivamente con una contraparte basada en la distancia euclideana y con los modelos alternativos de Eigenmapas Laplacianos y mezclas de Gaussianas semi-supervisadas.