Scielo RSS <![CDATA[Computación y Sistemas]]> http://www.scielo.org.mx/rss.php?pid=1405-554620140002&lang=pt vol. 18 num. 2 lang. pt <![CDATA[SciELO Logo]]> http://www.scielo.org.mx/img/en/fbpelogp.gif http://www.scielo.org.mx <![CDATA[<b>Editorial</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462014000200001&lng=pt&nrm=iso&tlng=pt <![CDATA[<b>A KKT Simplex Method for Efficiently Solving Linear Programs for Grasp Analysis Based on the Identification of Nonbinding Constraints</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462014000200002&lng=pt&nrm=iso&tlng=pt A one-phase efficient method to solve linear programming (LP) problems for grasp analysis of robotic hands is proposed. Our method, named as KKT Simplex method, processes free variables directly while choosing the entering and leaving variables, which makes it a one-phase method able to start at any point of the set of feasible solutions. Besides, the proposed method lowers the number of simplex steps by an angular pricing strategy to choose the entering variable. Moreover, the method reduces the size of an LP problem by the identification of nonbinding constraints that preserves the Karush-Kuhn-Tucker (KKT) cone. We developed the KKT Simplex method by incorporating to the well-known revised simplex method the following components: a method to process free variables, a pricing strategy, and an identification method. We solve LP problems of grasp analysis to test the efficiency and the one-phase nature of the proposed method.<hr/>Se propone un método eficiente de una fase para resolver problemas de programación lineal (LP) para análisis de la sujeción por manos robóticas. El método, nombrado como método Simplex KKT, procesa variables libres directamente mientras selecciona las variables entrante y saliente, lo que lo convierte en un método de una fase que es capaz de iniciar en cualquier punto del conjunto de soluciones factibles. Además, el método disminuye el número de pasos simplex por una estrategia angular de costo para seleccionar la variable entrante. Aún más importante, el método reduce el tamaño del problema LP por identificación de restricciones no atadas que preserva el cono Karush-Kuhn-Tucker (KKT). Desarrollamos el método Simplex KKT por la incorporación al bien conocido método simplex revisado de los siguientes componentes: un método para procesar variables libres, una estrategia de costo, y un método de identificación. Resolvemos problemas LP de análisis de la sujeción para probar la eficiencia y la naturaleza de una fase del método propuesto. <![CDATA[<b>An Adaptive Random Search for Unconstrained Global Optimization</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462014000200003&lng=pt&nrm=iso&tlng=pt Adaptive Gibbs Sampling (AGS) algorithm is a new heuristic for unconstrained global optimization. AGS algorithm is a population-based method that uses a random search strategy to generate a set of new potential solutions. Random search combines the one-dimensional Metropolis-Hastings algorithm with the multidimensional Gibbs sampler in such a way that the noise level can be adaptively controlled according to the landscape providing a good balance between exploration and exploitation over all search space. Local search strategies can be coupled to the random search methods in order to intensify in the promising regions. We have performed experiments on three well known test problems in a range of dimensions with a resulting testbed of 33 instances. We compare the AGS algorithm against two deterministic methods and three stochastic methods. Results show that the AGS algorithm is robust in problems that involve central aspects which is the main reason of global optimization problem difficulty including high-dimensionality, multi-modality and non-smoothness.<hr/>El algoritmo del Muestreador Adaptivo de Gibbs (MAG) es una nueva heurística para la optimización global irrestricta. El algoritmo MAG es un método basado en poblaciones que utiliza una estrategia de búsqueda aleatoria para generar un nuevo conjunto de soluciones potenciales. La búsqueda aleatoria combina el algoritmo unidimensional de Metrópolis-Hastings con el multidimensional muestreador de Gibbs, de tal manera que el nivel de ruido se puede controlar adaptativamente de acuerdo al panorama de la función. Existe un buen equilibrio entre la exploración y la explotación en todo el espacio de búsqueda. Una estrategia de búsqueda local puede acoplarse a la búsqueda aleatoria con el fin de intensificar en las regiones prometedoras. Los experimentos se desarrollaron sobre tres problemas conocidos en un rango de dimensiones, con un banco de prueba resultante de 33 instancias. El algoritmo MAG se comparó contra dos métodos deterministas y tres métodos estocásticos. Los resultados muestran que el algoritmo MAG es robusto en problemas que involucran aspectos centrales que determinan principalmente la dificultad de los problemas de optimización global, es decir, de alta dimensionalidad, multimodalidad y la no suavidad. <![CDATA[<b>Two-Degrees-of-Freedom Robust PID Controllers Tuning Via a Multiobjective Genetic Algorithm</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462014000200004&lng=pt&nrm=iso&tlng=pt In this paper, a design methodology for a proportional integral derivative (PID) control design is presented by means of the statement of a multiobjective optimization problem (MOP). Two-degrees-of-freedom controller (PID-ISA) is used. The objective functions are deployed considering a set point response, load disturbances and robustness to model uncertainty as its components. The time constant of measurement noise filter is a component of the vector of decision variables. The optimization problem is solved by means of a genetic algorithm.<hr/>En este artículos e presenta una metodología de diseño de controladores PID (Proporcional, Integral y Derivativo), de dos grados de libertad mediante el planteamiento de un problema de optimización multiobjetivo. Las funciones objetivo propuestas consideran entre otros: respuesta de referencia al escalón, perturbación de carga y robustez ante incertidumbre en el modelado. También se incluye un filtro para minimizar el ruido de medición y la constante de tiempo se incluye en el vector de variables de decisión. El problema de optimización se resuelve con un algoritmo genético. <![CDATA[<b>Feature Selection for Microarray Gene Expression Data Using Simulated Annealing Guided by the Multivariate Joint Entropy</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462014000200005&lng=pt&nrm=iso&tlng=pt Microarray classification poses many challenges for data analysis, given that a gene expression data set may consist of dozens of observations with thousands or even tens of thousands of genes. In this context, feature subset selection techniques can be very useful to reduce the representation space to one that is manageable by classification techniques. In this work we use the discretized multivariate joint entropy as the basis for a fast evaluation of gene relevance in a Microarray Gene Expression context. The proposed algorithm combines a simulated annealing schedule specially designed for feature subset selection with the incrementally computed joint entropy, reusing previous values to compute current feature subset relevance. This combination turns out to be a powerful tool when applied to the maximization of gene subset relevance. Our method delivers highly interpretable solutions that are more accurate than competing methods. The algorithm is fast, effective and has no critical parameters. The experimental results in several public-domain microarray data sets show a notoriously high classification performance and low size subsets, formed mostly by biologically meaningful genes. The technique is general and could be used in other similar scenarios.<hr/>La clasificación de microarreglos plantea muchos desafíos para el análisis de datos, dado que un conjunto de datos de expresión de genes puede contener docenas de observaciones con miles o incluso decenas de miles de genes. En este contexto, las técnicas de selección de subconjuntos de características pueden ser muy útiles para reducir el espacio de representación a uno manejable mediante técnicas de clasificación. En este trabajo se utiliza la entropía conjunta discretizada multivariada como base para la evaluación rápida de la relevancia de genes en el contexto de expresión génica mediante microarreglos. El algoritmo propuesto desarrolla una técnica de recocido simulado diseñada especialmente para la selección de subconjuntos de características, a través de la entropía conjunta. Esta es calculada incrementalmente, reutilizando los valores anteriores para calcular la relevancia de los subconjuntos de características. Esta combinación resulta ser una herramienta poderosa cuando se aplica a la maximización de la relevancia de un subconjunto de genes. Nuestro método ofrece soluciones altamente interpretables y más precisas que las propuestas por métodos competidores. El algoritmo propuesto es rápido, eficaz y no presenta parámetros críticos. Los resultados de los experimentos con varios conjuntos de datos de microarreglos de dominio público revelan alto rendimiento de clasificación y subconjuntos de pequeño tamaño, formados en su mayoría por genes biológicamente significativos. La técnica es general y podría ser utilizada en otros escenarios similares. <![CDATA[<b>Attribute and Case Selection for NN Classifier through Rough Sets and Naturally Inspired Algorithms</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462014000200006&lng=pt&nrm=iso&tlng=pt Supervised classification is one of the most active research fields in the Artificial Intelligence community. Nearest Neighbor (NN) is one of the simplest and most consistently accurate approaches to supervised classification. The training set preprocessing is essential for obtaining high quality classification results. This paper introduces an attribute and case selection algorithm using a hybrid Rough Set Theory and naturally inspired approach to improve the NN performance. The proposed algorithm deals with mixed and incomplete, as well as imbalanced datasets. Its performance was tested over repository databases, showing high classification accuracy while keeping few cases and attributes.<hr/>La clasificación supervisada constituye una de las áreas de investigación más activas dentro de la Inteligencia Artificial. La regla del vecino más cercano (NN) es una de las más simples y efectivas para la clasificación supervisada. El pre-procesamiento del conjunto de entrenamiento es esencial para obtener clasificaciones de alta calidad. En este artículo se introduce un nuevo algoritmo de selección de atributos y casos que utiliza un enfoque híbrido basado en los Conjuntos Aproximados y los algoritmos inspirados en la naturaleza para mejorar el desempeño de clasificadores NN. El algoritmo propuesto permite el manejo de conjuntos de datos mezclados, incompletos, y no balanceados. El desempeño de dicho algoritmo se analizó utilizando bases de datos de repositorio, mostrando una alta eficacia del clasificador, utilizando solamente pocos casos y atributos. <![CDATA[<b>Efficiently Finding the Optimum Number of Clusters in a Dataset with a New Hybrid Cellular Evolutionary Algorithm</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462014000200007&lng=pt&nrm=iso&tlng=pt A challenge in hybrid evolutionary algorithms is to employ efficient strategies to cover all the search space, applying local search only in actually promising search areas; on the other hand, clustering algorithms, a fundamental base for data mining procedures and learning techniques, suffer from the lack of efficient methods for determining the optimal number of clusters to be found in an arbitrary dataset. Some existing methods use evolutionary algorithms with cluster validation index as the objective function. In this article, a new cellular evolutionary algorithm based on a hybrid model of global and local heuristic search is proposed for the same task, and extensive experimentation is done with different datasets and indexes.<hr/>Un reto actual en el área de algoritmos evolutivos híbridos es el empleo eficiente de estrategias para cubrir la totalidad del espacio de búsqueda usando búsqueda local solo en las regiones prometedoras. Por otra parte, los algoritmos de agrupamiento, fundamentales para procesos de minería de datos y técnicas de aprendizaje, carecen de métodos eficientes para determinar el número óptimo de grupos a formar a partir de un conjunto de datos. Algunos de los métodos existentes hacen uso de algunos algoritmos evolutivos, así como una función para validación de agrupamientos como su función objetivo. En este artículo se propone un nuevo algoritmo evolutivo celular, para abordar dicha tarea. El algoritmo propuesto está basado en un modelo híbrido de búsqueda, tanto global como local y tras presentarlo se prueba con una estensa experimentación sobre diferentes conjuntos de datos y diferentes funciones objetivo. <![CDATA[<b>Unsupervised Learning for Syntactic Disambiguation</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462014000200008&lng=pt&nrm=iso&tlng=pt We present a methodology framework for syntactic disambiguation in natural language texts. The method takes advantage of an existing manually compiled non-probabilistic and non-lexicalized grammar, and turns it into a probabilistic lexicalized grammar by automatically learning a kind of subcategorization frames or selectional preferences for all words observed in the training corpus. The dictionary of subcategorization frames or selectional preferences obtained in the training process can be subsequently used for syntactic disambiguation of new unseen texts. The learning process is unsupervised and requires no manual markup. The learning algorithm proposed in this paper can take advantage of any existing disambiguation method, including linguistically motivated methods of filtering or weighting competing alternative parse trees or syntactic relations, thus allowing for integration of linguistic knowledge and unsupervised machine learning.<hr/>Se presenta un marco metodológico para la desambiguación sintáctica de textos en lenguaje natural. El método se aprovecha de una gramática no probabilística y no lexicalizada existente compilada manualmente, y la convierte en una gramática lexicalizada probabilística a través del aprendizaje automático de una especie de los marcos de subcategorización o preferencias de selección para todas las palabras observadas en el corpus de entrenamiento. El diccionario de los marcos de subcategorización o preferencias de selección, obtenido en el proceso de entrenamiento, se puede utilizar posteriormente para la desambiguación sintáctica de nuevos textos no vistos previamente por el algoritmo. El proceso de aprendizaje es no supervisado y no requiere de marcaje manual alguno. El algoritmo de aprendizaje propuesto en este artículo se puede aprovechar de cualquier método de desambiguación existente, incluyendo métodos lingüísticamente motivados, para la filtración o ponderación de los árboles sintácticos alternativos o relaciones sintácticas alternativas, lo que permite la integración del conocimiento lingüístico y el aprendizaje automático no supervisado. <![CDATA[<b>A Gaussian Selection Method for Speaker Verification with Short Utterances</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462014000200009&lng=pt&nrm=iso&tlng=pt Speaker recognition systems frequently use GMM-MAP method for modeling speakers. This method represents the speaker using a Gaussian mixture. However, in this mixture not all Gaussian components are truly representative of the speaker. In order to remove the model redundancy, this work proposes a Gaussian selection method to achieve a new GMM model only with the more representative Gaussian components. The results of speaker verification experiments applying the proposal show a similar performance to the baseline; however, the speaker models used have a reduction of 80% compared to the speaker model used as the baseline. Our proposal was also applied to speaker recognition system with short test signals of 15, 5 and 3 seconds obtaining an improvement in EER of 0.43%, 2.64% and 1.60%, respectively, compared to the baseline. The application of this method in real or embedded speaker verification systems could be very useful for reducing computational and memory cost.<hr/>Los sistemas de reconocimiento de locutores con frecuencia utilizan el método GMM-MAP para modelar locutores. Sin embargo, en estos modelos no todas las componentes gaussianas son representativas del locutor. Con el fin de eliminar dicha redundancia, proponemos un método de selección de gaussianas obteniendo un nuevo modelo con las componentes gaussianas más representativas. Los resultados experimentales muestran un rendimiento similar a la línea de base, no obstante los modelos obtenidos presentan una reducción del 80% respecto al modelo del locutor utilizado en la línea base. Los métodos propuestos son aplicados sobre señales de prueba más cortas, 15, 5 y 3 segundos; mejorando el EER de 0,43%, 2,64% y 1,60% respectivamente en comparación con la línea base. La aplicación del método propuesto en sistemas reales de verificación podría ser muy útil para reducir el costo computacional y la carga en memoria. <![CDATA[<b>Enrichment of Learner Profile with Ubiquitous User Model Interoperability</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462014000200010&lng=pt&nrm=iso&tlng=pt Nowadays, there is a constant need of acquiring new knowledge and skills to keep up with the demands of changing environment. The design and development of training and educational systems that enable effective personalized learning help obtaining changing skills and fill competence gaps. The computational effort to create a user model that represents user's knowledge, characteristics, interests, goals, background and preferences is repeatedly done by many systems and applications in several domains. Each system ends up with a partial view of the user. Researchers in user modeling foresee the need of sharing and reusing user model information in order to obtain a better understanding of the user and be able to provide personalized and proactive services. In this paper we present an application scenario of sharing and reusing information scattered in most commonly used applications to enhance learner profiles.<hr/>En la actualidad hay una necesidad constante de adquirir nuevo conocimiento y habilidades para cubrir las demandas de un ambiente cambiante. El diseño y desarrollo de sistemas educacionales y de entrenamiento que permitan un aprendizaje efectivo y personalizado, ayuda a obtener habilidades cambiantes y llenar las brechas de competencia. El esfuerzo computacional para crear un modelo de usuario que represente el conocimiento, características, intereses, metas, antecedentes y preferencias del usuario es realizado repetidamente por varios sistemas y aplicaciones de diferentes dominios. Cada sistema termina con un conocimiento parcial del usuario. Investigadores del área de modelado de usuario visualizan la necesidad de compartir y reusar la información de los modelos de usuario para obtener un mejor entendimiento del usuario y proveer servicios de manera personalizada y proactiva. En este artículo presentamos un escenario de aplicación para compartir y reusar información esparcida en las aplicaciones más comúnmente usadas con el fin de enriquecer perfiles del estudiante. <![CDATA[<b>Standardization of the Processes Associated with the Development of Informatics Projects</b>: <b>a Case Study</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462014000200011&lng=pt&nrm=iso&tlng=pt Durante los últimos años la industria del software ha experimentado un gran crecimiento, junto a una mayor exigencia de los clientes y usuarios respecto de las prestaciones y calidad de sus productos. Esto ha generado necesidades crecientes de las empresas por incorporar estándares de calidad en sus procesos. La contribución de este trabajo es presentar una propuesta que ayude a estandarizar los procesos asociados al desarrollo de los proyectos informáticos pertenecientes a una empresa de servicios, a partir del uso de estándares y buenas prácticas de la industria del software. La propuesta analiza, clasifica y discrimina los tipos de proyectos, requerimientos y recursos necesarios para los proyectos que enfrenta la empresa. Los resultados de la evaluación inicial de esta propuesta muestran que ha tenido efectos positivos sobre la calidad del producto final y satisfacción de sus clientes internos.<hr/>In recent years the software industry has experienced tremendous growth, with a greater demand from customers and users regarding the performance and quality of their products. This has led to growing business needs to incorporate quality standards in its processes. The contribution of this paper is to present a proposal to help standardize processes associated with the development of IT projects belonging to a service company, from the use of standards and best practices in the software industry. The proposal analyzes, classifies and discriminates by project types, requirements and resources needed for the kind of projects that faces the company. The initial results show positive effects on product quality and satisfaction of its internal customers. <![CDATA[<b>Internal State Identification for Black Box Systems</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462014000200012&lng=pt&nrm=iso&tlng=pt In digital filter theory, the identification process describes internal dynamic states based on a reference system, commonly known as a black box. The identification process as a function of: a) transition function, b) identified delayed states, c) gain function which depends on convergence correlation error, and d) an innovation process based on the error described by the differences between the output reference system and the identification result. Unfortunately, in the black box concept, the exponential transition function considers the unknown internal parameters. This means that the identification process does not operate correctly because its transition function has no access to the internal dynamic gain. An approximation for solving this problem includes the estimation in the identification technique. This paper presents an estimation for a "single input single output" (SISO) system with stationary properties applied to internal state identification.<hr/>En teoría de filtro digital, el proceso de identificación describe los estados internos del sistema de referencia comúnmente conocido como caja negra. El proceso de identificación está en función de: a) la función de transición, b) los estados identificados retardados, c) la función de ganancia descrita por el error de correlación y, d) por el proceso de innovación basado en el error descrito por las diferencias entre el sistema de referencia de salida y el resultado de la identificación. Desafortunadamente, con respecto a la caja negra, la función de transición considera a un exponencial con los parámetros internos desconocidos. Esto significa que el proceso de identificación no es posible desarrollarlo adecuadamente debido a que su función de transición no tiene acceso a esos parámetros. Una aproximación para resolver este problema es usar una técnica de estimación. En este trabajo se presenta la estimación para un sistema con una sola entrada y una salida (UEUS o en sus siglas en inglés SISO) con propiedades estacionarias, aplicado dentro de un identificador para describir el estado interno del sistema de referencia. <![CDATA[<b>Trajectory Tracking for Chaos Synchronization via PI Control Law</b> <b>between Roosler-Chen</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462014000200013&lng=pt&nrm=iso&tlng=pt This paper presents an application of adaptive neural networks based on a dynamic neural network to trajectory tracking of unknown nonlinear plants. The main methodologies on which the approach is based are recurrent neural networks and Lyapunov function methodology and Proportional-Integral (PI) control for nonlinear systems. The proposed controller structure is composed of a neural identifier and a control law defined by using the PI approach. The new control scheme is applied via simulations to Chaos Synchronization. Experimental results have shown the usefulness of the proposed approach for Chaos Production. To verify the analytical results, an example of a dynamical network is simulated and a theorem is proposed to ensure tracking of the nonlinear system.<hr/>Este artículo presenta la aplicación de redes neuronales adaptables, basada sobre una red neuronal dinámica, para seguimiento de trayectorias de plantas no lineales desconocidas. La principal metodología, sobre el cual la aproximación es basada, son redes neuronales recurrentes, metodología de las funciones de Lyapunov y control Proporcional-Integral (PI) para sistemas no lineales. La estructura del controlador propuesto es compuesta de un identificador neuronal y una ley de control definida usando la aproximación PI. El nuevo esquema de control es aplicado vía simulación para sincronización de caos. Resultados experimentales han mostrado la utilidad del enfoque propuesto para la producción de caos. Para verificar el resultado analítico, un ejemplo de una red dinámica es simulado y un teorema es propuesto para asegurar el seguimiento del sistema no lineal. <![CDATA[<b>Sliding Mode Control Applied to a Mini-Aircraft Pitch Position Model</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462014000200014&lng=pt&nrm=iso&tlng=pt Normally, mini-aircraft must be able to perform tasks such as aerial photography, aerial surveillance, remote fire and pollution sensing, disaster areas, road traffic and security monitoring, among others, without stability problems in the presence of many bounded perturbations. The dynamical model is affected by blast perturbations. Based on this, it is possible to design, evaluate and compare the real result with respect to pitch control law based on reference trajectory in the presence of external disturbances (blasts) or changes in the aircraft controller model. The model has non-linear properties but, with soft perturbations through the aircraft trajectory, allows a linear description without losing its essential properties. The Laplace description is a transfer function that works to develop the state space, with unknown invariant parameters using a wind tunnel. Control law is based on a feedback sliding mode with decoupled disturbances, and the output result is compared with the real pitch position measured in the real system. The control law applied to the system has a high convergence performance.<hr/>Comúnmente un avión pequeño debe ser capaz de realizar tareas tales como la de fotografía aérea, vigilancia, detección de incendios a distancia, detectar los niveles de contaminación, monitorear las zonas de desastre, ver el tránsito y brindar seguridad a través de la video-vigilancia, entre otras aplicaciones considerando que no tiene problemas de estabilidad en presencia de perturbaciones acotadas. El modelo dinámico de esa aeronave se ve afectado por las perturbaciones, y que con base en ellas fue posible diseñar un controlador por modos deslizantes. Aplicable a los diferentes movimientos longitudinales que hace hacia arriba o hacia abajo con respecto a la trayectoria de referencia, el modelo de avión tiene propiedades no lineales; pero con perturbaciones suaves a través de su trayectoria; lo que permite una descripción lineal sin perder muchas de sus propiedades esenciales. La descripción de Laplace permitió obtener su función de transferencia y así desarrollar el espacio de estados, con parámetros invariantes y desconocidos. Los cuales fueron descritos utilizando un túnel de viento. La ley de control se basó en la técnica de modos deslizantes con perturbaciones desacopladas. Sus resultados se compararon con el movimiento de cabeceo medido dentro de la aeronave. La ley de control aplicada al sistema real tuvo un desempeño con alta convergencia. <![CDATA[<b>Laws Governing in Mexico for Computer Programs, Data Bases and Documentation</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462014000200015&lng=pt&nrm=iso&tlng=pt Los usos y costumbres en nuestro país nos marcan frecuentemente las normas que debemos aplicar en nuestras prácticas profesionales, sin embargo muchas veces no se acercan a la realidad o a las leyes vigentes en México. La vida profesional de un desarrollador de programas de cómputo (software), bases de datos e información tiene muchos retos que superar, uno de ellos es el de desempeñarse dentro de la Ética "el deber ser" y el Derecho "el respeto a la ley". Entrando al tema del Derecho, uno de sus preceptos básicos es "El desconocimiento de una ley no te exime de ella". Significa entonces que es necesario conocer las leyes federales vigentes relacionadas con la informática para poder desempeñarse como un profesional. En este artículo comentaremos la Ley Federal del Derecho de Autor, la Ley Federal de la Propiedad Industrial y el Código Penal Federal relacionadas con el auge tecnológico que estamos viviendo, las licencias y patentes.<hr/>Mexican customs and practices often influence the rules we must apply in our professional activities, but quite often those customs and practices are far from reality or Mexico laws. The professional life of a developer of computer programs (software), data and information bases has many challenges to overcome, one of which is to remain within the ethics of "ought" and to apply the principle "respect for the law." Tackling the issue of law, one of its basic tenets is "ignorance of the law does not exempt you from it." This means that we need to know the federal laws related to computer professionals. In this article we discuss the Federal Copyright Law, the Federal Law of Industrial Property and the Federal Criminal Code relating to the technology boom we are experiencing as well as to licensing and patents.