Scielo RSS <![CDATA[Ingeniería, investigación y tecnología]]> http://www.scielo.org.mx/rss.php?pid=1405-774320140002&lang=pt vol. 15 num. 2 lang. pt <![CDATA[SciELO Logo]]> http://www.scielo.org.mx/img/en/fbpelogp.gif http://www.scielo.org.mx <![CDATA[<b>Conceptual Model of Dynamic Geographic Environment</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-77432014000200001&lng=pt&nrm=iso&tlng=pt En los entornos geográficos hay muchos y diferentes tipos de entidades geográficas, como automóviles, árboles, personas, edificios, tormentas, huracanes, etcétera. Estas entidades se clasifican en dos grandes grupos: objetos geográficos y fenómenos geográficos. Por su naturaleza, un entorno geográfico es dinámico, por lo que el modelado de forma estática no es suficiente. Al considerar que los entornos geográficos son dinámicos aparece un nuevo tipo de entidad llamado evento. El propósito de realizar un modelado de este tipo, el cual considere eventos, se debe a que las relaciones semánticas que se pueden obtener son más ricas que en modelos que no lo hacen. En este artículo se presenta la conceptualización de este modelo, el cual está basado en tratar a cada entidad como una sola y por medio de la unión de las historias de cada una de ellas y relaciones entre estas, formar la descripción de todo un entorno geográfico dinámico completo. El principal objetivo es el poder modelar sistemas a nivel conceptual que hagan uso de información espacial y temporal, para que posteriormente sirva como el motor semántico para dichos sistemas.<hr/>In geographic environments, there are many and different types of geographic entities such as automobiles, trees, persons, buildings, storms, hurricanes, etc. These entities can be classified into two groups: geographic objects and geographic phenomena. By its nature, a geographic environment is dynamic, thus, it's static modeling is not sufficient. Considering the dynamics of geographic environment, a new type of geographic entity called event is introduced. The primary target is a modeling of geographic environment as an event sequence, because in this case the semantic relations are much richer than in the case of static modeling. In this work, the conceptualization of this model is proposed. It is based on the idea to process each entity apart instead of processing the environment as a whole. After that, the so called history of each entity and its spatial relations to other entities are defined to describe the whole environment. The main goal is to model systems at a conceptual level that make use of spatial and temporal information, so that later it can serve as the semantic engine for such systems. <![CDATA[<b>Function Activation on Intelligent Buildings Using Mobile Devices through Voice Commands</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-77432014000200002&lng=pt&nrm=iso&tlng=pt El desarrollo de las tecnologías de información y comunicación ha posibilitado la incorporación, a diferentes áreas de la actividad humana, de aplicaciones que permiten controlar dispositivos eléctricos y electrónicos mediante comandos de voz. Con este tipo de aplicaciones, la telemedicina ha logrado que personas cuyas capacidades físicas fueron disminuidas temporalmente incrementen su nivel de autonomía; a la educación se han incorporado herramientas que facilitan el uso de aplicaciones de tipo general a los usuarios con discapacidad física; por último, la domótica ha posibilitado a personas con movilidad reducida permanente controlar el funcionamiento de los dispositivos de uso corriente en un hogar, utilizando comandos de voz. En este artículo se describe una solución de este último tipo, desarrollada con un principio cliente-servidor. Como dispositivo cliente fue habilitado un teléfono celular con un perfil MIDP 2.0 al que se le cargó una aplicación propietaria desarrollada en Java MicroEdition; como servidor, una PC habilitada como servidor Web, equipada con un motor de reconocimiento de palabras y una interfaz de integración hacia una red Konnex. El prototipo funcional del sistema desarrollado permite tener control sobre tres cargas y su confiabilidad, de 87% de acierto con el reconocedor de comandos, fue incrementada al incorporar una interfaz gráfica con menú de comandos desplegable sobre monitor.<hr/>Development of information and communication technologies has allowed the incorporation into different areas of human activity of apps that control electrical and electronic devices through voice commands. With these apps, in telemedicine people affected by some temporary decrease in their physical capacities have improved their level of autonomy; utilities have been added to educational environments to facilitate the use of IT applications to users with physical disability; finally, home automated solutions have made possible to any person with permanent limited mobility to take control over home devices using voice commands. In this article a home automated solution, developed over a client-server principle is presented. As the client device a MIDP 2.0 cell phone with a Java MicroEdition application loaded was used; as server a web server PC was used serving also as gateway towards a Konnex network, added with a speech recognizer engine. Fully functional prototype developed allowed take control over 3 devices with 87% success of the speech recognizer reliability, this percentage improved after the use of a drop-down menu of commands displayed over the monitor. <![CDATA[<b>Formal Model for Restructuring of Object-Oriented Frameworks to Architecture Model-View-Adapter</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-77432014000200003&lng=pt&nrm=iso&tlng=pt La reestructura de código legado puede realizarse con fines diferentes, entre los que se encuentran la migración hacia nuevas tecnologías que faciliten el mantenimiento y la reutilización del código. Los marcos orientados a objetos (frameworks) cuentan con características que, de cierta manera, limitan el reuso de su código. En este trabajo se propone un modelo formal que describe un proceso de reestructura de código legado de marcos orientados a objetos (MOO) hacia código conforme a la arquitectura modelo-vista-adaptador (MVA). Este proceso se lleva a cabo aplicando 11 métodos de reestructura, con el objetivo de separar el código de la lógica del negocio (el modelo), la cual es la parte más reusable del marco, del código que implementa la vista y del código que controla el procesamiento específico de la aplicación. Como resultado, el código legado del marco queda preparado para una migración posterior hacia servicios web.<hr/>The restructuring of legacy code can be done for different purposes, among which is the migration to new technologies that facilitate the maintenance and code reuse. The frameworks have features that, in some way, limit the reuse of your code. In this paper, we propose a formal model that describes a process of restructuring legacy code object-orientedframeworks (MOO) to code according to the architecture Model-View-Adapter (MVA). This process is carried out using 11 methods of restructuring, with the aim of separating the code from business logic (the model), which is the most reusable framework, the code that implements the view and the code that handles specific processing of the application. As a result, the legacy code of the framework is ready for a subsequent migration to Web services. <![CDATA[<b>Acquisition Footprint Attenuation Driven by Seismic Attributes</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-77432014000200004&lng=pt&nrm=iso&tlng=pt Parte de los problemas en la representación sísmica que PEMEX afronta, es la presencia de la huella de adquisición en los datos, manifestado como ruido altamente correlacionable con la geometría de adquisición y presente en todos los datos sísmicos adquiridos, tanto en tierra como en mar. Este ruido dificulta la interpretación de rasgos estratigráficos y estructurales en rebanadas de tiempo, generando artefactos numéricos en el cálculo de atributos sísmicos útiles para la interpretación sísmica. La huella de adquisición permanece a pesar de las medidas tomadas durante la adquisición y el procesamiento sísmico para que sea mínima. Se utilizó un flujo de trabajo de atenuación guiado por atributos sísmicos geométricos con los que se realza la huella de adquisición para obtener un modelo de huella sintética que se resta adaptablemente de datos sísmicos. Para ilustrarlo se utilizaron datos proporcionados por PEMEX Exploración y Producción.<hr/>Acquisition footprint, one of the major problems that PEMEX faces in seismic imaging, is noise highly correlated to the geometric array of sources and receivers used for onshore and offshore seismic acquisitions. It prevails in spite of measures taken during acquisition and data processing. This pattern, throughout the image, is easily confused with geological features and misguides seismic attribute computation. In this work, we use seismic data from PEMEX Exploración y Producción to show the conditioning process for removing random and coherent noise using linear filters. Geometric attributes used in a workflow were computed for obtaining an acquisition footprint noise model and adaptively subtract it from the seismic data. <![CDATA[<b>Keyboard with Universal Communication Protocol Applied to CNC Machine</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-77432014000200005&lng=pt&nrm=iso&tlng=pt Este artículo, describe el uso de un protocolo de comunicación universal para teclado industrial basado en un microcontrolador aplicado a una máquina de control numérico por computadora (CNC). La diferencia principal entre los fabricantes de teclados es que cada fabricante tiene su propia programación de código fuente, produciendo un protocolo de comunicación diferente, generando una interpretación inadecuada de las funciones establecidas. Lo anterior crea que los teclados comerciales industriales sean costosos e incompatibles en su conexión con diferentes máquinas. En el presente trabajo el protocolo permite conectar el teclado universal diseñado y un teclado normal de la PC al mismo tiempo, este es compatible con todas las computadoras a través de la comunicación USB, AT o PS/2, para emplearse en máquinas de CNC, con extensión a otras máquinas como robots, soplado, máquinas de inyección, entre otras. Entre las ventajas de este diseño se encuentran: la fácil reprogramación, disminución de costos, manipulación de diversas funciones de máquina y facilidad de expandir las señales de entrada y salida. Los resultados obtenidos de las pruebas de funcionamiento fueron satisfactorios, debido a que cada tecla tiene la facilidad de programarse y reprogramarse de diferentes maneras, generando distintas funciones de códigos, dependiendo de la aplicación donde se requiera utilizar.<hr/>This article describes the use of a universal communication protocol for industrial keyboard based microcontroller applied to computer numerically controlled (CNC) machine. The main difference among the keyboard manufacturers is that each manufacturer has its own programming of source code, producing a different communication protocol, generating an improper interpretation of the function established. The above results in commercial industrial keyboards which are expensive and incompatible in their connection with different machines. In the present work the protocol allows to connect the designed universal keyboard and the standard keyboard of the PC at the same time, it is compatible with all the computers through the communications USB, AT or PS/2, to use in CNC machines, with extension to other machines such as robots, blowing, injection molding machines and others. The advantages of this design include its easy reprogramming, decreased costs, manipulation of various machine functions and easy expansion of entry and exit signals. The results obtained of performance tests were satisfactory, because each key has the programmed and reprogrammed facility in different ways, generating codes for different functions, depending on the application where it is required to be used. <![CDATA[<b>Fermentation Process Simulation of Homebrewing Beer</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-77432014000200006&lng=pt&nrm=iso&tlng=pt El objetivo de la presente investigación fue estudiar el comportamiento del proceso de fermentación de cerveza artesanal mediante un modelo matemático dinámico. El modelo contiene las tasas de cambio de las variables de estado concentración de glucosa, maltosa y maltotriosa. La variable de salida es la concentración de etanol y como variable auxiliar contempla la concentración de biomasa (levaduras). Este modelo fue programado en el ambiente Matlab-Simulink y para su integración numérica se utilizó el método de Dormand-Prince de cuarto grado con tamaño de paso de integración variable y una tolerancia relativa de 10-8. Para conocer sus parámetros más importantes se realizó un análisis de sensibilidad local. Además se llevó a cabo un experimento para producir cerveza artesanal a una temperatura constante (21°C). Se implementaron 14 unidades experimentales (fermentadores) con las mismas condiciones iniciales. De cada fermentador, se midieron las concentraciones de las variables de estado incluidas en el modelo matemático. Usando los resultados experimentales el modelo se calibró mediante los algoritmos de optimización mínimos cuadrados no lineales y evolución diferencial. De acuerdo con las estadísticas sesgo (BIAS), coeficiente de correlación (r) raíz cuadrada del cuadrado medio (RMSE), error medio absoluto (MAE) y eficiencia de modelación (EF) se encontró un buen ajuste entre las predicciones del modelo y las mediciones de las variables de estado después de la estimación de los parámetros.<hr/>The goal of the current research was to study the behavior of the fermentation process of home-made beer using a mathematical dynamic model. The model contains the rates of change of the concentration state variables of glucose, maltose and maltotriose. An output variable is the ethanol concentration and an auxiliary variable is the biomass (yeast) concentration. The model was programmed in the Matlab-Simulink environment, and for its numerical integration Dormand-Prince method of fourth order with a variable integration step size and a relative tolerance of 10-8 was used. In order to know which model parameters are more important, a local sensitivity analysis was carried out. Furthermore, an experiment was performed to produce home-made beer at constant temperature (21°C). Fourteen experimental units (fermenters) with the same initial conditions were implemented. Using the experimental results the model was calibrated by nonlinear least squares and differential evolution algorithms. According to the statistics bias (BIAS), correlation coefficient (r), squared root of mean squared error (RMSE), mean absolute error (MAE) and the efficiency of modeling (EF), a good fit between the model predictions and measurements were found after the model parameters estimation. <![CDATA[<b>Efficient Clustering for Irregular Geometries Based on Identification of Concavities</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-77432014000200007&lng=pt&nrm=iso&tlng=pt El problema de agrupamiento en dos dimensiones tiene una gran relevancia en aplicaciones relacionadas con el uso eficiente de material, tales como corte, empaquetado, etcétera. Se trata de un problema muy complicado en el que varios cuerpos deben acomodarse eficientemente de tal forma que ocupen el menor espacio posible. Si los cuerpos tienen geometría irregular, el problema es más complejo. Es evidente que el número de posibles acomodos entre los cuerpos es enorme. Una forma eficaz de determinar los diferentes acomodos es el cálculo del polígono no ajustado (NFP, no-fit polygon), con el cual se pueden determinar todas las posiciones relativas entre 2 geometrías en contacto, sin traslape, de forma que se pueda elegir la mejor posición relativa. No obstante, el cálculo del NFP es muy costoso desde el punto de vista computacional. Por otra parte, la selección de la mejor posición relativa no es tarea fácil debido a que, entre dos geometrías irregulares en contacto, se pueden generar huecos (áreas no utilizables) y concavidades externas (áreas utilizables). Este trabajo presenta un método simple y rápido, tanto para reducir el cálculo asociado con la generación del NFP, como para minimizar las áreas no utilizables del agrupamiento de varios cuerpos. El método consiste en calcular el NFP parcial, únicamente en las regiones cóncavas de las geometrías, y elegir el mejor acomodo empleando la eficiencia total ponderada, la cual se define como la suma ponderada de la eficiencia envolvente (cociente entre el área ocupada y el área de la envolvente convexa) y la eficiencia por huecos (cociente entre área ocupada y área del acomodo). El método propuesto genera resultados similares a los obtenidos por otros métodos muy eficientes, sin embargo la forma de los agrupamientos obtenidos permite acomodar más partes en espacios semejantes, lo cual es un resultado deseable cuando se trata de optimizar el uso de material. Se presentan dos ejemplos para mostrar el desempeño de la propuesta.<hr/>Two dimensional clustering problem has much relevance in applications related to the efficient use of raw material, such as cutting stock, packing, etc. This is a very complex problem in which multiple bodies are accommodated efficiently in a way that they occupy as little space as possible. The complexity of the problem increases with the complexity of the bodies. Clearly the number of possible arrangements between bodies is huge. No Fit Polygon (NFP) allows to determine the entire relative positions between two patterns (regular or irregular) in contact, non-overlapping, therefore the best position can be selected. However, NFP generation requires a lot of calculations; besides, selecting the best cluster isn't a simple task because, between two irregular patterns in contact, hollows (unusable areas) and external concavities (usable areas) can be produced. This work presents a quick and simple method to reduce calculations associated with NFP generation and to minimize unusable areas in a cluster. This method consists of generating partial NFP, just on concave regions of the patterns, and selecting the best cluster using a total weighted efficiency, i.e. a weighted value of enclosure efficiency (ratio of occupied area on convex hull area) and hollow efficiency (ratio of occupied area on cluster area). The proposed method produces similar results as those obtained by other methods; however the shape of the clusters obtained allows to accommodate more parts in similar spaces, which is a desirable result when it comes to optimizing the use of material. We present two examples to show the performance of the proposal. <![CDATA[<b>Extinction Phenomenon in X-Ray Diffraction Technique for Texture Analysis</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-77432014000200008&lng=pt&nrm=iso&tlng=pt A method to correct pole densities (PD) for primary and secondary extinction applied for maxima of pole figures (PF) measured by X-ray diffraction, was extended to correct the whole 111 and 200 PFs for nickel samples after 75% cold rolling and subsequent annealing at 600°C during 30 minutes. The PDs were corrected, and parameters of primary and secondary extinction were calculated using the PDs obtained in PFs measured for the first order reflections with two wavelengths (Cu Kα and Co Kα - radiations) and for the second order reflections with Cu Kα - radiation. Three orientation distribution functions (ODF) were calculated, namely: the first one from 111, 200 and 220 PFs; the second one from 222 and 400 PFs (the second order reflections) and 220 PF (440 reflection is absent for the radiations used); the third one from corrected 111 and 200 PFs and not corrected 220 PF (for lack of the second order reflection). Essential differences between the obtained ODFs indicate the necessity to take into account the extinction phenomenon in analysis of textured materials. The obtained parameters of extinction were used for the evaluation of microstructure details of textured nickel depending on grains orientation that is not easily obtained by conventional metallographic methods.<hr/>Un método para corregir densidades de polos (DP) por extinción primaria y secundaria en máximos de figuras de polos (FP) medidos por difracción de rayos X, se extendió a todos los datos de las FP 111 y 200 de muestras de níquel con 75% laminación en frío y recocido posterior de 600°C durante 30 minutos. Las DP fueron corregidas, y los parámetros de extinción primaria y secundaria fueron calculados utilizando las DP medidas en FP para las reflexiones de primer orden con dos radiaciones (Cu Kα y Co Kα) y para las reflexiones de segundo orden con radiación de Cu Kα. Se calcularon tres funciones de distribución de orientación (FDO): la primera a partir de FP para reflexiones 111, 200 y 220, la segunda a partir de las FP 222, 400 (los segundos ordenes) y 220 (en ausencia de segundo orden) y la tercera con las FP para las reflexiones 111 y 200 corregidas por extinción y la FP 220 no corregida (en ausencia de segundo orden). Las diferencias esenciales entre las FDO obtenidas, indican la necesidad de tomar en cuenta el fenómeno de extinción en el análisis de materiales con textura. Los parámetros de extinción obtenidos fueron utilizados para evaluar los datos de la microestructura para níquel en función de la orientación de los granos, que no es fácil obtener por métodos convencionales metalográficos. <![CDATA[<b>Designing a Strategic Measurement Program for Software Engineering Organizations</b>: <b>Discovering Difficulties and Problems</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-77432014000200009&lng=pt&nrm=iso&tlng=pt Software measurement is widely recognized as an essential part of understanding, controlling, monitoring, predicting, and evaluating software development and maintenance projects. Both, software process improvement (SPI) and software measurement literature include many case studies of successful companies and descriptions of their measurement programs. However, there are still concerns on how to design efficient strategic measurement programs. These concerns include the lack of involvement of the SEO's personnel, bad alignment with its strategy and improvement initiative, difficulty to justify the utility of using standards or improvement initiatives, etc. All of the former results in inadequate measurement programs that often lead to poor decisions and economic loss. This paper describes a pilot study to observe and analyze the operation of measurement teams when using measurement methods such as Balanced Objective-Quantifiers Method (BOQM), Practical Software Measurement (PSM) and Balanced Scorecard and Goal-Driven Measurement (BSCGQ[I]M) to design a strategic measurement program. From the results of the study, we gained some insight on common difficulties and problems, which are useful to consider when designing of strategic measurement programs. This paper describes an important milestone in achieving our main research goal, evaluate and find suggestions to design a strategic measurement program aligned correctly with the strategic goals, for effective decision making at all organization levels and justify the utilities or benefits of integrating improvement initiatives.<hr/>La medición del software es ampliamente reconocida como una parte esencial de entendimiento, control, monitoreo, predicción y evaluación de proyectos de desarrollo y mantenimiento de software. Ambos, la mejora de procesos de software y la literatura de medición de software contienen muchos casos de compañías exitosas y la descripción de sus programas de medición. Sin embargo, existen preocupaciones acerca de cómo diseñar eficientemente programas de medición estratégicos. Estas preocupaciones incluyen la pérdida de la intervención del personal, la mala alineación con la estrategia y la iniciativa de mejora, la dificultad para justificar la utilidad de los estándares o iniciativas de mejora, etcétera. Todos los resultados anteriores recaen en programas de medición inadecuados que a menudo conducen a malas decisiones y pérdidas económicas. Este artículo describe un estudio piloto para observar y analizar la operación de equipos de medición mientras utilizan métodos de medición tales como el método balanceado objetivo-cuantificadores, medición práctica del software y el cuadro de mando integral y medición dirigida por metas para diseñar un programa de medición estratégico. De los resultados del estudio, obtuvimos un panorama de los problemas y dificultades comunes, que son útiles a considerar cuando se diseña un programa de medición estratégico. En este trabajo se describe un hito importante en la consecución de nuestro objetivo principal de la investigación, evaluar y encontrar sugerencias para el diseño de un programa de medición estratégico alineado correctamente con los objetivos estratégicos, para la toma eficaz de decisiones en todos los niveles de la organización y justificar las utilidades o beneficios de la integración de las iniciativas de mejora. <![CDATA[<b>Determination of Transmission Limits on Electric Power Systems</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-77432014000200010&lng=pt&nrm=iso&tlng=pt En este artículo se presenta la aplicación de varias metodologías para calcular el límite de transferencia de potencia que garantice una operación segura en las redes de energía eléctrica. Se describen aspectos de interés para la determinación de flujos máximos de energía eléctrica a través de líneas de transmisión en redes eléctricas. Se determina el límite térmico de conductores eléctricos, la cargabilidad de líneas de transmisión y el límite de estabilidad ante oscilaciones interárea de enlaces de transmisión entre regiones. Para el caso de oscilaciones interárea, se presentan los resultados de la aplicación de un esquema de corte de carga para estabilizar un modo de oscilación interárea al amortiguar oscilaciones negativas y llevar con ello al sistema eléctrico a una condición de operación estable. Para ilustrar la metodología se utiliza un modelo del sistema interconectado mexicano.<hr/>This article provides the application of several methodologies to obtain power transmission limits through interties of the electric power systems to obtain a secure operation of the energy power system. Several aspects to obtain the maximum power flows of electrical energy thought of transmission lines on electrical grids are shown. Thermal limit of electrical conductors, loadability limit of transmission lines and small signal stability limits are obtained for several interties between geographical regions. It also, shows the application of a load shedding scheme to stabilize an interarea oscillation mode. The model of the Mexican Interconnected power System is used to illustrate these methodologies. <![CDATA[<b>Monitoring of Biological Nitrogen Removal in Tannery Wastewater Using a Sequencing Batch Reactor</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-77432014000200011&lng=pt&nrm=iso&tlng=pt El objetivo de esta investigación fue relacionar el proceso de remoción biológica de nitrógeno en efluente de tenerías con los perfiles de oxígeno disuelto, pH y potencial de óxido reducción usando un reactor por carga secuencial (SBR, Sequencing Batch Reactor) con un volumen de trabajo de 2 L. El reactor trabajó con dos secuencias operacionales, anóxica-aerobia-anóxica (Ax/Ae/Ax) y aerobia-anóxica (Ae/Ax), combinadas con dos tiempos de retención celular (TRC) (15 y 25 días), y un tiempo de ciclo operacional (TCO) de 11 horas. Los perfiles se obtuvieron midiendo cada 15 minutos los parámetros: potencial de hidrógeno (pH), oxígeno disuelto (OD), potencial de óxido reducción (ORP) y cada hora los parámetros: alcalinidad total (AT), demanda química de oxígeno total (DQO T), demanda química de oxígeno soluble (DQOs), nitrógeno total Kjeldahl (NTK), nitritos (NO2-), nitratos (NO3-) y nitrógeno amoniacal (N-NH4+) durante el ciclo operacional. La AT y el ORP fueron excelentes indicadores del proceso de remoción biológica de nitrógeno. Por el contrario, el pH no pudo utilizarse como parámetro de control debido a la capacidad de amortiguación de los efluentes de tenerías. Finalmente, esta investigación demostró que los valores de la AT y el ORP pueden usarse como parámetros de control en línea para monitorear la evolución de la remoción de nitrógeno en efluentes de tenerías (nitrificación y desnitrificación).<hr/>The objective of this research was to relate the biological nitrogen removal in tannery wastewater with profiles of pH, alkalinity and redox potential (ORP) using a sequencing batch reactor (SBR) with a working volume of 2 L. The reactor worked under two operational sequences: anoxic-aerobic-anoxic (Ax/Ae/Ax) and aerobic-anoxic (Ae/Ax), which were combined with two cell retention times (CRT) (15 and 25 days), with an operation cycle time (OCT) of 11 hours. The profiles were performed by measuring each 15 minutes the following parameters: pH, dissolved oxygen (DO), ORP, and each hour the parameters: total alkalinity, total chemical oxygen demand (DQO T), soluble chemical oxygen demand (DQO S), total Kjeldahl nitrogen (TKN), nitrite (NO2-), nitrate (NO3-) and ammonia nitrogen (N-NH4+). Alkalinity and ORP profile were excellent indicators of the processes of biological nitrogen removal. However, pH could not be used as a control parameter, due to the buffering capacity of tannery wastewater. Finally, this research work showed that alkalinity and ORP values can be used as on-line control parameters to monitor the evolution of the nitrogen removal in tannery wastewater (nitrification and denitrification processes). <![CDATA[<b>Logic and Abstraction in Engineering Education</b>: <b>A Necessary Relationship</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-77432014000200012&lng=pt&nrm=iso&tlng=pt Este artículo se enfoca en la lógica y la abstracción vistas como una relación necesaria en los procesos formativos de los ingenieros. Se describe la importancia y la necesidad de formar en esta área del conocimiento y de la relación entre el ejercicio profesional de los ingenieros y el desarrollo y potencialización de su capacidad lógico-interpretativa y abstractiva para la resolución de problemas. Es un trabajo de investigación-revisión-reflexión acerca de la importancia de estos dos componentes, vistos estructuralmente desde el currículo. Es el producto de una primera fase de la investigación sobre "desarrollo de la capacidad lógico-interpretativa y abstractiva como componente básico para el ejercicio profesional de los ingenieros".<hr/>This article is about the logic and abstraction seen as a necessary relation in the formative process engineers. It describes the importance and the need for training in this area of knowledge and the relationship between professional exercise of the engineers and the development and/or potentiation of logical-interpretative and abstractive ability for problem solution. It is a research-review-reflection work about the importance of these two components, viewed structurally from the curriculum. It is the product of the first phase of the research "The capacity logical-interpretative and abstractive as a basic component for professional exercise of the engineers". <![CDATA[<b>Fractional RC and LC Electrical Circuits</b>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-77432014000200013&lng=pt&nrm=iso&tlng=pt In this paper we propose a fractional differential equation for the electrical RC and LC circuit in terms of the fractional time derivatives of the Caputo type. The order of the derivative being considered is 0 < γ ≤1. To keep the dimensionality of the physical parameters R, L, C the new parameter σ is introduced. This parameter characterizes the existence of fractional structures in the system. A relation between the fractional order time derivative γ and the new parameter σ is found. The numeric Laplace transform method was used for the simulation of the equations results. The results show that the fractional differential equations generalize the behavior of the charge, voltage and current depending of the values of γ. The classical cases are recovered by taking the limit when γ = 1. An analysis in the frequency domain of an RC circuit shows the application and use of fractional order differential equations.<hr/>En este trabajo se propone una ecuación diferencial fraccionaria para los circuitos RC y LC en términos de la derivada fraccionaria en el tiempo del tipo Caputo. El orden considerado de la derivada es 0 < γ ≤ 1. Para mantener la dimensionalidad física de los parámetros R, L, C, se introduce un nuevo parámetro σ. Este parámetro caracteriza la existencia de estructuras fraccionarias en el sistema. Se encuentra la relación entre el orden de la derivada fraccionaria γ y el nuevo parámetro σ. El método de la transformada numérica de Laplace fue usado para la simulación de las ecuaciones resultantes. Los resultados muestran que las ecuaciones diferenciales fraccionarias generalizan el comportamiento de la carga, voltaje y corriente dependiendo de la elección de γ. Los casos clásicos se recuperan en el límite cuando γ = 1. Un análisis en el dominio de la frecuencia de un circuito RC muestra la aplicación y uso de ecuaciones diferenciales de orden fraccionario.