Scielo RSS <![CDATA[Ingeniería, investigación y tecnología]]> http://www.scielo.org.mx/rss.php?pid=1405-774320170004&lang=es vol. 18 num. 4 lang. es <![CDATA[SciELO Logo]]> http://www.scielo.org.mx/img/en/fbpelogp.gif http://www.scielo.org.mx <![CDATA[Fuentes de corriente reducen a un canal la comunicación por encriptamiento caótico bidireccional]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-77432017000400353&lng=es&nrm=iso&tlng=es Resumen Se muestra que un procedimiento basado en fuentes de corriente puede reducir el número de canales en un encriptador/desencriptador bidireccional, elaborado con un par de circuitos idénticos de Chua y sincronizados según Carroll y Pecora, este puede ser rentable y confiable. Se simula un circuito con el programa Workbench, se construye y evalúa su funcionamiento con algunas pruebas relevantes de ocultamiento y recuperación de mensajes de referencia e independientes. Dado que los resultados son aceptables y cumplieron con las principales características que debe respetar un circuito de este tipo, según la bibliografía especializada, el encriptador/desencriptador propuesto con un esfuerzo mínimo, se puede transformar para utilizarse con los circuitos de Lorenz, Chen y Rössler, entre otros, en un esquema novedoso de canales múltiples. Esto abonaría aun más la rentabilidad del mismo. También se vislumbra su aplicación en el campo de las comunicaciones digitales de baja frecuencia, específicamente en el envío bidireccional de mensajes binarios por medio de modulación paramétrica.<hr/>Abstract Intends to show that a procedure based on current sources, can reduce the number of channels in an encryptor/decryptor bidirectional, performed with a pair of identical circuits of Chua and synchronized according to Carroll and Pecora, and therefore be cost-effective and reliable. Simulates the circuit with the Workbench program and is built and evaluated its operation with some evidence of concealment and retrieving messages from reference and independent. Given that their results were acceptable and met the main characteristics that must respect a circuit of this type, according to the specialized bibliography, the proposed encryptor/decryptor, with minimal effort, can be transformed for use with circuits of Lorenz, Chen, Rössler, among others, at a new scheme of multiple channels. This value even more the profitability of the same. Also, it sees its application in the field of low frequency digital communications, specifically in the bidirectional sent binary messages through parametric modulation. <![CDATA[Efecto de la biofibra de queratina en las propiedades de un biopolímero termoplástico: Estudio preliminar]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-77432017000400369&lng=es&nrm=iso&tlng=es Resumen En el presente trabajo se evaluó el efecto de la biofibra de queratina, obtenida de los desechos de la industria de la curtiduría de México, en un biopolímero termoplástico a base de almidón. Los materiales compuestos se obtuvieron por extrusión reactiva. Se utilizaron aditivos retardantes a la flama libres de compuestos halogenados para estudiar el efecto de la biofibra de forma comparativa. Los estudios termogravimétrico y reológico revelaron que la biofibra proporciona mayor estabilidad térmica al biopolímero, particularmente en combinación con un aditivo retardante a la flama, ya que se reduce la rapidez de pérdida de masa. Esto se atribuyó a la formación de estructuras más complejas resistentes a la alta temperatura. El análisis dinámico-mecánico, mostró que la biofibra tiene un efecto importante en el módulo de almacenamiento (E’), ya que se incrementa considerablemente cuando la biofibra se adiciona en combinación con los aditivos retardantes a la flama. La evaluación de las propiedades mecánicas (módulo de Young, resistencia a la tensión, deformación a la ruptura y tenacidad), confirmaron el efecto de la biofibra como agente de carga. Por otro lado, cuando la biofibra se adiciona sin aditivo retardante a la flama, la deformación a la ruptura y la tenacidad se incrementan considerablemente, lo cual se atribuyó a una buena adhesión de la biofibra con la matriz polimérica.<hr/>Abstract In this work, the effect of keratin biofiber on the properties of a thermoplastic starch biopolymer (TPS) is investigated. The keratin biofiber was obtained from tannery industry waste. The materials were compounded by reactive extrusion and injection molding. Traditional halogen-free Flame Retardant (FR) additives were used for comparison. According to the thermogravimetric and rheological analyses, the addition of the keratin biofiber increases the thermal stability of the TPS, especially in combination with FR additives, since the mass loss rate was reduced. This behavior is attributed to the formation of more complex and resistant structures in the composite material. From dynamic-mechanical analysis, the keratin biofiber has an important effect on the storage modulus (E’) as it increases considerably. According to the mechanical properties, Yong’modulus, tensile strength, strain at break and tenacity results supported that keratin biofiber acts as filler in TPS. On the other hand, when keratin fiber is added without FR in TPS, strain at break and tenacity are increased considerably. This is attributed to a good adhesion of the keratin biofiber with the polymer matrix. <![CDATA[Metodología para el modelado de hueso trabecular empleando representaciones geométricas]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-77432017000400379&lng=es&nrm=iso&tlng=es Abstract In this paper is presented a methodology to generate two-dimensional models of cancellous bone from images, with the main objective to achieve a closer representation to reality, in terms of the geometries that can be obtained. The methodology mainly uses Python™ language programming to establish instructions for using Abaqus™ graphical tools and therefore automatically generate the trabecular structure from the original image. As a first step, each trabecula of the image is idealized as an ellipse and each one is taken as basis for generating the geometries of pores and trabeculae in the model. A simulation of a compression test is also presented for three models made with this methodology, where finite element software was used. It is concluded that the methodology allows getting a very similar trabecular structure to the real one.<hr/>Resumen En este trabajo se presenta una metodología para generar modelos bidimensionales de hueso esponjoso a partir de imágenes, con el objetivo principal de alcanzar una representación más cercana a la realidad en cuanto a las geometrías que se pueden obtener. La metodología usa principalmente el lenguaje de programación Python® para establecer instrucciones de usar las herramientas gráficas de Abaqus® y con esto generar de manera automática la estructura trabecular de la imagen original. Como un primer paso, se idealiza cada trabécula de la imagen como una elipse, y cada elipse se toma como base para generar las geometrías de poros y trabéculas del modelo. También se presenta la realización de un ensayo de compresión para tres modelos hechos con esta metodología, donde se usó paquetería de elementos finitos. Se concluye que la metodología permite obtener una estructura trabecular muy similar a la real. <![CDATA[Evaluación de la propiedad antimicrobial de las nanopartículas de oro sintetizadas con extractos de <em>tamarindus indica L</em> y <em>mangifera indica L</em>]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-77432017000400389&lng=es&nrm=iso&tlng=es Resumen Varios estudios han reportado el uso de nanopartículas de oro (AuNPs) en diferentes campos como inhibidor del crecimiento de microorganismos debido a que presentan propiedad antimicrobial. En el presente trabajo se evaluó la propiedad antimicrobial de las nanopartículas de oro biosintetizadas (AuNPs-Bio) a partir de extractos de plantas. Inicialmente se realizó la síntesis de nanopartículas de oro (AuNPs) por medio de un método biológico, en el cual se utilizaron los extractos de hojas de Tamarindus indica L. y Mangifera indica L., así como la sal precursora ácido cloroáurico (HAuCl4) con una concentración de 0.27mM. Posterior a la biosíntesis, se elaboraron las soluciones de AuNPs en medio acuoso con una concentración de 1.1 mg/mL y 0.9 mg/mL, respectivamente. El análisis por SEM realizado a las AuNPs-Bio muestra un tamaño de partícula promedio de 52 ± 5 y 78 ± 7 nm, respectivo a cada extracto. La propiedad antimicrobial de las nanopartículas de oro se evaluó por medio de tres métodos: medio de cultivo modificado, sembrado en superficie y la prueba de difusión por disco, en los cuales se presentó crecimiento de bacterias y hongos debido a la baja concentración de las soluciones de AuNPs. Los resultados evidencian que sí se elaboran soluciones de nanopartículas más concentradas y con menos impurezas, estas son un candidato potencial para actuar como agentes antimicrobianos.<hr/>Abstract Several studies had been reported the use of gold nanoparticles in different fields as growing inhibitor of microorganisms due its antimicrobial property. In this work, was evaluated the antimicrobial property of biosynthesized gold nanoparticles (Bio-AuNPs) from plants extracts. First, gold nanoparticles synthesis was made by a biological method, in which were used leave extracts of Tamarindus indica L. and Mangifera indica L. and precursor salt of chloroauric acid (HAuCl4) with a concentration of 0.27mM. After the biosynthesis of the nanoparticles, solutions were made with AuNPs in a aqueous medium with a concentration of 1.1 mg/mL and 0.9 mg/mL each. The SEM analysis on the Bio-AuNPs showed an average particle size of 52 ± 5 and 78 ± 7 nm for each extract. The antimicrobial property of the gold nanoparticles was evaluated by three methods: medium of modified culture, surface culture and test by disk diffusion, in which there were bacteria and fungi growings due the low concentration of the solution of the AuNps. The results showed that solutions with higher concentration of AuNps will be potential candidates to act as anti-microbian agent. <![CDATA[Detección de usuarios primarios basados en muestreo sub-Nyquist mediante dispositivos de radio cognitivo multiantena en entornos multibanda]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-77432017000400399&lng=es&nrm=iso&tlng=es Resumen En este artículo se propone un nuevo algoritmo basado en muestreo sub-Nyquist para la detección de Usuarios Primarios (PU) en entornos multibanda que se plantea para Dispositivos de Radio Cognitivo (CRD) multiantena. De esta manera se aborda y aporta una solución al problema de detección de espectro en entornos multibanda donde se trabaja con una gran cantidad de muestras de la señal cuando estas muestras se obtienen a tasas iguales o superiores a la tasa de Nyquist, lo cual genera grandes tiempos de detección, altos consumos de energía y la necesidad de altas capacidades de procesamiento en los CRD. En este escenario multibanda multiantena, se obtienen expresiones cerradas para las probabilidades de detección, omisión de detección y falsa alarma. Los resultados de simulación demuestran que el algoritmo propuesto permite realizar la detección de espectro de manera eficiente, mejorando el desempeño de la detección en función de la probabilidad de detección y de las características operacionales del receptor respecto a otros algoritmos propuestos de detección de usuarios primarios en escenarios de banda estrecha y banda ancha basados en muestreo Nyquist y Sub-Nyquist.<hr/>Abstract This paper presents a new algorithm based on sub-Nyquist sampling for detecting Primary Users (PU) in multiband environments for multi-antenna Cognitive Radio Devices (CRD). It addresses and provides a solution to spectrum sensing problem in multi-band environments, where it works with a lot of signal samples when these samples are obtained at rates equal to or greater than the Nyquist rate, which generates large detection times, high energy consumption and the need for high processing capabilities in the CRD. In this scenario multi-band multi-antenna, closed-form expressions for the probabilities of detection, failure detection and false alarm are obtained. Simulation results show that the proposed algorithm allows to do efficiently the spectrum sensing, improving the performance of sensing as a function of the detection probability and operational characteristics of the receiver, relative to other spectrum sensing algorithms proposed for narrowband and wideband spectrum sensing based on Sub-Nyquist and Nyquist Sampling. <![CDATA[Control de tiempo y costo en proyectos de construcción en el sureste de México]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-77432017000400411&lng=es&nrm=iso&tlng=es Abstract Monitoring time and costs has been traditionally served as a basis for control of construction projects; this is because one of the main causes of legal conflicts derived from a construction contract is the breach on delivery time of the project, and because the main goal of a construction firm is to get a profit that it considers appropriate. In the late nineteenth century, Frederick Taylor laid the foundations in order to ascending the management to the category of science, and through engineering techniques he changed the paradigms of productivity in industry. After several decades of research on project management the Earned Value technique was developed, which allowed control the execution of a project through its budget and its schedule; and in the early twenty-first century took another step in how to make a project assessment for performance of time, through Earned Schedule technique. The aim of this study was to evaluate the effectiveness of two project management methods: Earned Schedule and Earned Value; to control the time and cost in construction projects executed in Mexico. For achieving this, time and cost performance indicators and predictors from six projects were calculated. Results showed better performance in projects using the method of Earned Schedule to control the time; and independence between the performance indicators of time and cost.<hr/>Resumen El monitoreo del tiempo y de los costos ha sido tradicionalmente la base para el control de los proyectos de construcción; esto se debe a que una de las principales causas de conflictos legales en la construcción es el incumplimiento en el tiempo de entrega, y que la principal meta de una empresa privada es obtener las utilidades que considera adecuadas. Frederick Taylor, a finales del siglo XIX, puso las bases para convertir la administración en una ciencia, y por medio de técnicas de ingeniería cambió los paradigmas de la productividad. Después de varias décadas de investigación sobre la gestión de proyectos se desarrolló la técnica Earned Value Management, la cual permitió controlar la ejecución de los proyectos a través de su presupuesto y de su calendario; y a principios del siglo XXI surgió la técnica Earned Schedule para evaluar el desempeño del tiempo en los proyectos. El objetivo de este estudio fue evaluar la efectividad de estas técnicas para el control del tiempo y costo en proyectos de construcción. Para esto se calcularon indicadores de desempeños y sus predictores en seis proyectos. Los resultados mostraron mejor desempeño en los proyectos que utilizaron la técnica Earned Schedule para controlar el tiempo; así como independencia entre los indicadores del desempeño del tiempo y del costo. <![CDATA[BIOS-ParallelBlast: Paralelización optimizada de alineamiento de secuencias sobre Xeon Phi]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-77432017000400423&lng=es&nrm=iso&tlng=es Resumen El uso de supercomputación en la ciencia es necesario, debido a las grandes cantidades de datos que se analizan para obtener resultados impactantes. Las tecnologías many-core como Intel Xeon Phi aparecen como una alternativa de acelerar estos análisis y su uso en la supercomputación, en especial, dentro de la bioinformática, donde es más común, pero los resultados no son los esperados al ejecutar software altamente demandante en clústeres heterogéneos. En la siguiente investigación se muestra un wrapper encargado de paralelizar óptimamente NCBI-Blast sobre varios nodos de CPUs y Xeon Phi, con el objetivo de reducir al máximo los tiempos de ejecución y demostrar la utilidad que pueden tener las tecnologías many-core en las ciencias aplicadas.<hr/>Abstract Usage of supercomputing in science is more necessary every day, due to the large amount of data that researches have to analyze to obtain significant results. Many-cores technologies such as Intel Xeon Phi were developed as an alternative to accelerate these studies and its use in supercomputers and especially in bioinformatics is more common nowadays, but the results are not good enough when high-demand software is executed in heterogeneous clusters. This research shows a wrapper that achieves parallelization optimally using NCBI-Blast on CPUs and Xeon Phi nodes, the main goal here is to reduce execution times and to demonstrate the usefulness that many-cores technologies contribute in applied sciences. <![CDATA[Verificación de las características metrológicas de un contador de flujo Coriolis utilizado en transferencia fiscal]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-77432017000400433&lng=es&nrm=iso&tlng=es Resumen En el presente artículo se describe un procedimiento para la evaluación de la calidad de las mediciones. La propuesta garantiza la evaluación y mejora de la gestión de las mediciones de flujo, utilizando técnicas relacionadas con la metodología seis sigma. Esto se aplica en una empresa refinadora de petróleo, específicamente en el proceso de recepción, almacenamiento, manipulación y entrega de gas licuado del petróleo. Para la recopilación y procesamiento de la información se utilizaron técnicas tales como: trabajo con expertos, trabajo en equipo, estudio de repetibilidad, estabilidad, linealidad, diseño experimental. Se hace uso de herramientas clásicas de la calidad y de gestión de procesos. Como resultados fundamentales de la investigación se identificaron las principales debilidades desde el punto de vista metrológico, se evaluó el estado de las características metrológicas del flujómetro másico Coriolis utilizado en la entrega de gas licuado del petróleo regular por cargadero de camiones. Se efectúa un estudio de repetibilidad y reproducibilidad basado en el diseño experimental en dicha operación. Por último, se proponen un conjunto de acciones que contribuyen a la mejora de la calidad de las mediciones, así como en su gestión.<hr/>Abstract This article describes a procedure for the evaluation of the quality of measurements. The proposal guarantees the evaluation and improvement of the management of flow measurements, using techniques related to the six sigma methodology. This is applied to an oil refining company, specifically in the process of receiving, storing, handling and delivering liquefied petroleum gas. For the collection and processing of information, techniques such as: working with experts, teamwork, repeatability study, stability, linearity, experimental design were used. It makes use of classic quality tools and process management. As fundamental results of the investigation, the main weaknesses were identified from the metrological point of view, the state of the metrological characteristics of the Coriolis mass flowmeter used in the delivery of regular liquefied petroleum gas by truck loading was evaluated. A repeatability and reproducibility study is carried out based on the experimental design in said operation. Finally, a set of actions are proposed that contribute to the improvement of the quality of the measurements, as well as their management. <![CDATA[Análisis numérico comparativo del comportamiento a fatiga de dos osteosíntesis utilizadas en el tratamiento de la fractura de cadera 31 A1 .1.]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-77432017000400445&lng=es&nrm=iso&tlng=es Resumen En la presente investigación se simula el comportamiento a fatiga mediante un software de cálculo por elementos finitos, de los fijadores internos placa DHS (Dynamic Hip Screw) y un clavo Gamma, utilizados en el tratamiento de fracturas de cadera. Para el análisis de dicho comportamiento se realizaron estudios estáticos, donde las variables fundamentales a evaluar fueron las tensiones de von Mises. Para ello, se tomó en cuenta la acción de los músculos y el peso corporal para cuatro instantes del ciclo de marcha, así como las restricciones, condiciones de contacto entre los modelos y propiedades mecánicas de cada uno de los mismos. Tomando como base los resultados de los estudios estáticos y las curvas S-N del material de cada modelo, se realizaron estudios de fatiga para determinar la vida en ciclos de cada fijador. Los estudios permitieron determinar dónde son mayores las tensiones y cuál de ellos podrá soportar mayores ciclos de carga antes del fallo por fatiga. En función de dichos resultados, se determinó que el clavo Gamma es el de mejor comportamiento mecánico para todos los casos estudiados, lo que se comprobó con los resultados obtenidos por otros autores. Ya que en los estudios no se consideró la zona trabecular del fémur, los resultados obtenidos solo tienen validez desde el punto de vista cualitativo.<hr/>Abstract In the present research the fatigue behavior is simulated with a thin-element calculus software, internal fixing plate DHS (Dynamic Hip Screw) and a Gamma nail, used in the treatment of hip fracture. For the analysis of the behavior static studies have been carried out, where the fundamental variables have been evaluated in the stresses of von Mises. For this, the action of muscles and body weight for four instants of the gait cycle has been taken into account, as well as the restrictions, the contact conditions between the models and the mechanical properties of each one of them. Based on the results of the static studies and the S-N curves of the material of each model, fatigue studies were performed to determine the cycle life of each fixative. The studies allowed to determine where the tensions are greater and which of them can withstand greater cycles of load before the fall by fatigue. Based on the results of the results, it was possible to determine that the Gama nail is the best mechanical behavior, for all the cases studied, which could be verified with the results obtained by other authors. However, since the studies do not consider the trabecular area of the femur, the results obtained are valid only from the qualitative point of view. <![CDATA[Clasificación binaria para la predicción de trombosis]]> http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-77432017000400457&lng=es&nrm=iso&tlng=es Resumen La trombosis, como otros problemas de salud, puede ser de difícil diagnóstico. El diagnostico corresponde a un problema de clasificación. En este trabajo se resuelve un problema de clasificación usando software libre sobre una base de datos de pacientes del Instituto Nacional de Perinatología Isidro Espinoza Reyes con Síndrome de Anticuerpos Antifosfolípido (SAAF) y pacientes con trombosis sin SAAF. El trabajo analizó el riesgo de que una persona padezca la enfermedad mencionada. El estudio comprende rutinas de selección de variables, de imputación y dos de clasificación, una basada en regresión logística y la otra en el cociente de verosimilitud. Los resultados muestran que la clasificación basada en el cociente de verosimilitud fue mejor que la clasificación hecha con la regresión logística.<hr/>Abstract Thrombosis and other health problems can be difficult to diagnose. The diagnosis is a classification problem. In this work a classification problem is solved using free software on a database of patients from the National Institute of Perinatology Isidro Reyes Espinoza (Instituto Nacional de Perinatología Isidro Espinoza Reyes) with thrombosis problems. In this work the risk that a person will develop the disease mentioned was analyzed. The study includes, variables selection, imputation and analysis of two classification methods: one based on logistic regression and the other in the likelihood ratio. The results indicate that the likelihood ratio classification was better than logistic regression classification.