<?xml version="1.0" encoding="ISO-8859-1"?><article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance">
<front>
<journal-meta>
<journal-id>2007-2422</journal-id>
<journal-title><![CDATA[Tecnología y ciencias del agua]]></journal-title>
<abbrev-journal-title><![CDATA[Tecnol. cienc. agua]]></abbrev-journal-title>
<issn>2007-2422</issn>
<publisher>
<publisher-name><![CDATA[Instituto Mexicano de Tecnología del Agua, Coordinación de Comunicación, Participación e Información]]></publisher-name>
</publisher>
</journal-meta>
<article-meta>
<article-id>S2007-24222014000300006</article-id>
<title-group>
<article-title xml:lang="es"><![CDATA[Predicción de lecturas de aforos de filtraciones de presas bóveda mediante redes neuronales artificiales]]></article-title>
<article-title xml:lang="en"><![CDATA[Prediction of Gauge Readings of Filtration in Arch Dams using Artificial Neural Networks]]></article-title>
</title-group>
<contrib-group>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Santillán]]></surname>
<given-names><![CDATA[David]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Fraile-Ardanuy]]></surname>
<given-names><![CDATA[Jesús]]></given-names>
</name>
<xref ref-type="aff" rid="A02"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Toledo]]></surname>
<given-names><![CDATA[Miguel Ángel]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
</contrib-group>
<aff id="A01">
<institution><![CDATA[,Universidad Politécnica de Madrid Escuela Técnica Superior de Ingenieros de Caminos ]]></institution>
<addr-line><![CDATA[Madrid ]]></addr-line>
<country>España</country>
</aff>
<aff id="A02">
<institution><![CDATA[,Universidad Politécnica de Madrid Escuela Técnica Superior de Ingenieros de Telecomunicación ]]></institution>
<addr-line><![CDATA[Madrid ]]></addr-line>
<country>España</country>
</aff>
<pub-date pub-type="pub">
<day>00</day>
<month>06</month>
<year>2014</year>
</pub-date>
<pub-date pub-type="epub">
<day>00</day>
<month>06</month>
<year>2014</year>
</pub-date>
<volume>5</volume>
<numero>3</numero>
<fpage>81</fpage>
<lpage>96</lpage>
<copyright-statement/>
<copyright-year/>
<self-uri xlink:href="http://www.scielo.org.mx/scielo.php?script=sci_arttext&amp;pid=S2007-24222014000300006&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.mx/scielo.php?script=sci_abstract&amp;pid=S2007-24222014000300006&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.mx/scielo.php?script=sci_pdf&amp;pid=S2007-24222014000300006&amp;lng=en&amp;nrm=iso"></self-uri><abstract abstract-type="short" xml:lang="es"><p><![CDATA[Las redes neuronales artificiales son estructuras matemáticas inspiradas en el cerebro de los seres vivos, capaces de generar modelos numéricos no lineales de calibración relativamente sencilla. En el presente trabajo se modela el caudal de agua filtrado a través del cimiento rocoso de una presa bóveda piloto con una red neuronal tipo perceptrón multicapa. La filtración a través de un macizo rocoso es un fenómeno difícil de modelar debido a la imposibilidad de caracterizar con detalle el medio en el que discurre y por la complejidad del propio fenómeno. El resultado final es un modelo compuesto por tres neuronas ocultas agrupadas en una capa y cuyas variables de entrada son el nivel de agua en el embalse y tres velocidades de la misma en periodos anteriores. La estructura de la red neuronal se determina teniendo en cuenta la influencia de cada una de las variables de entrada sobre las variables de salida. Para ello, se parte de un conjunto extenso de posibles variables de entrada extraídas de los modelos analíticos o conceptuales del fenómeno físico a modelar.]]></p></abstract>
<abstract abstract-type="short" xml:lang="en"><p><![CDATA[Artificial neural networks are mathematical structures inspired by the brain of live beings which can generate relatively simple non-linear numerical calibration models. The present work models the flow of water filtered through the rocky base of a pilot arch dam using a multi-layer perceptron neural network. Seepage through a rock mass is difficult to model because it is impossible to obtain a detailed characterization of the medium through which it passes and because of the complexity of the process. The final result is a model composed of three hidden neurons grouped in a layer, using as input variables the water level in the reservoir and their three velocities from prior periods. The structure of the neural network is determined considering the influence of each of the input variables on the output variables. This is based on an extensive set of possible input variables extracted from analytical or conceptual models of the physical phenomenon to be modeled.]]></p></abstract>
<kwd-group>
<kwd lng="es"><![CDATA[auscultación presas]]></kwd>
<kwd lng="es"><![CDATA[filtraciones]]></kwd>
<kwd lng="es"><![CDATA[presa bóveda]]></kwd>
<kwd lng="es"><![CDATA[redes neuronales artificiales]]></kwd>
<kwd lng="en"><![CDATA[Arch dams]]></kwd>
<kwd lng="en"><![CDATA[seepage]]></kwd>
<kwd lng="en"><![CDATA[artificial neural networks]]></kwd>
<kwd lng="en"><![CDATA[dam monitoring]]></kwd>
</kwd-group>
</article-meta>
</front><body><![CDATA[  	    <p align="justify"><font face="verdana" size="4">Art&iacute;culos t&eacute;cnicos</font></p>  	    <p align="center"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="center"><font face="verdana" size="4"><b>Predicci&oacute;n de lecturas de aforos de filtraciones de presas b&oacute;veda mediante redes neuronales artificiales</b></font></p>  	    <p align="center"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="center"><font face="verdana" size="3"><b>Prediction of Gauge Readings of Filtration in Arch Dams using Artificial Neural Networks</b></font></p>  	    <p align="center"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="center"><font face="verdana" size="2"><b>David Santill&aacute;n*, Jes&uacute;s Fraile&#45;Ardanuy, Miguel &Aacute;ngel Toledo</b></font>    <br> 	  <font face="verdana" size="2"><i>Universidad Polit&eacute;cnica de Madrid, Espa&ntilde;a</i>     <br> *Autor de correspondencia</font></p>     ]]></body>
<body><![CDATA[<p align="justify">&nbsp;</p>     <p align="justify"><font face="verdana" size="2"><b>Direcci&oacute;n institucional de los autores</b></font></p>     <p align="justify"><font face="verdana" size="2"><i>David Santill&aacute;n</i>    <br> <i>Miguel &Aacute;ngel Toledo</i></font></p>     <p align="justify"><font face="verdana" size="2">Departamento de Ingenier&iacute;a Civil: Hidr&aacute;ulica y Energ&eacute;tica    <br>   Escuela T&eacute;cnica Superior de Ingenieros de Caminos,    <br> Canales y Puertos    <br>   Universidad Polit&eacute;cnica de Madrid    <br>   28040, Madrid, Espa&ntilde;a    <br>   <a href="mailto:david.santillan@upm.es">david.santillan@upm.es</a></font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2"><i>Jes&uacute;s Fraile&#45;Ardanuy</i></font></p>     <p align="justify"><font face="verdana" size="2">Departamento de Tecnolog&iacute;as Especiales Aplicadas a la    <br> Telecomunicaci&oacute;n    <br>   Escuela T&eacute;cnica Superior de Ingenieros de    <br> Telecomunicaci&oacute;n,    <br>   Universidad Polit&eacute;cnica de Madrid    <br>   28040, Madrid, Espa&ntilde;a</font></p>     <p align="justify">&nbsp;</p>  	    <p align="justify"><font face="verdana" size="2">Recibido: 25/04/13    <br> 	Aceptado: 09/09/13</font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Resumen</b></font></p>  	    <p align="justify"><font face="verdana" size="2">Las redes neuronales artificiales son estructuras matem&aacute;ticas inspiradas en el cerebro de los seres vivos, capaces de generar modelos num&eacute;ricos no lineales de calibraci&oacute;n relativamente sencilla. En el presente trabajo se modela el caudal de agua filtrado a trav&eacute;s del cimiento rocoso de una presa b&oacute;veda piloto con una red neuronal tipo perceptr&oacute;n multicapa. La filtraci&oacute;n a trav&eacute;s de un macizo rocoso es un fen&oacute;meno dif&iacute;cil de modelar debido a la imposibilidad de caracterizar con detalle el medio en el que discurre y por la complejidad del propio fen&oacute;meno. El resultado final es un modelo compuesto por tres neuronas ocultas agrupadas en una capa y cuyas variables de entrada son el nivel de agua en el embalse y tres velocidades de la misma en periodos anteriores. La estructura de la red neuronal se determina teniendo en cuenta la influencia de cada una de las variables de entrada sobre las variables de salida. Para ello, se parte de un conjunto extenso de posibles variables de entrada extra&iacute;das de los modelos anal&iacute;ticos o conceptuales del fen&oacute;meno f&iacute;sico a modelar.</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Palabras clave</b>: auscultaci&oacute;n presas, filtraciones, presa b&oacute;veda, redes neuronales artificiales.</font></p> 	    <p align="justify">&nbsp;</p> 	    <p align="justify"><font face="verdana" size="2"><b>Abstract</b></font></p>         <p align="justify"><font face="verdana" size="2">Artificial neural networks are mathematical structures inspired by the brain of live beings which can generate relatively simple non&#45;linear numerical calibration models. The present work models the flow of water filtered through the rocky base of a pilot arch dam using a multi&#45;layer perceptron neural network. Seepage through a rock mass is difficult to model because it is impossible to obtain a detailed characterization of the medium through which it passes and because of the complexity of the process. The final result is a model composed of three hidden neurons grouped in a layer, using as input variables the water level in the reservoir and their three velocities from prior periods. The structure of the neural network is determined considering the influence of each of the input variables on the output variables. This is based on an extensive set of possible input variables extracted from analytical or conceptual models of the physical phenomenon to be modeled.</font></p>         <p align="justify"><font face="verdana" size="2"><b>Keywords</b>: Arch dams, seepage, artificial neural networks, dam monitoring.</font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Introducci&oacute;n</b></font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">La filtraci&oacute;n de agua a trav&eacute;s de macizos rocosos es un fen&oacute;meno dif&iacute;cil de modelar num&eacute;ricamente. El medio donde tiene lugar, el macizo rocoso, es dif&iacute;cil de caracterizar debido a la presencia de diaclasas ocultas en su interior, por la heterogeneidad de las caracter&iacute;sticas de la masa rocosa que lo compone y por los variados grados de fractura del macizo (Li <i>et al</i>., 2008). A esto se le suma la propia complejidad del fen&oacute;meno de la filtraci&oacute;n en s&iacute;. Sin embargo, en determinadas situaciones es necesario disponer de un modelo que sea capaz de predecir la filtraci&oacute;n que se deber&iacute;a producir en un determinado macizo.</font></p>  	    <p align="justify"><font face="verdana" size="2">Una de esas situaciones m&aacute;s interesantes son los embalses generados por la presencia de una presa, debido a que estas infraestructuras son singulares por sus dimensiones, su vida &uacute;til, su impacto territorial y especialmente por el riesgo que supone su presencia. Debido a ello existe una preocupaci&oacute;n que impulsa a investigar tanto los posibles problemas existentes en las presas como nuevos m&eacute;todos para supervisar su comportamiento. As&iacute;, por ejemplo, un problema presente en algunas de ellas construidas hace ya d&eacute;cadas es la reacci&oacute;n &aacute;lcali&#45;&aacute;rido, la cual deteriora las caracter&iacute;sticas mec&aacute;nicas del hormig&oacute;n. La forma de controlar dicho problema es, por una parte, desarrollando m&eacute;todos de c&aacute;lculo para estudiar la evoluci&oacute;n de las consecuencias de dicha reacci&oacute;n sobre la respuesta de la presa frente a las acciones a las que se encuentra sometida (Comi <i>et al</i>., 2009), y por otra parte, con experimentos para evaluar la reactividad potencial de los &aacute;ridos (Mart&iacute;n <i>et</i> <i>al</i>., 2010; Campos <i>et al</i>., 2010).</font></p>  	    <p align="justify"><font face="verdana" size="2">Las lecturas de los caudales de agua filtrados a trav&eacute;s del cimiento de la presa son uno de los datos m&aacute;s &uacute;tiles para conocer si existe alguna alteraci&oacute;n en el mismo, la cual incidir&aacute; de manera directa sobre el comportamiento de la infraestructura (ASCE, 2000). La estrategia habitual a seguir para supervisar el comportamiento estructural comienza con la recopilaci&oacute;n de las lecturas de ciertos aparatos instalados en la misma y que controlan determinadas variables representativas de su comportamiento &#151;como los caudales filtrados a trav&eacute;s del cimiento o los movimientos de determinados puntos de la estructura&#151;, al igual que obteniendo informaci&oacute;n cualitativa procedente de las inspecciones visuales. El proceso contin&uacute;a con la interpretaci&oacute;n y evaluaci&oacute;n de los datos recopilados y la informaci&oacute;n, para lo que se dispone de modelos de predicci&oacute;n de la lectura de dichos aparatos bajo las condiciones en las que se encontraba la presa en el momento de la lectura de los mismos. Finalmente se toman decisiones sobre las actuaciones a realizar si se detecta o se sospecha de alguna anomal&iacute;a.</font></p>  	    <p align="justify"><font face="verdana" size="2">Frente a la necesidad de modelar num&eacute;ricamente fen&oacute;menos cuya complejidad puede tener diversas causas, como el desconocimiento parcial o total de las leyes que los rigen o la dificultad de caracterizar el medio en que se desarrollan, las redes neuronales artificiales se perfilan como una herramienta &uacute;til (Rafiq <i>et al</i>., 2001). Sus aplicaciones se extienden a muchas ramas de la ingenier&iacute;a, entre ellas: ingenier&iacute;a de <i>software</i> (Singh <i>et al</i>., 2009), ingenier&iacute;a qu&iacute;mica (Jamal <i>et al</i>., 2006) o ingenier&iacute;a civil (Flood, 2001).</font></p>  	    <p align="justify"><font face="verdana" size="2">En este art&iacute;culo se describe la aplicaci&oacute;n de las redes neuronales tipo perceptr&oacute;n multicapa a la modelaci&oacute;n num&eacute;rica del caudal de agua filtrado a trav&eacute;s del cimiento de una presa b&oacute;veda medido en uno de sus aforadores. Las redes neuronales se perfilan como una herramienta adecuada para ello. As&iacute;, el objetivo del presente trabajo es aplicar y evaluar la capacidad de los modelos neuronales para reproducir el fen&oacute;meno planteado.</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Antecedentes y marco de referencia</b></font></p>  	    <p align="justify"><font face="verdana" size="2"><b><i>Modelos t&iacute;picos de predicci&oacute;n del</i> <i>comportamiento de presas</i></b></font></p>  	    <p align="justify"><font face="verdana" size="2">Los modelos de predicci&oacute;n del comportamiento de presas se clasifican en modelos no deterministas, deterministas e h&iacute;bridos. Todos ellos requieren de dos tipos de datos o variables: las variables respuesta y las variables exteriores. Las variables respuesta son magnitudes f&iacute;sicas representativas de un aspecto del comportamiento de la estructura, y se miden con un aparato o sensor de auscultaci&oacute;n instalado en dicha estructura o en el exterior, como es el caso de las lecturas de movimientos mediante DGPS (Gal&aacute;n&#45;Mart&iacute;n <i>et al</i>., 2011). Algunas de las variables m&aacute;s importantes son el caudal de agua filtrado, el movimiento de ciertos puntos de la estructura o las presiones piezom&eacute;tricas registradas en determinadas ubicaciones del cimiento (Marengo&#45;Mogoll&oacute;n, 1996). Las variables exteriores son aquellas magnitudes f&iacute;sicas cuya variaci&oacute;n induce un cambio significativo de una o varias variables respuesta, como el nivel de agua en el embalse.</font></p>  	    <p align="justify"><font face="verdana" size="2">Los modelos no deterministas relacionan las variables respuesta con las exteriores a trav&eacute;s de un conjunto de funciones que dependen de las variables exteriores. Un ejemplo de modelo no determinista es el modelo estad&iacute;stico, en el cual las variables respuesta se relacionan con las exteriores a trav&eacute;s de un conjunto de funciones denominadas de forma, dependientes de estas &uacute;ltimas. Las funciones de forma est&aacute;n multiplicadas por unos coeficientes que se estiman generalmente por el m&eacute;todo de m&iacute;nimos cuadrados a partir de los registros de lecturas de ambas. Desde un punto de vista estad&iacute;stico, los valores de las funciones de forma son los regresores o variables explicativas de un modelo de regresi&oacute;n lineal m&uacute;ltiple y los coeficientes, los estimadores. Es de destacar que estos modelos estad&iacute;sticos se emplean fundamentalmente para la predicci&oacute;n de las variables respuesta de movimientos (ICOLD, 2003).</font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">Los modelos deterministas relacionan las variables respuesta con las exteriores a trav&eacute;s de leyes f&iacute;sicas. El medio geom&eacute;trico y los procesos mec&aacute;nicos, t&eacute;rmicos y qu&iacute;micos son reproducidos por medio de modelos matem&aacute;ticos. T&iacute;picamente requieren discretizar el medio en elementos finitos a los que se les asocia unas leyes de comportamiento del cuerpo estructural y del cimiento. Este tipo de modelos se emplea fundamentalmente para estimar movimientos (ICOLD, 2003), aunque tambi&eacute;n se ha modelado con ellos filtraciones a trav&eacute;s de macizos rocosos fracturados (Li <i>et</i> <i>al</i>., 2008; Yanqing, 2005) o de materiales tipo aluvial (Tayfur <i>et al</i>., 2005).</font></p>  	    <p align="justify"><font face="verdana" size="2">Los modelos h&iacute;bridos son una combinaci&oacute;n entre los modelos estad&iacute;sticos y los deterministas. Las funciones son determinadas con modelos deterministas de la estructura, con ensayos de laboratorio o se adoptan las propuestas en los modelos estad&iacute;sticos. Ambos tipos de funciones se encuentran multiplicadas por coeficientes a calcular con t&eacute;cnicas estad&iacute;sticas a partir de lecturas de las diversas variables tomadas en las tareas de auscultaci&oacute;n.</font></p>  	    <p align="justify"><font face="verdana" size="2"><b><i>Las redes neuronales artificiales</i></b></font></p>  	    <p align="justify"><font face="verdana" size="2">Las redes neuronales artificiales son modelos simplificados del sistema nervioso central. Constan de un n&uacute;mero elevado de elementos de procesamiento simple (neuronas) altamente interconectados entre s&iacute; que trabajan en paralelo y son capaces de aprender, adaptarse y generar soluciones a partir de patrones o datos de entrenamiento (Mart&iacute;n del Br&iacute;o y Sanz&#45;Molina, 1997), resultando as&iacute; modelos no lineales.</font></p>  	    <p align="justify"><font face="verdana" size="2"><i>Las redes neuronales artificiales y los modelos de</i> <i>predicci&oacute;n del comportamiento de presas</i></font></p>  	    <p align="justify"><font face="verdana" size="2">En los &uacute;ltimos a&ntilde;os se han elaborado modelos de comportamiento de presas con redes neuronales tipo perceptr&oacute;n multicapa. Estos nuevos modelos se incluyen dentro del tipo no determinista. Ahmadi&#45;Nedushan y Chouinard (2003) desarrollaron tres redes neuronales para modelar con cada una de ellas los movimientos de un p&eacute;ndulo de una presa de gravedad en una direcci&oacute;n del espacio. La arquitectura de la red consist&iacute;a en una capa oculta con dos o tres neuronas ocultas, seg&uacute;n la red. El procedimiento para determinar el n&uacute;mero de neuronas fue por prueba y error. Mata (2011) modela los movimientos radiales de dos p&eacute;ndulos de la presa de Alto Rabagao, localizada en Vila Real (Portugal) con una red neuronal compuesta por 12 neuronas ocultas en una sola capa.</font></p>  	    <p align="justify"><font face="verdana" size="2">Otras variables respuesta modeladas con redes neuronales son las lecturas de piez&oacute;metros en presas de materiales sueltos (Tayfur <i>et</i> <i>al</i>., 2005) o la predicci&oacute;n de sus asientos (Kim y Kim, 2008). Otras investigaciones estudian las posibilidades de las redes neuronales para prever la respuesta de las presas de gravedad frente a acciones s&iacute;smicas (Joghataie y Dizaji, 2009).</font></p>  	    <p align="justify"><font face="verdana" size="2">Otras t&eacute;cnicas recientemente empleadas en la auscultaci&oacute;n de presas son la l&oacute;gica borrosa, los algoritmos gen&eacute;ticos o la teor&iacute;a de la cointegraci&oacute;n. Rankovic <i>et al</i>. (2012) emplearon con &eacute;xito la l&oacute;gica borrosa para predecir los movimientos radiales de dos p&eacute;ndulos de la presa arco de Bocac, situada en el r&iacute;o Vrbas, en la Rep&uacute;blica de Srpska. Los movimientos radiales de uno de los p&eacute;ndulos de la anterior presa tambi&eacute;n se modelaron con &eacute;xito con una t&eacute;cnica que combina los modelos estad&iacute;sticos de predicci&oacute;n del comportamiento con los algoritmos gen&eacute;ticos (Stojanovic <i>et</i> <i>al</i>., 2013). Inicialmente, se dispone de un n&uacute;mero elevado de regresores vacantes y se seleccionan los m&aacute;s adecuados por medio de la t&eacute;cnica de los algoritmos gen&eacute;ticos, siendo el modelo estad&iacute;stico resultante una soluci&oacute;n de compromiso entre calidad de predicci&oacute;n y complejidad del mismo. Los regresores de los modelos estad&iacute;sticos tradicionalmente empleados en la auscultaci&oacute;n de presas &uacute;nicamente pueden ser usados en series temporales estacionarias. No obstante, esta condici&oacute;n no se suele cumplir en los casos reales. Para solucionar este problema, Li <i>et al</i>. (2013) proponen emplear un nuevo modelo estad&iacute;stico basado en la teor&iacute;a de la cointegraci&oacute;n (Artis&#45;Ortu&ntilde;o <i>et al</i>., 2009). El modelo se valida aplic&aacute;ndolo a la predicci&oacute;n de la lectura de los p&eacute;ndulos de la presa b&oacute;veda de Wanfu, situada al sur de la provincia china de Zhejiang. Las predicciones obtenidas con la nueva t&eacute;cnica son m&aacute;s exactas que las de los modelos tradicionales.</font></p>  	    <p align="justify"><font face="verdana" size="2">Las redes neuronales tambi&eacute;n se han aplicado exitosamente a numerosas facetas del campo de la geolog&iacute;a y la geotecnia. As&iacute;, por ejemplo, con ellas se ha determinado la permeabilidad de suelos de grano fino, con mejores resultados que los obtenidos con modelos de regresi&oacute;n m&uacute;ltiple (Yusuf&#45;Erzin <i>et al</i>., 2009). Tambi&eacute;n se han empleado para estimar la carga &uacute;ltima de cimentaciones superficiales realizadas sobre suelos sin cohesi&oacute;n de forma m&aacute;s satisfactoria que los modelos te&oacute;ricos (Kalinli <i>et al</i>., 2011; Padmini <i>et al</i>., 2008), para evaluar los cambios de la evoluci&oacute;n temporal de la presi&oacute;n intersticial en laderas debido a las lluvias (Mustafa <i>et al</i>., 2012) o la susceptibilidad de las mismas a los deslizamientos (Pradhan y Lee, 2010), o para predecir los movimientos de muros pantalla causados por la posterior excavaci&oacute;n del recinto generado por los mismos en suelos arcillosos (Kung <i>et al</i>., 2007).</font></p>  	    <p align="justify"><font face="verdana" size="2"><i>El perceptr&oacute;n multicapa</i></font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">El perceptr&oacute;n multicapa (MLP) es un modelo neuronal unidireccional compuesto por un m&iacute;nimo de tres capas de neuronas: una capa de entrada, una capa de salida, y una o varias capas ocultas. Es un tipo de red neuronal muy utilizada en ingenier&iacute;a (Rafiq <i>et al</i>., 2001; Meireles <i>et al</i>., 2003). Un patr&oacute;n de entrada <i>p</i> formado por un conjunto de valores de las variables de entrada <i>x</i><sub><i>i</i></sub> est&aacute; representado por el vector <i>x</i><sub><i>p</i></sub> = &#91;1,<i>x</i><sub><i>p</i></sub><sub>1,...,</sub><i>x</i><sub><i>pN</i></sub>&#93;<sup><i>T</i></sup>, donde la primera componente del vector tiene el valor 1 para incluir el sesgo <i>b</i>. Por su parte, <i>w</i><sub><i>ij</i></sub> es el peso de la conexi&oacute;n de la neurona de entrada <i>i</i> con la neurona oculta <i>j</i>, y <i>v</i><sub><i>kj</i></sub> el de la conexi&oacute;n entre la neurona oculta <i>j</i> y la de salida <i>k</i>. Por otra parte, <i>n</i><sub><i>pj</i></sub> y <i>m</i><sub><i>pk</i></sub> son los argumentos de las funciones de activaci&oacute;n de las neuronas de la capa oculta y de salida para un patr&oacute;n <i>p</i> dado, respectivamente; <i>z</i><sub><i>pj</i></sub> e <i>y</i><sub><i>pk</i></sub> son los valores de salida de la neurona <i>j</i> de la capa oculta y <i>k</i> de la de salida, respectivamente, para un patr&oacute;n <i>p</i> dado, como resultado de aplicar la funci&oacute;n de activaci&oacute;n <b><i>F</i></b> sobre la entrada neta a la neurona.</font></p>  	    <p align="justify"><font face="verdana" size="2">Sea una red neuronal compuesta por tres capas, con <i>N</i> neuronas en la capa de entrada, <i>L</i> neuronas en la oculta, <i>M</i> neuronas en la capa de salida, una matriz de pesos y sesgos entre las neuronas de la capa de entrada y la oculta <i>W</i>, y una matriz de pesos y sesgos entre las neuronas de la capa oculta y de salida <i>V</i>. Para un patr&oacute;n de entrada <i>x</i><sub><i>p</i></sub>, los argumentos <i>n</i><sub><i>pj</i></sub> de las neuronas de la capa oculta vendr&aacute;n dados por la ecuaci&oacute;n (1), los valores de salida <i>z</i><sub><i>pj</i></sub> de la capa oculta por la ecuaci&oacute;n (2), los argumentos <i>m</i><sub><i>pk</i></sub> de las neuronas de la capa de salida por la ecuaci&oacute;n (3) y la salida <i>y</i><sub><i>p</i></sub> de la red neuronal por la ecuaci&oacute;n (4):</font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/tca/v5n3/a6e1.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">El entrenamiento de las redes neuronales es un proceso por el cual se determina el valor de los pesos y sesgos con un algoritmo. Las topolog&iacute;as de las redes de tipo perceptr&oacute;n multicapa se entrenan con el algoritmo de retropropagaci&oacute;n (Haykin, 1998). Existen multitud de variaciones de este algoritmo basadas en distintas t&eacute;cnicas de optimizaci&oacute;n, como el gradiente conjugado o los m&eacute;todos de Newton. En este trabajo se utiliza la variante propuesta por Levenberg&#45;Marquardt debido a su rapidez de ejecuci&oacute;n (Beale y Hagan, 2012).</font></p>  	    <p align="justify"><font face="verdana" size="2">Inicialmente los valores de los pesos y sesgos se toman de peque&ntilde;o valor y se eligen aleatoriamente. El algoritmo proporcionar&aacute; a la red un conjunto de datos de entrada, <i>x</i><sub><i>p</i></sub>, y &eacute;sta calcular&aacute; sus correspondientes salidas, <i>y</i><sub><i>p</i></sub>. El algoritmo computar&aacute; las diferencias entre <i>y</i><sub><i>p</i></sub> y el valor objetivo que deber&iacute;a haber proporcionado la red, <i>y*</i><sub><i>p</i></sub>, tratando de minimizarlas, modificando el valor de los pesos y los sesgos. Ser&aacute; necesario, por lo tanto, un conjunto de pares de entrada&#45;salida (<i>x</i><sub><i>p</i></sub><i>, y*</i><sub><i>p</i></sub>), denominado datos de entrenamiento, con el que la red pueda aprender.</font></p>  	    <p align="justify"><font face="verdana" size="2">Si se vuelve a entrenar la red de nuevo, con otros pesos y sesgos iniciales diferentes, la soluci&oacute;n alcanzada ser&aacute; en general diferente de la anterior. Esto ocurre debido a que la hipersuperficie de error dispone de distintos m&iacute;nimos locales y dependiendo del valor de los pesos iniciales se alcanzar&aacute;n unos valores finales u otros. En la pr&aacute;ctica se pretende una red que proporcione unas salidas con el grado de exactitud deseado, no buscando tanto el m&iacute;nimo global sino uno local con la precisi&oacute;n necesaria (Meireles <i>et al</i>., 2003).</font></p>  	    <p align="justify"><font face="verdana" size="2">En conclusi&oacute;n, para unas variables de entrada dadas, dise&ntilde;ar la arquitectura de red es equivalente a determinar el n&uacute;mero de capas ocultas y neuronas en cada una de ellas. Pero, adem&aacute;s, es necesario entrenar un n&uacute;mero suficiente de veces, partiendo de pesos iniciales distintos, hasta obtener una red que produzca soluciones con la suficiente precisi&oacute;n.</font></p>  	    <p align="justify"><font face="verdana" size="2"><i>Selecci&oacute;n de las variables de entrada</i></font></p>  	    <p align="justify"><font face="verdana" size="2">Una ventaja de las redes neuronales es la ausencia de necesidad de seleccionar las variables independientes m&aacute;s importantes. La sinapsis asociada con las variables irrelevantes tendr&aacute; pesos despreciables. En cambio, las variables relevantes poseer&aacute;n pesos significativos (Meireles <i>et al</i>., 2003). Dicha caracter&iacute;stica se emplea en este estudio para seleccionar las variables de entrada que mejor caracterizan al fen&oacute;meno.</font></p>  	    <p align="justify"><font face="verdana" size="2">A partir de esta idea, diversos autores han planteado procedimientos para determinar la importancia de cada una de las variables de entrada a la red neuronal en relaci&oacute;n con cada una de las variables de salida. Una de ellas se realiza mediante el estudio de la magnitud de los pesos propuesto por Garson (1991). Posteriormente surgi&oacute; el an&aacute;lisis de sensibilidad basado en la matriz de sensibilidad Jacobiana. Gedeon (1997) realiz&oacute; un estudio de comparaci&oacute;n de ambos m&eacute;todos, desprendi&eacute;ndose que el procedimiento de la matriz Jacobiana proporciona un mejor acuerdo con la t&eacute;cnica expuesta en el p&aacute;rrafo anterior. En consecuencia, el an&aacute;lisis de sensibilidad basado en el c&aacute;lculo de la matriz de sensibilidad Jacobiana es m&aacute;s fiable que el basado en la magnitud de los pesos.</font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">Los elementos que componen la matriz Jacobiana <i>S</i> proporcionan una medida de la sensibilidad de las salidas a cambios que se producen en cada una de las variables de entrada. En la matriz Jacobiana <i>S</i> de orden <i>ixk</i>, cada fila representa una entrada a la red y cada columna una salida, de modo que el elemento <i>S</i><sub><i>ik</i></sub> de la matriz es un &iacute;ndice de la sensibilidad de la salida <i>k</i> con respecto a la entrada <i>i</i>. Cada elemento <i>S</i><sub><i>ik</i></sub> se calcula aplicando la regla de la cadena, con la expresi&oacute;n siguiente:</font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/tca/v5n3/a6e5.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">Por tanto, cuanto mayor sea el valor absoluto de <i>S</i><sub><i>ik</i></sub>, mayor es el efecto de la variable <i>x</i><sub><i>i</i></sub> sobre <i>y</i><sub><i>k</i></sub>. La sensibilidad ha de ser evaluada para todos los patrones de datos. Considerando la sensibilidad entre <i>i</i> y <i>k</i> para el patr&oacute;n <i>x</i><sub><i>p</i></sub> como <i>S</i><sub><i>ik</i></sub>(<i>p</i>), se puede definir la sensibilidad a partir de la media muestral, <i>E</i>(<i>S</i><sub><i>ik</i></sub>(<i>p</i>)), estimada mediante la ecuaci&oacute;n (6):</font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/tca/v5n3/a6e6.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2"><i>N&uacute;mero de capas ocultas y de neuronas</i></font></p>  	    <p align="justify"><font face="verdana" size="2">El n&uacute;mero &oacute;ptimo de capas ocultas y de neuronas en cada una de ellas es una cuesti&oacute;n pendiente de resolver. Actualmente, la forma m&aacute;s com&uacute;n de determinarlo es aplicando el m&eacute;todo de prueba y error (Ahmadi&#45;Nedushan y Chouinard, 2003), aunque existen algunos consejos generales y m&eacute;todos de optimizaci&oacute;n de la estructura neuronal.</font></p>  	    <p align="justify"><font face="verdana" size="2">Meireles <i>et al</i>. (2003) recomiendan incrementar el n&uacute;mero de capas ocultas hasta alcanzar los resultados deseados del entrenamiento o bien emplear tres capas (existir&aacute; entonces una sola capa oculta) y aumentar el n&uacute;mero de neuronas en la oculta hasta que los resultados tengan la precisi&oacute;n deseada. Rafiq <i>et</i> <i>al</i>. (2001) indican que una sola capa oculta con un n&uacute;mero adecuado de neuronas es suficiente para modelar la mayor&iacute;a de los problemas pr&aacute;cticos.</font></p>  	    <p align="justify"><font face="verdana" size="2">En cuanto a las neuronas ocultas, Hecht&#45;Nielsen (1990) propone, a partir del teorema de Kolmogorov (Hassoun, 1995), que su n&uacute;mero debe ser menor o igual a dos veces el n&uacute;mero de variables de entrada a la red m&aacute;s uno.</font></p>  	    <p align="justify"><font face="verdana" size="2">Los m&eacute;todos de optimizaci&oacute;n de la estructura de la red neuronal se pueden clasificar en dos grupos: algoritmos neuronales de poda y algoritmos neuronales de crecimiento. Ambos tienen el inconveniente de no ser computacionalmente eficientes y de no poder garantizar que el resultado sea el &oacute;ptimo (Ren y Zhao, 2002). En la misma referencia se propone un nuevo algoritmo con un enfoque diferente que combina la t&eacute;cnica de b&uacute;squeda de la secci&oacute;n dorada (<i>golden&#45;section search technique</i>) (Guti&eacute;rrez, 2003) y el criterio de informaci&oacute;n de Akaike (AIC). Los autores lo aplican a redes neuronales tipo perceptr&oacute;n multicapa con una capa oculta y una &uacute;nica salida. Este criterio de informaci&oacute;n ha sido aplicado por otros autores a las redes neuronales. As&iacute;, por ejemplo, Kalin <i>et al</i>. (2010) seleccionan con &eacute;l la red neuronal m&aacute;s adecuada para predecir la calidad del agua en cuencas hidrogr&aacute;ficas o Zhao <i>et al</i>. (2008) dise&ntilde;an la arquitectura de las redes neuronales empleadas en sus investigaciones con &eacute;l.</font></p>  	    <p align="justify"><font face="verdana" size="2">La b&uacute;squeda de la secci&oacute;n dorada es una t&eacute;cnica para encontrar el <i>extremum</i> de una funci&oacute;n unimodal, que consiste en reducir sucesivamente el rango de valores, entre los cuales se encuentra la soluci&oacute;n. El AIC aplicado a las redes neuronales seg&uacute;n Ren <i>et al</i>. (2002) para el conjunto de datos de entrenamiento es un valor calculado a partir de la ecuaci&oacute;n (7) si <i>P</i>/(<i>Q</i> + 1) &le; 40 o la ecuaci&oacute;n (8) si <i>P</i>/(<i>Q</i> + 1) &gt; 40:</font></p>  	    ]]></body>
<body><![CDATA[<p align="center"><font face="verdana" size="2"><img src="/img/revistas/tca/v5n3/a6e7.jpg"></font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/tca/v5n3/a6e8.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">siendo <i>P</i> el n&uacute;mero de patrones de entrenamiento; <img src="/img/revistas/tca/v5n3/a6o.jpg"> = &sum;s<sup>2</sup>/<i>P</i>, el error cuadr&aacute;tico medio entre las salidas objetivo y las calculadas por la red y <i>Q</i>, el n&uacute;mero de pesos y sesgos de la red, esto es, de par&aacute;metros. El valor del AIC permite seleccionar la red &oacute;ptima entre diferentes arquitecturas, considerando que a menor valor mejor ser&aacute; la red.</font></p>  	    <p align="justify"><font face="verdana" size="2">Dado un problema, el n&uacute;mero de datos de entrenamiento <i>P</i> y el de entradas y salidas de la red neuronal es fijo. Entonces el primer sumando de la expresi&oacute;n del AIC dada por la ecuaci&oacute;n (7) o la ecuaci&oacute;n (8) depende &uacute;nicamente del error cuadr&aacute;tico medio del modelo y el segundo t&eacute;rmino del n&uacute;mero de par&aacute;metros, con el objetivo de penalizar el sobreajuste.</font></p>  	    <p align="justify"><font face="verdana" size="2"><i>Algoritmo de Ren de optimizaci&oacute;n de la arquitectura</i> <i>neuronal</i></font></p>  	    <p align="justify"><font face="verdana" size="2">La aplicaci&oacute;n del m&eacute;todo de la secci&oacute;n dorada para minimizar el valor del AIC de varias redes candidatas requiere que la funci&oacute;n que rige su valor sea unimodal, lo cual es comprobable al finalizar el proceso. Para un conjunto dado de <i>P</i> datos de entrenamiento, el n&uacute;mero m&iacute;nimo de neuronas ocultas es uno y el m&aacute;ximo ha de ser inferior a <i>P</i>.</font></p>  	    <p align="justify"><font face="verdana" size="2">Considerando una red neuronal con una capa oculta, <i>N</i> entradas, <i>L</i> neuronas ocultas y <i>M</i> salidas, el algoritmo de optimizaci&oacute;n de su arquitectura consta de los siguientes pasos (Ren y Zhao, 2002):</font></p>  	    <blockquote> 		    <p align="justify"><font face="verdana" size="2">1. Fijar el n&uacute;mero m&iacute;nimo de neuronas ocultas <i>N</i><sub>0</sub> = 1 y el m&aacute;ximo n&uacute;mero posible <i>N</i><sub>1</sub> = (<i>P</i> &#45; <i>M</i>)/(<i>N</i> + <i>M</i> + 1).</font></p>  		    <p align="justify"><font face="verdana" size="2">2. Calcular los puntos de la secci&oacute;n dorada <i>N</i><sub>2</sub> = <i>N</i><sub>0</sub> + j(<i>N</i><sub>1</sub> &#45; <i>N</i><sub>0)</sub> y <i>N</i><sub>3</sub> = <i>N</i><sub>1</sub> &#45; j(<i>N</i><sub>1</sub> &#45; <i>N</i><sub>0)</sub>, siendo j = (&radic;5 &#45; 1)/2 el radio de la secci&oacute;n dorada. <i>N</i><sub>2</sub> y <i>N</i><sub>3</sub> se redondean al entero m&aacute;s pr&oacute;ximo.</font></p>  		    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">3. Construir dos redes neuronales. Ambas tendr&aacute;n <i>N</i> neuronas de entrada y <i>M</i> neuronas de salida, pero la primera <i>N</i><sub>2</sub> neuronas ocultas y la segunda <i>N</i><sub>3</sub>.</font></p>  		    <p align="justify"><font face="verdana" size="2">4. Entrenar cada arquitectura de red del punto anterior varias veces con diferentes pesos y sesgos iniciales y obtener de entre todas las redes resultantes aquella con el m&iacute;nimo error cuadr&aacute;tico medio al predecir los datos de entrenamiento.</font></p>  		    <p align="justify"><font face="verdana" size="2">5. Calcular el valor del <i>AIC</i> o <i>AIC</i><sub><i>c</i></sub>, seg&uacute;n corresponda, de ambas redes, obteni&eacute;ndose <i>AIC</i>(<i>N</i><sub>2</sub>) y <i>AIC</i>(<i>N</i><sub>3</sub>). A continuaci&oacute;n:</font></p>  		    <blockquote> 			    <p align="justify"><font face="verdana" size="2">a) Si <i>N</i><sub>0</sub> = <i>N</i><sub>1</sub>, se detiene el algoritmo.</font></p>  			    <p align="justify"><font face="verdana" size="2">b) Si <i>AIC</i>(<i>N</i><sub>2</sub>) &le; <i>AIC</i>(<i>N</i><sub>3</sub>), se toma <i>N</i><sub>0</sub> = <i>N</i><sub>0</sub>, <i>N</i><sub>1</sub> = <i>N</i><sub>3</sub> y el algoritmo contin&uacute;a en el paso 2.</font></p>  			    <p align="justify"><font face="verdana" size="2">c) Si <i>AIC</i>(<i>N</i><sub>2</sub>) &gt; <i>AIC</i>(<i>N</i><sub>3</sub>), entonces <i>N</i><sub>0</sub> = <i>N</i><sub>2</sub>, <i>N</i><sub>1</sub> = <i>N</i><sub>1</sub>, y el algoritmo contin&uacute;a en el paso 2.</font></p>  			    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p> 		</blockquote> 	</blockquote>  	    <p align="justify"><font face="verdana" size="2"><b>Metodolog&iacute;a</b></font></p>  	    <p align="justify"><font face="verdana" size="2"><b><i>Caso piloto</i></b></font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">La presa de La Baells fue elegida como caso piloto. Se trata de una presa b&oacute;veda de arcos de tres centros y doble curvatura, con una altura sobre cimientos de 102 metros, construida entre los a&ntilde;os 1974 y 1975. Est&aacute; situada en el r&iacute;o Llobregat, en el T&eacute;rmino Municipal de Cercs i Vilada (Bergueda) de Barcelona (Espa&ntilde;a).</font></p>  	    <p align="justify"><font face="verdana" size="2">La cerrada de la presa est&aacute; situada en terrenos terciarios del Oligoceno y constituida por alternancias de conglomerados y areniscas de grano medio, con algunas intercalaciones en capas delgadas de arenisca arcillosa y argilita, predominando el conglomerado sobre la arenisca. Ambas alternancias suponen aproximadamente el 85% de la formaci&oacute;n, constituyendo el resto alternancias cementadas. Los bancos son planos, con disposici&oacute;n pr&aacute;cticamente vertical y perpendicular al cauce, con una ligera tendencia hacia el sur, siendo su direcci&oacute;n aproximada E&#45;W. Esta disposici&oacute;n de los bancos garantiza la impermeabilidad y es favorable al apoyo de la presa.</font></p>  	    <p align="justify"><font face="verdana" size="2">Los conglomerados est&aacute;n formados por cantos de caliza, granito y cuarcita, que tienen forma redondeada, con tama&ntilde;os predominantes cercanos a los 10 cm y matriz de arenisca calc&aacute;rea. Son muy duros y cementados, aunque en alguna zona localizada est&aacute;n alterados. Las areniscas de grano grueso poseen un cemento calc&aacute;reo bastante basto, present&aacute;ndose generalmente en forma de lentejones. El conjunto de argilitas y areniscas de grano fino, seg&uacute;n su mayor o menor contenido de arenas, est&aacute; constituido por rocas duras y compactas de origen arcillo&#45;arenoso, que son bastante resistentes a la erosi&oacute;n.</font></p>  	    <p align="justify"><font face="verdana" size="2">En la presa se realiza un control de las filtraciones internas con aforadores, midiendo el caudal filtrado a trav&eacute;s del hormig&oacute;n y del cimiento. El aforador seleccionado para ser modelado mide el caudal de agua recogida en una de las galer&iacute;as laterales excavadas en el cimiento.</font></p>  	    <p align="justify"><font face="verdana" size="2"><b><i>Variables de las que depende el caudal filtrado</i></b></font></p>  	    <p align="justify"><font face="verdana" size="2">La filtraci&oacute;n a trav&eacute;s de un macizo rocoso est&aacute; influida por el gradiente hidr&aacute;ulico, por la conductividad hidr&aacute;ulica del medio a trav&eacute;s del que discurre el fluido y por el estado tensional del macizo rocoso. A su vez, el estado tensional depender&aacute; de los esfuerzos transmitidos por la presa debido a la carga hidr&aacute;ulica generada por el embalse y del campo de temperaturas del hormig&oacute;n de la presa y de la roca del macizo.</font></p>  	    <p align="justify"><font face="verdana" size="2">Debido a los fen&oacute;menos de fluencia y relajaci&oacute;n del hormig&oacute;n, y en menor medida de la roca, el caudal filtrado tambi&eacute;n resulta influenciado por la historia de cargas pasadas. Consecuentemente, existe una inercia t&eacute;rmica y tenso&#45;deformacional que ralentiza los cambios.</font></p>  	    <p align="justify"><font face="verdana" size="2">El gradiente hidr&aacute;ulico depende de la cota de la l&aacute;mina de agua en el embalse. El campo de temperaturas depende de la temperatura del macizo rocoso y del agua, y ambas a su vez depender&aacute;n de la temperatura ambiental. As&iacute;, la caracterizaci&oacute;n del campo de temperaturas se puede llevar a cabo con la variable <i>temperatura</i> <i>diaria ambiental</i>, <i>T</i>. El dato de la temperatura disponible es el medido en el emplazamiento de la presa y que aproximadamente puede considerarse representativo de la temperatura a lo largo de ese d&iacute;a. El campo de tensiones depende de la carga hidr&aacute;ulica y del campo de temperaturas. En consecuencia, se podr&aacute; caracterizar con las variables <i>nivel de agua en el</i> <i>embalse</i> <i>H</i> y <i>temperatura diaria ambiental</i> <i>T</i>.</font></p>  	    <p align="justify"><font face="verdana" size="2">La informaci&oacute;n acerca de los estados pasados del campo de temperaturas y de tensiones se suministra a la red neuronal, cuantificando la velocidad a la que cambia la <i>temperatura diaria ambiental</i> y el <i>nivel de agua en</i> <i>el embalse</i> en periodos pasados. La velocidad de cambio de la variable <i>A</i> en el periodo (<i>n</i>,<i>m</i>), <i>A</i><sub><i>n</i></sub><sub>,</sub><sub><i>m</i></sub>, se calcula con la ecuaci&oacute;n (9), que en t&eacute;rminos matem&aacute;ticos se corresponde con la expresi&oacute;n de la tasa de cambio de la funci&oacute;n <i>A</i>(<i>t</i>):</font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/tca/v5n3/a6e9.jpg"></font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">siendo <i>A</i><sub><i>n</i></sub> el valor que tom&oacute; <i>A</i>, <i>n</i> d&iacute;as antes (ver <a href="#f1">figura 1</a>). Los periodos escogidos corresponden a (0,10), (10,20) y (20,30) d&iacute;as.</font></p>  	    <p align="center"><font face="verdana" size="2"><a name="f1"></a></font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/tca/v5n3/a6f1.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2"><b><i>Datos disponibles</i></b></font></p>  	    <p align="justify"><font face="verdana" size="2">Extrayendo los datos de las lecturas de la instrumentaci&oacute;n instalada en la presa de La Baells, se dispone de 1 021 d&iacute;as en los que se midi&oacute; el caudal en el aforador objeto de la investigaci&oacute;n, comprendidos entre el 15/02/1980 y 24/10/2008. La temperatura media ambiental se registr&oacute; en 8 964 d&iacute;as, entre el 1/10/1979 y 29/10/2008, y el nivel de agua en el embalse en 9 271 ocasiones, entre el 3/08/1979 y 29/10/2008. La elevada frecuencia de lectura de la temperatura y el nivel permite estimar las lecturas ausentes mediante interpolaci&oacute;n lineal.</font></p>  	    <p align="justify"><font face="verdana" size="2">En la <a href="/img/revistas/tca/v5n3/a6f2.jpg" target="_blank">figura 2</a> se han representado, en orden descendente, los datos originales e interpolados del nivel de agua y la temperatura ambiental y las lecturas de los caudales del aforador. La matriz de coeficientes de correlaci&oacute;n indica un grado de correlaci&oacute;n aceptablemente bajo entre los datos, mostr&aacute;ndose los resultados en el <a href="/img/revistas/tca/v5n3/a6c1.jpg" target="_blank">cuadro 1</a>. Los datos empleados en el entrenamiento de las redes se normalizan mediante una transformaci&oacute;n lineal tal que sus m&aacute;ximos y m&iacute;nimos pasaron a ser 1 y &#45;1, respectivamente.</font></p>  	    <p align="justify"><font face="verdana" size="2"><b><i>Dise&ntilde;o de la red neuronal</i></b></font></p>  	    <p align="justify"><font face="verdana" size="2">La metodolog&iacute;a para definir la arquitectura neuronal se compone de los pasos representados gr&aacute;ficamente en el diagrama de flujo de la <a href="/img/revistas/tca/v5n3/a6f3.jpg" target="_blank">figura 3</a>. En el primero se calculan los valores de las variables de entrada a la red neuronal, que son la <i>temperatura diaria ambiental</i>, el <i>nivel</i> <i>de agua en el embalse</i> y la velocidad de cambio de ambas variables en los periodos (0,10), (10,20) y (20,30) d&iacute;as. Posteriormente se seleccionan aquellas fechas en las que se dispone de registros del caudal filtrado. En total se dispone de 1 021 registros completos de valores de las variables de entrada y salida a la red neuronal.</font></p>  	    <p align="justify"><font face="verdana" size="2">Seguidamente, los 1 021 registros se dividen en cuatro subconjuntos denominados D1, D2, D3 y D4. El primero de ellos (D1) se usa para entrenar las redes neuronales; el segundo (D2), junto con el primero, para seleccionar redes neuronales y variables de entrada, seg&uacute;n se explica en los sucesivos p&aacute;rrafos; el tercero (D3), para escoger de entre cada una de las redes obtenidas en cada iteraci&oacute;n aquella que modelar&aacute; el fen&oacute;meno objeto de estudio, y el cuarto (D4), para evaluar la capacidad predictiva de la red escogida anteriormente.</font></p>  	    <p align="justify"><font face="verdana" size="2">Los 1 021 registros se dividen aleatoriamente en los cuatro subconjuntos antes explicados. El primero de ellos, D1, contiene 608 registros (el 59.7% de los totales); el segundo, 207 registros (20.3%); el tercero, 103 registros (10.1%); y el cuarto, 103 registros tambi&eacute;n. Se comprueba que las cuatro muestras anteriores provienen de la misma poblaci&oacute;n por medio de un test de homogeneidad.</font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">Posteriormente se determina el n&uacute;mero de neuronas ocultas para unas variables de entrada dadas con el algoritmo de Ren. Cada arquitectura de red se entrena 200 veces con el algoritmo de Levenberg&#45;Marquardt, con pesos y sesgos iniciales diferentes, usando el subconjunto de datos D1 normalizado. De esas 200 redes con la misma arquitectura, se selecciona aquella con menor valor del AIC determinado con los subconjuntos D1 y D2, y que cumpla adem&aacute;s que la relaci&oacute;n entre las ra&iacute;ces cuadr&aacute;ticas medias del error, al predecir ambos subconjuntos, est&eacute; comprendida entre 0.8 y 1.2. Esta &uacute;ltima condici&oacute;n busca garantizar la capacidad de generalizaci&oacute;n de la red y evitar posibles sobre&#45;entrenamientos.</font></p>  	    <p align="justify"><font face="verdana" size="2">El siguiente paso es el an&aacute;lisis de importancia de cada una de las variables de entrada a la red resultante del algoritmo de Ren. Para ello, mediante los valores de la esperanza matem&aacute;tica de la sensibilidad, <i>E</i>(<i>S</i><sub><i>ik</i></sub>(<i>p</i>)), estimados con la ecuaci&oacute;n (6), se define la matriz de importancia <i>I</i>. El elemento <i>I</i><sub><i>ik</i></sub> cuantifica el efecto relativo de la variable de entrada <i>i</i> sobre la de salida <i>k</i>, en relaci&oacute;n con el resto de variables de entrada. Los elementos de la matriz se calculan mediante la expresi&oacute;n:</font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/tca/v5n3/a6e10.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">Una vez calculada la matriz de importancia con los subconjuntos de datos D1 y D2 de forma independiente, se elimina la variable menos importante y se repite el proceso descrito en los dos p&aacute;rrafos anteriores con las nuevas variables de entrada. Denominaremos iteraci&oacute;n al proceso de determinaci&oacute;n de la mejor arquitectura de red, seg&uacute;n el algoritmo de Ren para unas variables de entrada fijas y de evaluaci&oacute;n de la importancia de dichas variables.</font></p>  	    <p align="justify"><font face="verdana" size="2">El proceso termina cuando s&oacute;lo hay una variable de entrada a la red, teni&eacute;ndose al final de &eacute;l <i>i</i> redes neuronales, siendo <i>i</i> el n&uacute;mero de variables de entrada iniciales.</font></p>  	    <p align="justify"><font face="verdana" size="2">De esas redes se escoge aquella con menor valor del AIC, calculado con el subconjunto D3, y se determina su capacidad de predicci&oacute;n con el subconjunto D4, en t&eacute;rminos del valor de la ra&iacute;z cuadr&aacute;tica media del error.</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Resultados y discusi&oacute;n</b></font></p>  	    <p align="justify"><font face="verdana" size="2"><b><i>Primera iteraci&oacute;n</i></b></font></p>  	    <p align="justify"><font face="verdana" size="2">Las variables de entrada a la red neuronal en la primera iteraci&oacute;n fueron la <i>temperatura</i> <i>diaria ambiental</i>, el <i>nivel de agua en el embalse</i> y la velocidad de cambio de ambas variables en los periodos (0,10), (10,20) y (20,30) d&iacute;as.</font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">Fijadas las variables de entrada, se determina el n&uacute;mero de neuronas ocultas con el algoritmo de Ren. Inicialmente, el n&uacute;mero m&iacute;nimo de neuronas ocultas, <i>N</i><sub>0</sub>, es 1 y el m&aacute;ximo posible <i>N</i><sub>1</sub>, 61. Se calculan los puntos de la secci&oacute;n dorada, que en este primer paso son <i>N</i><sub>2</sub> = 24 y <i>N</i><sub>3</sub> = 38. A continuaci&oacute;n se entrenan 200 redes neuronales con 24 neuronas ocultas y otras 200 con 38, cada una de ellas con diferentes pesos y sesgos. Finalizado el entrenamiento se escoge de cada arquitectura aquella red con menor ra&iacute;z cuadr&aacute;tica media del error (RMSE), al predecir los subconjuntos D1 y D2, y que cumpla adem&aacute;s que la relaci&oacute;n entre las ra&iacute;ces cuadr&aacute;ticas medias del error al predecir ambos subconjuntos est&eacute; comprendida entre 0.8 y 1.2. Una vez seleccionadas se calcula el valor del AIC de ambas redes, en este caso <i>AIC</i><sub><i>c</i></sub>(<i>N</i><sub>2</sub>) = 1 860 y <i>AIC</i><sub><i>c</i></sub>(<i>N</i><sub>3</sub>) = 3 155. Como <i>AIC</i><sub><i>c</i></sub>(<i>N</i><sub>2</sub>) &lt; <i>AIC</i><sub><i>c</i></sub>(<i>N</i><sub>3</sub>), se toma <i>N</i><sub>0</sub> = 1 y <i>N</i><sub>1</sub> = 38. Se calculan los nuevos puntos de la secci&oacute;n dorada, repiti&eacute;ndose el proceso explicado. Los resultados de los pasos hasta alcanzar el n&uacute;mero de neuronas &oacute;ptimo se tabulan en el <a href="/img/revistas/tca/v5n3/a6c2.jpg" target="_blank">cuadro 2</a>. Obs&eacute;rvese en la sexta columna de dicha tabla que la forma de la funci&oacute;n que rige los valores del <i>AIC</i> es unimodal, con un valor m&iacute;nimo de 1 113.</font></p>  	    <p align="justify"><font face="verdana" size="2">La arquitectura &oacute;ptima tiene cinco neuronas ocultas, con valores de la ra&iacute;z cuadr&aacute;tica media del error al predecir el subconjunto D1 y D2 de 2.28 y 2.58 l/min, respectivamente. La variable con menor valor de la importancia es la velocidad de variaci&oacute;n de la temperatura en el intervalo (0,10), <i>T</i><sub>0,10</sub>, y por consiguiente es eliminada y no se tendr&aacute; en cuenta en las sucesivas iteraciones. Obs&eacute;rvese que los valores de la importancia son id&eacute;nticos para ambos subconjuntos, hecho que se repite en el resto de las iteraciones.</font></p>  	    <p align="justify"><font face="verdana" size="2"><b><i>Proceso iterativo y modelo final</i></b></font></p>  	    <p align="justify"><font face="verdana" size="2">El proceso se repite sucesivamente hasta que s&oacute;lo hay una entrada a la red. Las ra&iacute;ces cuadr&aacute;ticas medias del error al predecir los diversos subconjuntos de datos y sus respectivos valores del <i>AIC</i>, al igual que el n&uacute;mero de neuronas ocultas de las redes resultantes de cada iteraci&oacute;n, se tabulan en el <a href="/img/revistas/tca/v5n3/a6c3.jpg" target="_blank">cuadro 3</a>. El proceso contin&uacute;a hasta que s&oacute;lo queda una variable de entrada. El orden de eliminaci&oacute;n de las variables es el siguiente: <i>T</i><sub>0,10</sub>, <i>T</i><sub>20,30</sub>, <i>T</i><sub>10,20</sub>, <i>T</i>, <i>H</i><sub>10,20</sub>, <i>H</i><sub>20,30</sub>, <i>H</i><sub>0,10</sub> y <i>H</i>. Posteriormente se elige aquella red con el n&uacute;mero de entradas y de neuronas ocultas que haya proporcionado el menor valor del <i>AIC</i> al predecir el subconjunto D3. En el caso en estudio, la red seleccionada es la de la iteraci&oacute;n 5, cuyas variables de entrada son el nivel de agua en el embalse y sus tres velocidades de periodos (0,10), (10,20) y (20,30) d&iacute;as. La arquitectura de la red est&aacute; compuesta por tres neuronas ocultas, con un valor de las ra&iacute;ces cuadr&aacute;ticas medias del error al predecir los subconjuntos de datos D1, D2, D3 y D4 de 2.41, 2.65, 1.96 y 1.84 l/min, respectivamente. La <a href="/img/revistas/tca/v5n3/a6f4.jpg" target="_blank">figura 4</a> muestra la predicci&oacute;n realizada por la red frente a la lectura del aforador.</font></p>  	    <p align="justify"><font face="verdana" size="2"><b><i>Comportamiento de las redes neuronales</i></b></font></p>  	    <p align="justify"><font face="verdana" size="2">Se han determinado las variables m&aacute;s adecuadas para modelar el caudal aforado, a partir de un conjunto de partida. Destaca que entre ellas no se encuentra la temperatura. El aforador en cuesti&oacute;n recoge el agua filtrada entre las cotas 590 y 550 metros, la denominada zona de estudio. La cota m&aacute;s baja del pie de presa se sit&uacute;a a la 535, y la coronaci&oacute;n a la 632. La parte superior de la zona de estudio de la filtraci&oacute;n est&aacute; 42 metros por debajo de la superficie del terreno. La parte m&aacute;s sensible a las variaciones t&eacute;rmicas coincide con los primeros metros superiores del estrato rocoso (Guidicini y De Andrade, 1988). Por ello, al encontrarse tan profunda la zona de estudio, parece l&oacute;gico que las variaciones t&eacute;rmicas ambientales no tengan una influencia apreciable en la filtraci&oacute;n. Por otra parte, en una presa tipo b&oacute;veda, la carga se transmite al terreno principalmente por efecto arco en la parte superior de la cerrada y esto afecta la permeabilidad de dicha zona, pero dif&iacute;cilmente esta afecci&oacute;n ser&aacute; apreciable en el &aacute;rea de cimiento, cuya filtraci&oacute;n recoge el aforador analizado.</font></p>  	    <p align="justify"><font face="verdana" size="2">Otro aspecto a analizar son los valores de las ra&iacute;ces cuadr&aacute;ticas medias del error, al predecir los cuatro subconjuntos de datos. Los valores de los errores en los cuatro subconjuntos son muy parecidos entre s&iacute; en cada una de las ocho iteraciones, lo cual es un indicio de ausencia de sobre&#45;entrenamiento y capacidad de generalizaci&oacute;n de las diferentes redes. Adem&aacute;s, en casi todos los casos, los valores del error de los subconjuntos D3 y D4 son menores que los alcanzados con los subconjuntos D1 y D2, lo que es otro indicio de capacidad de generalizaci&oacute;n. Recu&eacute;rdese que el subconjunto D3 s&oacute;lo se emplea al escoger una red entre las determinadas en cada iteraci&oacute;n, no interviniendo en los c&aacute;lculos ejecutados en las iteraciones.</font></p>  	    <p align="justify"><font face="verdana" size="2">La comparaci&oacute;n entre redes de diferentes iteraciones, esto es, con diferentes arquitecturas, se realiza con el <i>AIC</i>, cuyo valor depende tanto de la ra&iacute;z cuadr&aacute;tica media del error como de la estructura de la red. El criterio de informaci&oacute;n tambi&eacute;n depende del n&uacute;mero de datos de cada conjunto; por ello, para una misma estructura de red existe una diferencia apreciable entre los valores del criterio calculados con los cuatro conjuntos de datos. Se observa en el <a href="/img/revistas/tca/v5n3/a6c3.jpg" target="_blank">cuadro 3</a> que en la quinta iteraci&oacute;n se alcanza su valor m&iacute;nimo para el subconjunto de datos D3, ocurriendo lo mismo para los subconjuntos D4 y D2. No pasa lo mismo para el subconjunto D1, aunque se ha de indicar que la diferencia entre el valor del criterio en la iteraci&oacute;n quinta y en la sexta (donde se encuentra el m&iacute;nimo) es tan s&oacute;lo de un 2.2%.</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Conclusiones</b></font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">La predicci&oacute;n de los caudales filtrados a trav&eacute;s del cimiento registrados en un aforador de una presa b&oacute;veda elegida como caso piloto se ha realizado con un modelo de redes neuronales. El caudal de agua discurre a trav&eacute;s de un medio, el macizo rocoso, que generalmente es muy dif&iacute;cil de caracterizar debido al gran n&uacute;mero de diaclasas presentes y por el car&aacute;cter heterog&eacute;neo de la masa rocosa. Adem&aacute;s, el propio fen&oacute;meno de la filtraci&oacute;n se rige por unas leyes f&iacute;sicas complejas. Frente a esta situaci&oacute;n, las redes neuronales han sido capaces de generar un modelo de predicci&oacute;n de caudales filtrados que cumple con las expectativas de simplicidad y capacidad de generalizaci&oacute;n y predicci&oacute;n. Los resultados obtenidos abren la posibilidad de incorporar estos modelos al conjunto de herramientas disponibles para llevar a cabo las tareas de supervisi&oacute;n del comportamiento estructural.</font></p>  	    <p align="justify"><font face="verdana" size="2">Adem&aacute;s, la determinaci&oacute;n de las variables relevantes abre la posibilidad de interpretar el fen&oacute;meno modelado. As&iacute;, por ejemplo, el fen&oacute;meno de inercia en la respuesta de la presa se puede analizar a trav&eacute;s de las velocidades de variaci&oacute;n de los niveles. El modelo resultante tambi&eacute;n permite estudiar la influencia de cada una de las variables exteriores sobre el caudal de agua filtrado. De este modo, si frente a una combinaci&oacute;n de acciones exteriores en un rango habitual se produce una desviaci&oacute;n considerable del caudal filtrado debido a una supuesta aver&iacute;a, &eacute;sta podr&iacute;a ser identificada m&aacute;s r&aacute;pidamente. En conclusi&oacute;n, las caracter&iacute;sticas de los modelos de comportamientos de presas basados en redes neuronales artificiales las convierten en una herramienta &uacute;til para su empleo en las labores habituales de auscultaci&oacute;n de presas. La metodolog&iacute;a presentada se ha aplicado al caudal filtrado en un aforador, pero es f&aacute;cilmente extensible a otras variables respuesta de la estructura.</font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Agradecimientos</b></font></p>  	    <p align="justify"><font face="verdana" size="2">Agradecemos la financiaci&oacute;n del Ministerio de Medio Ambiente y Medio Rural y Marino del Gobierno de Espa&ntilde;a a trav&eacute;s del proyecto de investigaci&oacute;n ``Estudio de la Seguridad de Presas e Identificaci&oacute;n de Escenarios de Riesgo mediante Sistemas Inteligentes'' (SEPRISIS) con c&oacute;digo 048/RN08/04.5.</font></p>  	    <p align="justify"><font face="verdana" size="2">Los autores tambi&eacute;n quieren expresar su agradecimiento a la empresa Ofiteco y a la Agencia Catalana del Agua por los datos proporcionados de la presa de La Baells.</font></p>  	    <p align="right"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Referencias</b></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">AHMADI&#45;NEDUSHAN, B. and CHOUINARD, L.E. Use of artificial neural networks for real time analysis of dam monitoring data. <i>Proceedings of the Annual Conference of the</i> <i>Canadian Society for Civil Engineering,</i> Moncton, Nouveau&#45;Brunswick, Canada, June, 2003.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9754459&pid=S2007-2422201400030000600001&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    ]]></body>
<body><![CDATA[<!-- ref --><p align="justify"><font face="verdana" size="2">ARTIS&#45;ORTU&Ntilde;O, M., SURI&Ntilde;ACH&#45;CARALT, J. y L&Oacute;PEZ&#45;BAZO, E. <i>An&aacute;lisis econ&oacute;mico regional. Nociones de la</i> <i>cointegraci&oacute;n</i>. Barcelona: Antoni Bosch, 2009, pp. 192.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9754461&pid=S2007-2422201400030000600002&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">ASCE. <i>Guidelines for instrumentation and measurements for</i> <i>monitoring dam performance</i>. Reston, Virginia: American Society of Civil Engineers, 2000, 712 pp.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9754463&pid=S2007-2422201400030000600003&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">BEALE, M. and HAGAN, M. <i>Neural network toolbox 7. User's</i> <i>Guide</i>. Natick, MA, USA: The MathWorks, 2012, 422 pp.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9754465&pid=S2007-2422201400030000600004&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">CAMPOS, P.L., GADEA, J., SORIANO, J., MART&Iacute;N, A. y CALDER&Oacute;N, V. Reactividad &aacute;lcali&#45;s&iacute;lice y &aacute;lcali&#45;silicato en pizarras<i>. Estudios Geol&oacute;gicos</i>. Vol. 66, n&uacute;m. 1, enero&#45;julio, 2010, pp. 91&#45;98.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9754467&pid=S2007-2422201400030000600005&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">COMI, C., FEDELE, R., and PEREGO, U. A chemo&#45;thermo&#45;damage model for the analysis of concrete dams affected by alkali&#45;silica reaction<i>. Mechanics of Materials</i>. Vol. 41, No. 3, March, 2009, pp. 210&#45;230.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9754469&pid=S2007-2422201400030000600006&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    ]]></body>
<body><![CDATA[<!-- ref --><p align="justify"><font face="verdana" size="2">FLOOD, I. Neural networks in civil engineering: a review. In <i>Civil and structural Engineering Computing</i>. Topping, B.H.V. (editor). Stirlingshire, UK: Saxe&#45;Coburg Publications, 2001, pp. 185&#45;209.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9754471&pid=S2007-2422201400030000600007&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">GAL&Aacute;N&#45;MART&Iacute;N, D., MART&Iacute;NEZ&#45;MAR&Iacute;N, R., MARCHAMALO&#45;SACRIST&Aacute;N, M., and S&Aacute;NCHEZ&#45;SOBRINO, J.A. Control of Movement for Concrete&#45;Reinforced Dams using DGPS and Comparison with Auscultation Methods. Application at the La Ace&ntilde;a (Spain) dam. <i>Water Technology and Sciences</i>. Vol. II, No. 3, July&#45;September, 2011, pp. 159&#45;176.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9754473&pid=S2007-2422201400030000600008&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">GARSON, G.D. Interpreting neural&#45;network connection weights<i>. AI Expert</i>. Vol. 6, No. 4, April, 1991, pp. 46&#45;51.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9754475&pid=S2007-2422201400030000600009&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">GEDEON, T.D. Data Mining of Inputs: Analyzing Magnitude and Functional Measures<i>. International Journal</i> <i>of Neural Systems</i>. Vol. 8, No. 2, April, 1997, pp. 209&#45;218.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9754477&pid=S2007-2422201400030000600010&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">GUIDICINI, G. and DE ANDRADE, R.M. Seasonal Oscillation of Uplift Pressures in Hydraulic Structure Foundations Due to Environmental Thermal Variations<i>.</i> In <i>Rocks Mechanics and Power Plants</i>. Romana, M. (editor), Rotterdam: Balkema, 1988, pp. 467&#45;472.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9754479&pid=S2007-2422201400030000600011&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    ]]></body>
<body><![CDATA[<!-- ref --><p align="justify"><font face="verdana" size="2">GUTI&Eacute;RREZ, A.J. <i>Dise&ntilde;o de procesos en ingenier&iacute;a qu&iacute;mica.</i> Barcelona, Espa&ntilde;a<i>:</i> Revert&eacute;, 2003, 272 pp.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9754481&pid=S2007-2422201400030000600012&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">HASSOUN, M. <i>Fundamentals of artificial Neural Networks.</i> Cambridge: The MIT Press, 1995, 511 pp.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9754483&pid=S2007-2422201400030000600013&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">HAYKIN, S. <i>Neural Network: a comprehensive Foundation.</i> 2nd ed. Upper Saddle River, USA: Prentice Hall PTR, 1998, 842 pp.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9754485&pid=S2007-2422201400030000600014&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">HECHT&#45;NIELSEN, R. <i>Neurocomputing.</i> New York: Addison&#45;Wesley Publishing Company, 1990, 433 pp.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9754487&pid=S2007-2422201400030000600015&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">ICOLD. <i>Methods of Analysis for the Prediction and the</i> <i>Verification of Dam Behaviour.</i> Swiss Committee on Dams, Baden, Suiza, 2003.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9754489&pid=S2007-2422201400030000600016&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    ]]></body>
<body><![CDATA[<!-- ref --><p align="justify"><font face="verdana" size="2">JAMAL, S.H., HUSSAIN, M.A., AROUA, M.K., and YAAKOP, D. Artificial Neural Network Models Applied to Chemical Engineering: a Review<i>. Trends in Chemical</i> <i>Engineering</i>. Vol. 10, 2006, pp. 1&#45;15.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9754491&pid=S2007-2422201400030000600017&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">JOGHATAIE, A. and DIZAJI, M.S. Nonlinear Analysis of Concrete Gravity Dams by Neural Networks. <i>Proceeding</i> <i>of the World Congress on Engineering</i>. Vol. 2, July, 2009.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9754493&pid=S2007-2422201400030000600018&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">KALIN, L., ISIK, S., SCHOONOVER, J.E., and LOCKABY, B.G. Predicting Water Quality in Unmonitored Watersheds Using Artificial Neural Networks<i>. Journal of</i> <i>Environmental Quality</i>. Vol. 39, No. 4, 2010, pp. 1429&#45;1440.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9754495&pid=S2007-2422201400030000600019&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">KALINLI, A., ACAR, M.C., and G&Uuml;ND&Uuml;Z, Z. New Approaches to Determine the Ultimate Bearing Capacity of Shallow Foundations Based on Artificial Neural Networks and Ant Colony Optimization. <i>Engineering</i> <i>Geology.</i> Vol. 117 No. 1&#45;2, January, 2011, pp. 29&#45;38.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9754497&pid=S2007-2422201400030000600020&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">KIM, Y.S. and KIM, B.T. Prediction of Relative Crest Settlement of Concrete&#45;Faced Rockfill Dams Analyzed Using an Artificial Neural Network Model<i>. Computers and</i> <i>Geotechnics</i>. Vol. 35, No. 3, May, 2008, pp. 313&#45;322.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9754499&pid=S2007-2422201400030000600021&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    ]]></body>
<body><![CDATA[<!-- ref --><p align="justify"><font face="verdana" size="2">KUNG, G.T.C., HSIAO, E.C.L., SCHUSTER, M., and JUANG, C.H. A Neural Network Approach to Estimating Deflection of Diaphragm Walls Caused by Excavation in Clays. <i>Computers and Geotechnics.</i> Vol. 34, No. 5, September, 2007, pp. 385&#45;96.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9754501&pid=S2007-2422201400030000600022&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">LI, F., WANG, Z.Z., and LIU, G. Towards an Error Correction Model for Dam Monitoring Data Analysis Based on Cointegration Theory. <i>Structural Safety</i>. Vol. 43, July, 2013, pp. 12&#45;20.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9754503&pid=S2007-2422201400030000600023&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">LI, P., LU, W., LONG, Y., YANG, Z., LI, J. Seepage Analysis in a Fractured Rock Mass: The Upper Reservoir of Pushihe Pumped&#45;Storage Power Station in China<i>. Engineering</i> <i>Geology</i>. Vol. 97, No. 1, March, 2008, pp. 53&#45;62.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9754505&pid=S2007-2422201400030000600024&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">MARENGO&#45;MOGOLL&Oacute;N, H. An&aacute;lisis de riesgo de falla en presas, estad&iacute;sticas y par&aacute;metros de referencia<i>. Hydraulic</i> <i>Engineering in Mexico</i>. Vol. II, No. 6, May&#45;August, 1996.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9754507&pid=S2007-2422201400030000600025&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">MART&Iacute;N DEL BR&Iacute;O, B. y SANZ&#45;MOLINA, A. <i>Redes</i> <i>neuronales y sistemas borrosos: introducci&oacute;n te&oacute;rica y</i> <i>pr&aacute;ctica.</i> Zaragona, Espa&ntilde;a: Ra&#45;ma, 1997, 387 pp.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9754509&pid=S2007-2422201400030000600026&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    ]]></body>
<body><![CDATA[<!-- ref --><p align="justify"><font face="verdana" size="2">MART&Iacute;N, A., GADEA, J., CAMPOS, P.L., CALDER&Oacute;N, V., GARC&Iacute;A&#45;CALLEJA, M.A., and RODR&Iacute;GUEZ, A. Evaluaci&oacute;n de la reactividad &aacute;rido&#45;&aacute;lcali en diversos &aacute;ridos silicatados. Alternativas para minimizar esta reacci&oacute;n<i>. Estudios Geol&oacute;gicos</i>. Vol. 66, No. 1, 2010, pp. 99&#45;103.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9754511&pid=S2007-2422201400030000600027&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">MATA, J. Interpretation of Concrete Dam Behavior with Artificial Neural Network and Multiple Linear Regression Models<i>. Engineering Structures</i>. Vol. 33, No. 3, March, 2011, pp. 903&#45;910.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9754513&pid=S2007-2422201400030000600028&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">MEIRELES, M.R.G., ALMEIDA, P.E.M., and SIMOES, M.G.A. Comprehensive Review for Industrial Applicability of Artificial Neural Networks<i>. IEEE</i> <i>Transactions on Industrial Electronics</i>. Vol. 50, No. 3, June, 2003, pp. 585&#45;601.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9754515&pid=S2007-2422201400030000600029&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">MUSTAFA, M., REZAUR, R., RAHARDJO, H., and ISA, M. Prediction of Pore&#45;Water Pressure Using Radial Basis Function Neural Network. <i>Engineering Geology</i>. Vol. 135&#45;136, May, 2012, pp. 40&#45;47.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9754517&pid=S2007-2422201400030000600030&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">PADMINI, D., ILAMPARUTHI, K., and SUDHEER, K. Ultimate Bearing Capacity Prediction of Shallow Foundations on Cohesionless Soils Using Neurofuzzy Models. <i>Computers and Geotechnics.</i> Vol. 35, No. 1, January, 2008, pp. 33&#45;46.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9754519&pid=S2007-2422201400030000600031&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    ]]></body>
<body><![CDATA[<!-- ref --><p align="justify"><font face="verdana" size="2">PRADHAN, B. and LEE, S. (2010). Landslide Susceptibility Assessment and Factor Effect Analysis: Backpropagation Artificial Neural Networks and Their Comparison with Frequency Ratio and Bivariate Logistic Regression Modelling. <i>Environmental Modelling &amp; Software</i>. Vol. 25, No. 6, June, 2010, pp. 747&#45;759.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9754521&pid=S2007-2422201400030000600032&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">RAFIQ, M.Y., BUGMANN, G., and EASTERBROOK, D.J. Neural Network Design for Engineering Applications<i>.</i> <i>Computers &amp; Structures</i>. Vol. 79, No. 17, July, 2001, pp. 1541&#45;1552.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9754523&pid=S2007-2422201400030000600033&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">RANKOVIC, V., GRUJOVIC, N., DIVAC, D., MILIVOJEVIC, N., and NOVAKOVIC, A. Modelling dam Behaviour Based on Neuro&#45;Fuzzy Identification. <i>Engineering</i> <i>Structures</i>. Vol. 35, February, 2012, pp. 107&#45;113.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9754525&pid=S2007-2422201400030000600034&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">REN, L. and ZHAO, Z. An Optimal Neural Network and Concrete Strength Modeling<i>. Advances in Engineering</i> <i>Software</i>. Vol. 33, No. 3, March, 2002, pp. 117&#45;130.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9754527&pid=S2007-2422201400030000600035&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">SINGH, Y., BHATIA, P.K., KAUR, A., and SANGWAN, O. Application of Neural Networks in Software Engineering: A Review<i>.</i> In <i>Information Systems, Technology</i> <i>and Management.</i> PRASAD, S.K. <i>et al</i>. (editors). Berlin: Springer Berlin Heidelberg, 2009, pp. 128&#45;137.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9754529&pid=S2007-2422201400030000600036&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    ]]></body>
<body><![CDATA[<!-- ref --><p align="justify"><font face="verdana" size="2">STOJANOVIC, B., MILIVOJEVIC, M., IVANOVIC, M., MILIVOJEVIC, N., AND DIVAC, D. Adaptive system for dam behavior modeling based on linear regression and genetic algorithms. <i>Advances in Engineering Software</i>. Vol. 65, Noviembre, 2013, pp. 182&#45;190.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9754531&pid=S2007-2422201400030000600037&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">TAYFUR, G., SWIATEK, D., WITA, A., and SINGH, V.P. Case Study: Finite Element Method and Artificial Neural Network Models for Flow through Jeziorsko Earthfill Dam in Poland<i>. Journal of Hydraulic Engineering</i>. Vol. 131, No. 6, June, 2005, pp. 431&#45;440.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9754533&pid=S2007-2422201400030000600038&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">YANQING, W. Multi&#45;Level Fracture Network Model and FE Solution for Ground Water Flow in Rock Mass<i>. Journal of</i> <i>Hydraulic Research</i>. Vol. 43, No. 2, 2005, pp. 202&#45;207.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9754535&pid=S2007-2422201400030000600039&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">YUSUF&#45;ERZIN, S.D., GUMASTE, S.D., GUPTA A.K., and SINGH, D.N. Artificial Neural Network (ANN) Models for Determining Hydraulic Conductivity of Compacted Fine&#45;Grained Soils. <i>Canadian Geotechnical Journal.</i> Vol. 46, No. 8, 2009, pp. 955&#45;68.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9754537&pid=S2007-2422201400030000600040&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">ZHAO, Z., ZHANG, Y., and LIAO, H. Design of Ensemble Neural Network Using the Akaike Information Criterion<i>.</i> <i>Engineering Applications of Artificial Intelligence</i>. Vol. 21, No. 8, December, 2008, pp. 1182&#45;1188.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9754539&pid=S2007-2422201400030000600041&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     ]]></body>
<body><![CDATA[ ]]></body><back>
<ref-list>
<ref id="B1">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[AHMADI-NEDUSHAN]]></surname>
<given-names><![CDATA[B.]]></given-names>
</name>
<name>
<surname><![CDATA[CHOUINARD]]></surname>
<given-names><![CDATA[L.E.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Use of artificial neural networks for real time analysis of dam monitoring data]]></article-title>
<source><![CDATA[Proceedings of the Annual Conference of the Canadian Society for Civil Engineering]]></source>
<year>June</year>
<month>, </month>
<day>20</day>
<publisher-loc><![CDATA[Moncton^eNouveau-Brunswick Nouveau-Brunswick]]></publisher-loc>
</nlm-citation>
</ref>
<ref id="B2">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[ARTIS-ORTUÑO]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
<name>
<surname><![CDATA[SURIÑACH-CARALT]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
<name>
<surname><![CDATA[LÓPEZ-BAZO]]></surname>
<given-names><![CDATA[E.]]></given-names>
</name>
</person-group>
<source><![CDATA[Análisis económico regional. Nociones de la cointegración]]></source>
<year>2009</year>
<page-range>192</page-range><publisher-loc><![CDATA[Barcelona ]]></publisher-loc>
<publisher-name><![CDATA[Antoni Bosch]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B3">
<nlm-citation citation-type="book">
<collab>ASCE</collab>
<source><![CDATA[Guidelines for instrumentation and measurements for monitoring dam performance]]></source>
<year>2000</year>
<page-range>712</page-range><publisher-loc><![CDATA[Reston^eVirginia Virginia]]></publisher-loc>
<publisher-name><![CDATA[American Society of Civil Engineers]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B4">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[BEALE]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
<name>
<surname><![CDATA[HAGAN]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
</person-group>
<source><![CDATA[Neural network toolbox 7. User's Guide]]></source>
<year>2012</year>
<page-range>422</page-range><publisher-loc><![CDATA[Natick^eMA MA]]></publisher-loc>
<publisher-name><![CDATA[The MathWorks]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B5">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[CAMPOS]]></surname>
<given-names><![CDATA[P.L.]]></given-names>
</name>
<name>
<surname><![CDATA[GADEA]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
<name>
<surname><![CDATA[SORIANO]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
<name>
<surname><![CDATA[MARTÍN]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
<name>
<surname><![CDATA[CALDERÓN]]></surname>
<given-names><![CDATA[V.]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[Reactividad álcali-sílice y álcali-silicato en pizarras]]></article-title>
<source><![CDATA[Estudios Geológicos]]></source>
<year>2010</year>
<volume>66</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>91-98</page-range></nlm-citation>
</ref>
<ref id="B6">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[COMI]]></surname>
<given-names><![CDATA[C.]]></given-names>
</name>
<name>
<surname><![CDATA[FEDELE]]></surname>
<given-names><![CDATA[R.]]></given-names>
</name>
<name>
<surname><![CDATA[PEREGO]]></surname>
<given-names><![CDATA[U.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A chemo-thermo-damage model for the analysis of concrete dams affected by alkali-silica reaction]]></article-title>
<source><![CDATA[Mechanics of Materials]]></source>
<year>Marc</year>
<month>h,</month>
<day> 2</day>
<volume>41</volume>
<numero>3</numero>
<issue>3</issue>
<page-range>210-230</page-range></nlm-citation>
</ref>
<ref id="B7">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[FLOOD]]></surname>
<given-names><![CDATA[I.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Neural networks in civil engineering: a review]]></article-title>
<person-group person-group-type="editor">
<name>
<surname><![CDATA[Topping]]></surname>
<given-names><![CDATA[B.H.V.]]></given-names>
</name>
</person-group>
<source><![CDATA[Civil and structural Engineering Computing]]></source>
<year>2001</year>
<page-range>185-209</page-range><publisher-loc><![CDATA[Stirlingshire ]]></publisher-loc>
<publisher-name><![CDATA[Saxe-Coburg Publications]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B8">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[GALÁN-MARTÍN]]></surname>
<given-names><![CDATA[D.]]></given-names>
</name>
<name>
<surname><![CDATA[MARTÍNEZ-MARÍN]]></surname>
<given-names><![CDATA[R.]]></given-names>
</name>
<name>
<surname><![CDATA[MARCHAMALO-SACRISTÁN]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
<name>
<surname><![CDATA[SÁNCHEZ-SOBRINO]]></surname>
<given-names><![CDATA[J.A.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Control of Movement for Concrete-Reinforced Dams using DGPS and Comparison with Auscultation Methods. Application at the La Aceña (Spain) dam]]></article-title>
<source><![CDATA[Water Technology and Sciences]]></source>
<year>2011</year>
<volume>II</volume>
<numero>3</numero>
<issue>3</issue>
<page-range>159-176</page-range></nlm-citation>
</ref>
<ref id="B9">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[GARSON]]></surname>
<given-names><![CDATA[G.D.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Interpreting neural-network connection weights]]></article-title>
<source><![CDATA[AI Expert]]></source>
<year>Apri</year>
<month>l,</month>
<day> 1</day>
<volume>6</volume>
<numero>4</numero>
<issue>4</issue>
<page-range>46-51</page-range></nlm-citation>
</ref>
<ref id="B10">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[GEDEON]]></surname>
<given-names><![CDATA[T.D.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Data Mining of Inputs: Analyzing Magnitude and Functional Measures]]></article-title>
<source><![CDATA[International Journal of Neural Systems]]></source>
<year>Apri</year>
<month>l,</month>
<day> 1</day>
<volume>8</volume>
<numero>2</numero>
<issue>2</issue>
<page-range>209-218</page-range></nlm-citation>
</ref>
<ref id="B11">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[GUIDICINI]]></surname>
<given-names><![CDATA[G.]]></given-names>
</name>
<name>
<surname><![CDATA[DE ANDRADE]]></surname>
<given-names><![CDATA[R.M.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Seasonal Oscillation of Uplift Pressures in Hydraulic Structure Foundations Due to Environmental Thermal Variations]]></article-title>
<person-group person-group-type="editor">
<name>
<surname><![CDATA[Romana]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
</person-group>
<source><![CDATA[Rocks Mechanics and Power Plants]]></source>
<year>1988</year>
<page-range>467-472</page-range><publisher-loc><![CDATA[Rotterdam ]]></publisher-loc>
<publisher-name><![CDATA[Balkema]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B12">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[GUTIÉRREZ]]></surname>
<given-names><![CDATA[A.J.]]></given-names>
</name>
</person-group>
<source><![CDATA[Diseño de procesos en ingeniería química]]></source>
<year>2003</year>
<page-range>272</page-range><publisher-loc><![CDATA[Barcelona ]]></publisher-loc>
<publisher-name><![CDATA[Reverté]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B13">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[HASSOUN]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
</person-group>
<source><![CDATA[Fundamentals of artificial Neural Networks]]></source>
<year>1995</year>
<page-range>511</page-range><publisher-loc><![CDATA[Cambridge ]]></publisher-loc>
<publisher-name><![CDATA[The MIT Press]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B14">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[HAYKIN]]></surname>
<given-names><![CDATA[S.]]></given-names>
</name>
</person-group>
<source><![CDATA[Neural Network: a comprehensive Foundation]]></source>
<year>1998</year>
<edition>2nd</edition>
<page-range>842</page-range><publisher-loc><![CDATA[Upper Saddle River ]]></publisher-loc>
<publisher-name><![CDATA[Prentice Hall PTR]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B15">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[HECHT-NIELSEN]]></surname>
<given-names><![CDATA[R.]]></given-names>
</name>
</person-group>
<source><![CDATA[Neurocomputing]]></source>
<year>1990</year>
<page-range>433</page-range><publisher-loc><![CDATA[New York ]]></publisher-loc>
<publisher-name><![CDATA[Addison-Wesley Publishing Company]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B16">
<nlm-citation citation-type="book">
<collab>ICOLD</collab>
<source><![CDATA[Methods of Analysis for the Prediction and the Verification of Dam Behaviour]]></source>
<year>2003</year>
<publisher-loc><![CDATA[Baden ]]></publisher-loc>
<publisher-name><![CDATA[Swiss Committee on Dams]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B17">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[JAMAL]]></surname>
<given-names><![CDATA[S.H.]]></given-names>
</name>
<name>
<surname><![CDATA[HUSSAIN]]></surname>
<given-names><![CDATA[M.A.]]></given-names>
</name>
<name>
<surname><![CDATA[AROUA]]></surname>
<given-names><![CDATA[M.K.]]></given-names>
</name>
<name>
<surname><![CDATA[YAAKOP]]></surname>
<given-names><![CDATA[D.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Artificial Neural Network Models Applied to Chemical Engineering: a Review]]></article-title>
<source><![CDATA[Trends in Chemical Engineering]]></source>
<year>2006</year>
<volume>10</volume>
<page-range>1-15</page-range></nlm-citation>
</ref>
<ref id="B18">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[JOGHATAIE]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
<name>
<surname><![CDATA[DIZAJI]]></surname>
<given-names><![CDATA[M.S.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Nonlinear Analysis of Concrete Gravity Dams by Neural Networks]]></article-title>
<source><![CDATA[Proceeding of the World Congress on Engineering]]></source>
<year>July</year>
<month>, </month>
<day>20</day>
<volume>2</volume>
</nlm-citation>
</ref>
<ref id="B19">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[KALIN]]></surname>
<given-names><![CDATA[L.]]></given-names>
</name>
<name>
<surname><![CDATA[ISIK]]></surname>
<given-names><![CDATA[S.]]></given-names>
</name>
<name>
<surname><![CDATA[SCHOONOVER]]></surname>
<given-names><![CDATA[J.E.]]></given-names>
</name>
<name>
<surname><![CDATA[LOCKABY]]></surname>
<given-names><![CDATA[B.G.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Predicting Water Quality in Unmonitored Watersheds Using Artificial Neural Networks]]></article-title>
<source><![CDATA[Journal of Environmental Quality]]></source>
<year>2010</year>
<volume>39</volume>
<numero>4</numero>
<issue>4</issue>
<page-range>1429-1440</page-range></nlm-citation>
</ref>
<ref id="B20">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[KALINLI]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
<name>
<surname><![CDATA[ACAR]]></surname>
<given-names><![CDATA[M.C.]]></given-names>
</name>
<name>
<surname><![CDATA[GÜNDÜZ]]></surname>
<given-names><![CDATA[Z.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[New Approaches to Determine the Ultimate Bearing Capacity of Shallow Foundations Based on Artificial Neural Networks and Ant Colony Optimization]]></article-title>
<source><![CDATA[Engineering Geology]]></source>
<year>Janu</year>
<month>ar</month>
<day>y,</day>
<volume>117</volume>
<page-range>1-2</page-range><page-range>29-38</page-range></nlm-citation>
</ref>
<ref id="B21">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[KIM]]></surname>
<given-names><![CDATA[Y.S.]]></given-names>
</name>
<name>
<surname><![CDATA[KIM]]></surname>
<given-names><![CDATA[B.T.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Prediction of Relative Crest Settlement of Concrete-Faced Rockfill Dams Analyzed Using an Artificial Neural Network Model]]></article-title>
<source><![CDATA[Computers and Geotechnics]]></source>
<year>May,</year>
<month> 2</month>
<day>00</day>
<volume>35</volume>
<numero>3</numero>
<issue>3</issue>
<page-range>313-322</page-range></nlm-citation>
</ref>
<ref id="B22">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[KUNG]]></surname>
<given-names><![CDATA[G.T.C.]]></given-names>
</name>
<name>
<surname><![CDATA[HSIAO]]></surname>
<given-names><![CDATA[E.C.L.]]></given-names>
</name>
<name>
<surname><![CDATA[SCHUSTER]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
<name>
<surname><![CDATA[JUANG]]></surname>
<given-names><![CDATA[C.H.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A Neural Network Approach to Estimating Deflection of Diaphragm Walls Caused by Excavation in Clays]]></article-title>
<source><![CDATA[Computers and Geotechnics]]></source>
<year>Sept</year>
<month>em</month>
<day>be</day>
<volume>34</volume>
<numero>5</numero>
<issue>5</issue>
<page-range>385-96</page-range></nlm-citation>
</ref>
<ref id="B23">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[LI]]></surname>
<given-names><![CDATA[F.]]></given-names>
</name>
<name>
<surname><![CDATA[WANG]]></surname>
<given-names><![CDATA[Z.Z.]]></given-names>
</name>
<name>
<surname><![CDATA[LIU]]></surname>
<given-names><![CDATA[G.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Towards an Error Correction Model for Dam Monitoring Data Analysis Based on Cointegration Theory]]></article-title>
<source><![CDATA[Structural Safety]]></source>
<year>July</year>
<month>, </month>
<day>20</day>
<volume>43</volume>
<page-range>12-20</page-range></nlm-citation>
</ref>
<ref id="B24">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[LI]]></surname>
<given-names><![CDATA[P.]]></given-names>
</name>
<name>
<surname><![CDATA[LU]]></surname>
<given-names><![CDATA[W.]]></given-names>
</name>
<name>
<surname><![CDATA[LONG]]></surname>
<given-names><![CDATA[Y.]]></given-names>
</name>
<name>
<surname><![CDATA[YANG]]></surname>
<given-names><![CDATA[Z.]]></given-names>
</name>
<name>
<surname><![CDATA[LI]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Seepage Analysis in a Fractured Rock Mass: The Upper Reservoir of Pushihe Pumped-Storage Power Station in China]]></article-title>
<source><![CDATA[Engineering Geology]]></source>
<year>Marc</year>
<month>h,</month>
<day> 2</day>
<volume>97</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>53-62</page-range></nlm-citation>
</ref>
<ref id="B25">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[MARENGO-MOGOLLÓN]]></surname>
<given-names><![CDATA[H.]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[Análisis de riesgo de falla en presas, estadísticas y parámetros de referencia]]></article-title>
<source><![CDATA[Hydraulic Engineering in Mexico]]></source>
<year>1996</year>
<volume>II</volume>
<numero>6</numero>
<issue>6</issue>
</nlm-citation>
</ref>
<ref id="B26">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[MARTÍN DEL BRÍO]]></surname>
<given-names><![CDATA[B.]]></given-names>
</name>
<name>
<surname><![CDATA[SANZ-MOLINA]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
</person-group>
<source><![CDATA[Redes neuronales y sistemas borrosos: introducción teórica y práctica]]></source>
<year>1997</year>
<page-range>387</page-range><publisher-loc><![CDATA[Zaragona ]]></publisher-loc>
<publisher-name><![CDATA[Ra-ma]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B27">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[MARTÍN]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
<name>
<surname><![CDATA[GADEA]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
<name>
<surname><![CDATA[CAMPOS]]></surname>
<given-names><![CDATA[P.L.]]></given-names>
</name>
<name>
<surname><![CDATA[CALDERÓN]]></surname>
<given-names><![CDATA[V.]]></given-names>
</name>
<name>
<surname><![CDATA[GARCÍA-CALLEJA]]></surname>
<given-names><![CDATA[M.A.]]></given-names>
</name>
<name>
<surname><![CDATA[RODRÍGUEZ]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[Evaluación de la reactividad árido-álcali en diversos áridos silicatados. Alternativas para minimizar esta reacción]]></article-title>
<source><![CDATA[Estudios Geológicos]]></source>
<year>2010</year>
<volume>66</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>99-103</page-range></nlm-citation>
</ref>
<ref id="B28">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[MATA]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Interpretation of Concrete Dam Behavior with Artificial Neural Network and Multiple Linear Regression Models]]></article-title>
<source><![CDATA[Engineering Structures]]></source>
<year>Marc</year>
<month>h,</month>
<day> 2</day>
<volume>33</volume>
<numero>3</numero>
<issue>3</issue>
<page-range>903-910</page-range></nlm-citation>
</ref>
<ref id="B29">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[MEIRELES]]></surname>
<given-names><![CDATA[M.R.G.]]></given-names>
</name>
<name>
<surname><![CDATA[ALMEIDA]]></surname>
<given-names><![CDATA[P.E.M.]]></given-names>
</name>
<name>
<surname><![CDATA[SIMOES]]></surname>
<given-names><![CDATA[M.G.A.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Comprehensive Review for Industrial Applicability of Artificial Neural Networks]]></article-title>
<source><![CDATA[IEEE Transactions on Industrial Electronics]]></source>
<year>June</year>
<month>, </month>
<day>20</day>
<volume>50</volume>
<numero>3</numero>
<issue>3</issue>
<page-range>585-601</page-range></nlm-citation>
</ref>
<ref id="B30">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[MUSTAFA]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
<name>
<surname><![CDATA[REZAUR]]></surname>
<given-names><![CDATA[R.]]></given-names>
</name>
<name>
<surname><![CDATA[RAHARDJO]]></surname>
<given-names><![CDATA[H.]]></given-names>
</name>
<name>
<surname><![CDATA[ISA]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Prediction of Pore-Water Pressure Using Radial Basis Function Neural Network]]></article-title>
<source><![CDATA[Engineering Geology]]></source>
<year>2012</year>
<volume>135-136</volume>
<page-range>40-47</page-range></nlm-citation>
</ref>
<ref id="B31">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[PADMINI]]></surname>
<given-names><![CDATA[D.]]></given-names>
</name>
<name>
<surname><![CDATA[ILAMPARUTHI]]></surname>
<given-names><![CDATA[K.]]></given-names>
</name>
<name>
<surname><![CDATA[SUDHEER]]></surname>
<given-names><![CDATA[K.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Ultimate Bearing Capacity Prediction of Shallow Foundations on Cohesionless Soils Using Neurofuzzy Models]]></article-title>
<source><![CDATA[Computers and Geotechnics]]></source>
<year>Janu</year>
<month>ar</month>
<day>y,</day>
<volume>35</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>33-46</page-range></nlm-citation>
</ref>
<ref id="B32">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[PRADHAN]]></surname>
<given-names><![CDATA[B.]]></given-names>
</name>
<name>
<surname><![CDATA[LEE]]></surname>
<given-names><![CDATA[S.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Landslide Susceptibility Assessment and Factor Effect Analysis: Backpropagation Artificial Neural Networks and Their Comparison with Frequency Ratio and Bivariate Logistic Regression Modelling]]></article-title>
<source><![CDATA[Environmental Modelling & Software]]></source>
<year>2010</year>
<month>Ju</month>
<day>ne</day>
<volume>25</volume>
<numero>6</numero>
<issue>6</issue>
<page-range>747-759</page-range></nlm-citation>
</ref>
<ref id="B33">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[RAFIQ]]></surname>
<given-names><![CDATA[M.Y.]]></given-names>
</name>
<name>
<surname><![CDATA[BUGMANN]]></surname>
<given-names><![CDATA[G.]]></given-names>
</name>
<name>
<surname><![CDATA[EASTERBROOK]]></surname>
<given-names><![CDATA[D.J.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Neural Network Design for Engineering Applications]]></article-title>
<source><![CDATA[Computers & Structures]]></source>
<year>July</year>
<month>, </month>
<day>20</day>
<volume>79</volume>
<numero>17</numero>
<issue>17</issue>
<page-range>1541-1552</page-range></nlm-citation>
</ref>
<ref id="B34">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[RANKOVIC]]></surname>
<given-names><![CDATA[V.]]></given-names>
</name>
<name>
<surname><![CDATA[GRUJOVIC]]></surname>
<given-names><![CDATA[N.]]></given-names>
</name>
<name>
<surname><![CDATA[DIVAC]]></surname>
<given-names><![CDATA[D.]]></given-names>
</name>
<name>
<surname><![CDATA[MILIVOJEVIC]]></surname>
<given-names><![CDATA[N.]]></given-names>
</name>
<name>
<surname><![CDATA[NOVAKOVIC]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Modelling dam Behaviour Based on Neuro-Fuzzy Identification]]></article-title>
<source><![CDATA[Engineering Structures]]></source>
<year>Febr</year>
<month>ua</month>
<day>ry</day>
<volume>35</volume>
<page-range>107-113</page-range></nlm-citation>
</ref>
<ref id="B35">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[REN]]></surname>
<given-names><![CDATA[L.]]></given-names>
</name>
<name>
<surname><![CDATA[ZHAO]]></surname>
<given-names><![CDATA[Z.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[An Optimal Neural Network and Concrete Strength Modeling]]></article-title>
<source><![CDATA[Advances in Engineering Software]]></source>
<year>Marc</year>
<month>h,</month>
<day> 2</day>
<volume>33</volume>
<numero>3</numero>
<issue>3</issue>
<page-range>117-130</page-range></nlm-citation>
</ref>
<ref id="B36">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[SINGH]]></surname>
<given-names><![CDATA[Y.]]></given-names>
</name>
<name>
<surname><![CDATA[BHATIA]]></surname>
<given-names><![CDATA[P.K.]]></given-names>
</name>
<name>
<surname><![CDATA[KAUR]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
<name>
<surname><![CDATA[SANGWAN]]></surname>
<given-names><![CDATA[O.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Application of Neural Networks in Software Engineering: A Review]]></article-title>
<person-group person-group-type="editor">
<name>
<surname><![CDATA[PRASAD]]></surname>
<given-names><![CDATA[S.K.]]></given-names>
</name>
</person-group>
<source><![CDATA[Information Systems, Technology and Management]]></source>
<year>2009</year>
<page-range>128-137</page-range><publisher-loc><![CDATA[Berlin ]]></publisher-loc>
<publisher-name><![CDATA[Springer Berlin]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B37">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[STOJANOVIC]]></surname>
<given-names><![CDATA[B.]]></given-names>
</name>
<name>
<surname><![CDATA[MILIVOJEVIC]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
<name>
<surname><![CDATA[IVANOVIC]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
<name>
<surname><![CDATA[MILIVOJEVIC]]></surname>
<given-names><![CDATA[N.]]></given-names>
</name>
<name>
<surname><![CDATA[DIVAC]]></surname>
<given-names><![CDATA[D.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Adaptive system for dam behavior modeling based on linear regression and genetic algorithms]]></article-title>
<source><![CDATA[Advances in Engineering Software]]></source>
<year>Novi</year>
<month>em</month>
<day>br</day>
<volume>65</volume>
<page-range>182-190</page-range></nlm-citation>
</ref>
<ref id="B38">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[TAYFUR]]></surname>
<given-names><![CDATA[G.]]></given-names>
</name>
<name>
<surname><![CDATA[SWIATEK]]></surname>
<given-names><![CDATA[D.]]></given-names>
</name>
<name>
<surname><![CDATA[WITA]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
<name>
<surname><![CDATA[SINGH]]></surname>
<given-names><![CDATA[V.P.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Case Study: Finite Element Method and Artificial Neural Network Models for Flow through Jeziorsko Earthfill Dam in Poland]]></article-title>
<source><![CDATA[Journal of Hydraulic Engineering]]></source>
<year>June</year>
<month>, </month>
<day>20</day>
<volume>131</volume>
<numero>6</numero>
<issue>6</issue>
<page-range>431-440</page-range></nlm-citation>
</ref>
<ref id="B39">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[YANQING]]></surname>
<given-names><![CDATA[W.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Multi-Level Fracture Network Model and FE Solution for Ground Water Flow in Rock Mass]]></article-title>
<source><![CDATA[Journal of Hydraulic Research]]></source>
<year>2005</year>
<volume>43</volume>
<numero>2</numero>
<issue>2</issue>
<page-range>202-207</page-range></nlm-citation>
</ref>
<ref id="B40">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[YUSUF-ERZIN]]></surname>
<given-names><![CDATA[S.D.]]></given-names>
</name>
<name>
<surname><![CDATA[GUMASTE]]></surname>
<given-names><![CDATA[S.D.]]></given-names>
</name>
<name>
<surname><![CDATA[GUPTA]]></surname>
<given-names><![CDATA[A.K.]]></given-names>
</name>
<name>
<surname><![CDATA[SINGH]]></surname>
<given-names><![CDATA[D.N.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Artificial Neural Network (ANN) Models for Determining Hydraulic Conductivity of Compacted Fine-Grained Soils]]></article-title>
<source><![CDATA[Canadian Geotechnical Journal]]></source>
<year>2009</year>
<volume>46</volume>
<numero>8</numero>
<issue>8</issue>
<page-range>955-68</page-range></nlm-citation>
</ref>
<ref id="B41">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[ZHAO]]></surname>
<given-names><![CDATA[Z.]]></given-names>
</name>
<name>
<surname><![CDATA[ZHANG]]></surname>
<given-names><![CDATA[Y.]]></given-names>
</name>
<name>
<surname><![CDATA[LIAO]]></surname>
<given-names><![CDATA[H.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Design of Ensemble Neural Network Using the Akaike Information Criterion]]></article-title>
<source><![CDATA[Engineering Applications of Artificial Intelligence]]></source>
<year>Dece</year>
<month>mb</month>
<day>er</day>
<volume>21</volume>
<numero>8</numero>
<issue>8</issue>
<page-range>1182-1188</page-range></nlm-citation>
</ref>
</ref-list>
</back>
</article>
