<?xml version="1.0" encoding="ISO-8859-1"?><article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance">
<front>
<journal-meta>
<journal-id>2007-0705</journal-id>
<journal-title><![CDATA[Nova scientia]]></journal-title>
<abbrev-journal-title><![CDATA[Nova scientia]]></abbrev-journal-title>
<issn>2007-0705</issn>
<publisher>
<publisher-name><![CDATA[Universidad de La Salle Bajío A. C., Coordinación de Investigación]]></publisher-name>
</publisher>
</journal-meta>
<article-meta>
<article-id>S2007-07052010000100002</article-id>
<title-group>
<article-title xml:lang="es"><![CDATA[Una extensión del algoritmo MIMIC mediante Cópulas]]></article-title>
<article-title xml:lang="en"><![CDATA[A extension for MIMIC algorithm through Copulas]]></article-title>
</title-group>
<contrib-group>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Salinas Gutiérrez]]></surname>
<given-names><![CDATA[Rogelio]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Hernández Aguirre]]></surname>
<given-names><![CDATA[Arturo]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Villa Diharce]]></surname>
<given-names><![CDATA[Enrique Raúl]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
</contrib-group>
<aff id="A01">
<institution><![CDATA[,Centro de Investigación en Matemáticas, A.C.  ]]></institution>
<addr-line><![CDATA[Guanajuato ]]></addr-line>
<country>México</country>
</aff>
<pub-date pub-type="pub">
<day>00</day>
<month>00</month>
<year>2010</year>
</pub-date>
<pub-date pub-type="epub">
<day>00</day>
<month>00</month>
<year>2010</year>
</pub-date>
<volume>2</volume>
<numero>3</numero>
<fpage>01</fpage>
<lpage>13</lpage>
<copyright-statement/>
<copyright-year/>
<self-uri xlink:href="http://www.scielo.org.mx/scielo.php?script=sci_arttext&amp;pid=S2007-07052010000100002&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.mx/scielo.php?script=sci_abstract&amp;pid=S2007-07052010000100002&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.mx/scielo.php?script=sci_pdf&amp;pid=S2007-07052010000100002&amp;lng=en&amp;nrm=iso"></self-uri><abstract abstract-type="short" xml:lang="es"><p><![CDATA[Una nueva manera de modelar dependencias probabilísticas en el algoritmo de Maximización de Información Mutua mediante Clústeres de Entrada (MIMIC) es presentada. Mediante cópulas es posible separar la estructura de dependencia de las distribuciones marginales en una distribución conjunta. El uso de cópulas como un mecanismo para modelar distribuciones y su aplicación a MIMIC es ilustrado en la función de prueba Rosenbrock.]]></p></abstract>
<abstract abstract-type="short" xml:lang="en"><p><![CDATA[A new way of modeling probabilistic dependencies in Mutual Information Maximization for Input Clustering (MIMIC) algorithm is presented. By means of copulas it is possible to separate the dependence structure from marginal distributions in a joint distribution. The use of copulas as a mechanism for modeling distributions and its applicaction to MIMIC is illustrated on Rosenbrock test function.]]></p></abstract>
<kwd-group>
<kwd lng="es"><![CDATA[Optimización global]]></kwd>
<kwd lng="es"><![CDATA[Cómputo evolutivo]]></kwd>
<kwd lng="es"><![CDATA[Algoritmos de Estimación de Distribuciones]]></kwd>
<kwd lng="es"><![CDATA[Cópulas]]></kwd>
<kwd lng="en"><![CDATA[Global optimization]]></kwd>
<kwd lng="en"><![CDATA[Evolutionary computing]]></kwd>
<kwd lng="en"><![CDATA[Estimation of Distribution Algorithms]]></kwd>
<kwd lng="en"><![CDATA[Copulas]]></kwd>
</kwd-group>
</article-meta>
</front><body><![CDATA[  	    <p align="justify"><font face="verdana" size="4">Ciencias Naturales e Ingenier&iacute;as</font></p>      <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="center"><font face="verdana" size="4"><b>Una extensi&oacute;n del algoritmo MIMIC mediante C&oacute;pulas</b></font></p>      <p align="center"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="center"><font face="verdana" size="3"><b>A extension for MIMIC algorithm through Copulas</b></font></p>      <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="center"><font face="verdana" size="2"><b>Rogelio Salinas Guti&eacute;rrez<sup>1</sup>, Arturo Hern&aacute;ndez Aguirre<sup>1</sup>,</b> <b>Enrique Ra&uacute;l Villa Diharce<sup>1</sup></b></font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><sup><i>1</i></sup> <i>Centro de Investigaci&oacute;n en Matem&aacute;ticas, Guanajuato. M&eacute;xico</i><i>.</i></font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2">Rogelio Salinas Guti&eacute;rrez. E&#45;mail: <a href="mailto:rsalinas@cimat.mx">rsalinas@cimat.mx</a></font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2">Recepci&oacute;n: 10&#45;08&#45;09&nbsp;    <br> 	Aceptaci&oacute;n: 03&#45;09&#45;09</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Resumen</b></font></p>  	    <p align="justify"><font face="verdana" size="2">Una nueva manera de modelar dependencias probabil&iacute;sticas en el algoritmo de Maximizaci&oacute;n de Informaci&oacute;n Mutua mediante Cl&uacute;steres de Entrada (MIMIC) es presentada. Mediante c&oacute;pulas es posible separar la estructura de dependencia de las distribuciones marginales en una distribuci&oacute;n conjunta. El uso de c&oacute;pulas como un mecanismo para modelar distribuciones y su aplicaci&oacute;n a MIMIC es ilustrado en la funci&oacute;n de prueba Rosenbrock.</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Palabras Clave:</b> Optimizaci&oacute;n global, C&oacute;mputo evolutivo, Algoritmos de Estimaci&oacute;n de Distribuciones, C&oacute;pulas.</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2"><b>Abstract</b></font></p>  	    <p align="justify"><font face="verdana" size="2">A new way of modeling probabilistic dependencies in Mutual Information Maximization for Input Clustering (MIMIC) algorithm is presented. By means of copulas it is possible to separate the dependence structure from marginal distributions in a joint distribution. The use of copulas as a mechanism for modeling distributions and its applicaction to MIMIC is illustrated on Rosenbrock test function.</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Keywords:</b> Global optimization, Evolutionary computing, Estimation of Distribution Algorithms, Copulas.</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Introducci&oacute;n</b></font></p>  	    <p align="justify"><font face="verdana" size="2">El algoritmo de Maximizaci&oacute;n de Informaci&oacute;n Mutua mediante Cl&uacute;steres de Entrada (MIMIC, por sus siglas en ingl&eacute;s) (De Bonet 1997) pertenece a una clase m&aacute;s general de algoritmos evolutivos llamados Algoritmos de Estimaci&oacute;n de Distribuciones (EDAS, por sus siglas en ingl&eacute;s) (Larra&ntilde;aga 2002). Los EDAs son utilizados para resolver problemas de optimizaci&oacute;n mediante b&uacute;squeda estoc&aacute;stica. A diferencia de otros algoritmos evolutivos, los EDAs usan modelos probabil&iacute;sticos en lugar de operadores gen&eacute;ticos tales como cruza y mutaci&oacute;n. El uso de modelos probabil&iacute;sticos permite representar expl&iacute;citamente dependencias entre las variables de decisi&oacute;n as&iacute; como su estructura. Un pseudoc&oacute;digo para EDAs se muestra en el <a href="#a1">Algoritmo 1</a>.</font></p>  	    <p align="center"><font face="verdana" size="2"><a name="a1"></a></font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/ns/v2n3/a2a1.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">Como puede observarse en el paso 3, las interacciones entre las variables de decisi&oacute;n son tomadas en cuenta a trav&eacute;s del modelo estimado. La posibilidad de incorporar las dependencias entre variables dentro de la nueva poblaci&oacute;n modifica favorablemente el desempe&ntilde;o de un EDA. En la actualidad, varios EDAs han sido propuestos para resolver problemas de optimizaci&oacute;n en dominios discretos y continuos. En particular, el algoritmo MIMIC utiliza un modelo probabil&iacute;stico que solo considera dependencias en una secuencia lineal de variables. En este trabajo presentamos una generalizaci&oacute;n del algoritmo MIMIC en dominios continuos mediante el uso de funciones de c&oacute;pula.</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2"><b>Algoritmo MIMIC</b></font></p>  	    <p align="justify"><font face="verdana" size="2">Al igual que otros EDAs, el algoritmo <i>MIMIC<sub>C</sub><sup>G</sup></i> para dominios continuos (Larra&ntilde;aga, 1999) propone el uso de un modelo probabil&iacute;stico <i>&#402;<sub>&#928;</sub></i> (<i>x)</i> para aproximar la verdadera funci&oacute;n de densidad <i>&#402;</i> (x) subyacente a un determinado problema de optimizaci&oacute;n. En particular el modelo <i>&#402;<sub>&#928;</sub></i> (x) propuesto por <i>MIMIC<sub>C</sub><sup>G</sup></i> es de la forma:</font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/ns/v2n3/a2e1.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">donde las funciones de densidad condicional y univariadas son distribuciones Gaussianas. El sub&iacute;ndice <i>&#960; &#61;</i> (<i>i<sub>1</sub>, i<sub>2</sub></i>,.<i>..</i>,<i>i<sub>n</sub></i>) representa una permutaci&oacute;n de &iacute;ndices entre 1 y <i>n</i>.</font></p>  	    <p align="justify"><font face="verdana" size="2">Para el algoritmo <i>MIMIC</i><i>C<sub>C</sub><sup>G</sup></i> es importante determinar la permutaci&oacute;n <i>&#960;</i> que permita una mejor aproximaci&oacute;n de <i>&#402;<sub>&#928;</sub></i> (x) a <i>&#402;</i>(x). Para tal fin, se busca minimizar la divergencia Kullback&#45;Liebler:</font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/ns/v2n3/a2e2.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">La divergencia Kullback&#45;Liebler siempre es mayor o igual a cero y puede interpretarse como una distancia entre dos funciones. Mediante conceptos de entrop&iacute;a y de informaci&oacute;n mutua es posible expresar de manera equivalente la Ec. (2) como:</font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/ns/v2n3/a2e3.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">donde <i>H(X</i>) <i>&#61; &#150;E<sub>&#402;</sub><sub>(x)</sub></i>&#91;log<i>&#402;</i><i>(x</i>)&#93; denota la entrop&iacute;a de una variable aleatoria continua <i>X</i> con densidad <img src="/img/revistas/ns/v2n3/a2i1.jpg"> representa la informaci&oacute;n mutua entre las variables aleatorias <i><img src="/img/revistas/ns/v2n3/a2i2.jpg"></i> y <img src="../img/revistas/ns/v2n3/a2i2b.jpg">. Como puede observarse, los dos primeros t&eacute;rminos de la Ec. (3) no dependen de la permutaci&oacute;n <i>&#960;</i>, por lo que minimizar la divergencia Kullbak&#45;Liebler es equivalente a maximizar la suma de informaci&oacute;n mutua entre pares de variables. Determinar el orden en que la suma de informaci&oacute;n mutua es m&aacute;xima permite encontrar la permutaci&oacute;n &oacute;ptima <i>n</i>. Debido a razones de eficiencia computacional se utiliza un algoritmo voraz con el cual se escoge una permutaci&oacute;n adecuada.</font></p>      <p align="justify"><font face="verdana" size="2">De esta manera, el <a href="/img/revistas/ns/v2n3/a2a2.jpg" target="_blank">Algoritmo 2</a> determina el ordenamiento de las variables de decisi&oacute;n a trav&eacute;s de una medida de dependencia como lo es la informaci&oacute;n mutua. El algoritmo <i>MIMIC<sub>C</sub><sup>G</sup></i> fue propuesto bajo el supuesto de que las distribuciones entre pares de variables son Normales bivariadas, lo que permite encontrar la permutaci&oacute;n <i>&#960;</i> a trav&eacute;s de f&oacute;rmulas cerradas en t&eacute;rminos de varianzas y covarianzas. En este trabajo se propone el uso de c&oacute;pulas para generalizar el tipo de dependencia entre variables y separar esas asociaciones de las distribuciones marginales. De esta manera no es necesario restringirse al uso de distribuciones Normales.</font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Funciones c&oacute;pula</b></font></p>  	    <p align="justify"><font face="verdana" size="2">El concepto de c&oacute;pula (Sklar, 1959) fue introducido para separar el efecto de dependencia del efecto de distribuciones marginales en una distribuci&oacute;n conjunta. La separaci&oacute;n entre distribuciones marginales y una estructura de dependencia explica la flexibilidad de modelado que tienen las c&oacute;pulas y, por esta raz&oacute;n, han sido ampliamente usadas en muchas &aacute;reas de aplicaci&oacute;n e investigaci&oacute;n tales como Finanzas (Trivedi, 2007), Clima (Sch&ouml;lzel, 2008), Oceanograf&iacute;a (De&#45;Waal, 2005), Hidrolog&iacute;a (Genest, 2007), Geodesia (Bacig&aacute;l, 2006) y Confiabilidad (Monjardin, 2007).</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Definici&oacute;n 1.</b> Una c&oacute;pula es una funci&oacute;n de distribuci&oacute;n conjunta de variables aleatorias uniforme est&aacute;ndar. Esto es,</font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/ns/v2n3/a2i3.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">donde <i>U<sub>i</sub> &#126; U</i>(0,1) para <i>i</i>&#61;1,... <i>,n.</i></font></p>  	    <p align="justify"><font face="verdana" size="2">El lector interesado puede consultar (Joe, 1997) y (Nelsen, 2006) para una descripci&oacute;n m&aacute;s formal de c&oacute;pulas. El siguiente teorema establece la relaci&oacute;n entre distribuciones marginales, c&oacute;pula y funci&oacute;n de distribuci&oacute;n.</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Teorema 1.</b> (Teorema de Sklar) Sea <i>F</i> una funci&oacute;n de distribuci&oacute;n n&#45;dimensional con marginales <i>F<sub>1</sub> ,F<sub>2</sub>,...,F<sub>n</sub></i>, luego existe una n&#45;C&oacute;pula <i>C</i> tal que para todo <i>x</i> en <i><img src="/img/revistas/ns/v2n3/a2i4.jpg"></i>,</font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/ns/v2n3/a2i5.jpg"></font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">donde <i><sup><img src="/img/revistas/ns/v2n3/a2i4.jpg"></sup></i> denota la recta real extendida &#91;&#150;&#8734;,&#8734;&#93;. Si F<sub>1</sub> <i>,F<sub>2</sub>,...,F<sub>n</sub></i> son todas continuas, entonces <i>C</i> es &uacute;nica. En caso contrario, <i>C</i> est&aacute; &uacute;nicamente determinada en <i>Ran(F<sub>1</sub></i>) x <i>Ran(F<sub>2</sub></i> )x &#183;&#183;&#183; <i>Ran(F<sub>n</sub></i>), donde <i>Ran</i> indica rango de la funci&oacute;n.</font></p>  	    <p align="justify"><font face="verdana" size="2">De acuerdo al Teorema de Sklar, la densidad n&#45;dimensional <i>&#402;</i> puede ser representada como</font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/ns/v2n3/a2i6.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">donde <i>c</i> es la densidad de la c&oacute;pula <i>C</i>. Este resultado permite la elecci&oacute;n de marginales diferentes y una estructura de dependencia dada por la c&oacute;pula para luego ser usadas en la construcci&oacute;n de una distribuci&oacute;n multivariada. Esto contrasta con la manera usual de construir distribuciones multivariadas, que tiene la restricci&oacute;n de que las marginales son usualmente del mismo tipo.</font></p>  	    <p align="justify"><font face="verdana" size="2">Hay muchas familias de c&oacute;pulas y cada una de ellas est&aacute; caracterizada por un par&aacute;metro o vector de par&aacute;metros. Estos par&aacute;metros miden la dependencia entre las marginales y son llamados par&aacute;metros de dependencia <i>&#952;</i>. En este art&iacute;culo usamos c&oacute;pulas bivariadas con un par&aacute;metro de dependencia <i>&#952;</i>. La <a href="/img/revistas/ns/v2n3/a2t1.jpg" target="_blank">Tabla 1</a> muestra informaci&oacute;n sobre las c&oacute;pulas Frank y Gaussiana. Puede observarse la relaci&oacute;n que hay entre el par&aacute;metro de dependencia y la medida de concordancia Tau de Kendall.</font></p>  	    <p align="justify"><font face="verdana" size="2">El par&aacute;metro de dependencia <i>&#952;</i> de una c&oacute;pula bivariada puede estimarse mediante m&aacute;xima verosimilitud. Para ello debe maximizarse la funci&oacute;n log&#45;verosimilitud dada en la Ec. (4),</font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/ns/v2n3/a2e4.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">El valor de <i>&#952;</i> que maximiza la log&#45;verosimilitud es llamado estimador de m&aacute;xima verosimilitud <img src="/img/revistas/ns/v2n3/a2i7.jpg">. Una vez que el par&aacute;metro <i>&#952;</i> es estimado, la c&oacute;pula bivariada queda completamente definida. Para maximizar la funci&oacute;n de log&#45;verosimilitud utilizamos como aproximaci&oacute;n inicial de <img src="/img/revistas/ns/v2n3/a2i7.jpg"> a una estimaci&oacute;n no param&eacute;trica de <i>&#952;</i> dada por Tau de Kendall.</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Algoritmo MIMIC con c&oacute;pulas</b></font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">Un resultado que utilizaremos para determinar la informaci&oacute;n mutua entre dos variables y que involucra la entrop&iacute;a de una c&oacute;pula (Davy, 2005) es el siguiente</font></p>  	    <p align="center"><font face="verdana" size="2"><i>H (U</i><sub>1</sub><i>, U</i><sub>2</sub>) <i>&#61;</i> &#150;<i>1</i> (<i>X</i><sub>1</sub><i>, X</i><sub>2</sub>),</font></p>  	    <p align="justify"><font face="verdana" size="2">donde U<sub>1</sub> <i>&#61; F</i> (<i>X</i><sub>1</sub>) y <i>U</i><sub>2</sub> <i>&#61; F</i> (<i>X</i><sub>2</sub>).</font></p>  	    <p align="justify"><font face="verdana" size="2">Para el algoritmo MIMIC usaremos dos funciones de dependencia diferentes: c&oacute;pula Frank y c&oacute;pula Gaussiana. Estas c&oacute;pulas son seleccionadas debido a que su par&aacute;metro de dependencia tiene asociado todo el rango de valores de la medida Tau de Kendall. Esto significa que dependencias positivas y negativas entre marginales son consideradas en ambas c&oacute;pulas. Sin embargo, las c&oacute;pulas Frank y Gaussiana difieren en la manera en que ellas modelan valores extremos y centrados. Por ejemplo, una c&oacute;pula Frank es m&aacute;s adecuada para datos con d&eacute;bil dependencia en los extremos y fuerte dependencia entre valores centrados.</font></p>  	    <p align="justify"><font face="verdana" size="2">El algoritmo MIMIC que se propone en este trabajo consiste en estimar la entrop&iacute;a de la c&oacute;pula asociada a cada par de variables para calcular la informaci&oacute;n mutua. Las dos variables con la informaci&oacute;n mutua m&aacute;s grande son seleccionadas como las primeras dos variables de la permutaci&oacute;n <i>&#960;</i>. Las siguientes variables de la permutaci&oacute;n <i>&#960;</i> son escogidas de acuerdo a la informaci&oacute;n mutua con respecto a la variable anterior (<a href="/img/revistas/ns/v2n3/a2a2.jpg" target="_blank">Algoritmo 2</a>).</font></p>  	    <p align="justify"><font face="verdana" size="2">Para una c&oacute;pula Gaussiana hay una manera directa para calcular su entrop&iacute;a e informaci&oacute;n mutua; para una c&oacute;pula Frank estimamos su entrop&iacute;a mediante una aproximaci&oacute;n num&eacute;rica.</font></p>  	    <p align="justify"><font face="verdana" size="2">Una vez que una permutaci&oacute;n <i>&#960;</i> es encontrada, la generaci&oacute;n de muestras sigue el orden establecido por la Ec. (1). Para realizarlo, primero se muestrea la variable <i>U</i><sub><i>i<sub>n</sub></i></sub><i> </i>de una distribuci&oacute;n uniforme est&aacute;ndar y posteriormente se muestrean las variables <i>U<sub>i<sub>k</sub></sub> </i>de la distribuci&oacute;n de c&oacute;pula condicionada de<i> U<sub>i<sub>k</sub></sub></i> dado el valor de<i> U<sub>i<sub>k+1</sub></sub> </i>para <i>k &#61; n</i>&#150;1,...,1. Despu&eacute;s de lo anterior, se utilizan los valores simulados de <i>U<sub>i</sub></i> para determinar los cuantiles <i>X<sub>i</sub></i> mediante la ecuaci&oacute;n <img src="/img/revistas/ns/v2n3/a2i11.jpg">.</font></p>      <p align="justify"><font face="verdana" size="2">Es importante mencionar que mediante el uso de c&oacute;pulas es posible escribir la Ec. (1) como</font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/ns/v2n3/a2e5.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">donde <i><img src="/img/revistas/ns/v2n3/a2i12.jpg"></i> y <i><img src="/img/revistas/ns/v2n3/a2i13.jpg"></i>. Esto significa que <i>MIMI</i><i>C<sub>C</sub><sup>G</sup></i> puede obtenerse como un caso particular de la Ec. (5) al utilizar c&oacute;pulas Gaussianas y marginales Gaussianas.</font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">La funci&oacute;n de prueba que utilizamos en este trabajo tiene un espacio de b&uacute;squeda acotado. Cada valor de la variable <i>X<sub>i</sub></i> del espacio de b&uacute;squeda es transformado a un valor del intervalo (0,1) a trav&eacute;s de una transformaci&oacute;n lineal. Por lo anterior usamos distribuciones Beta como distribuciones marginales.</font></p>  	    <p align="justify"><font face="verdana" size="2">Para estimar los par&aacute;metros de las densidades que aparecen en la Ec. (5) usamos el m&eacute;todo de Inferencia para Marginales (Cherubini, 2004). Este m&eacute;todo est&aacute; basado en el m&eacute;todo de M&aacute;xima Verosimilitud y consiste en estimar los par&aacute;metros de las distribuciones marginales y despu&eacute;s utiliza esas estimaciones para estimar los par&aacute;metros de las c&oacute;pulas.</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Experimentos</b></font></p>  	    <p align="justify"><font face="verdana" size="2">Se implementan cuatro algoritmos para optimizar la funci&oacute;n de prueba Rosenbrock de 10 dimensiones. Una descripci&oacute;n de la funci&oacute;n Rosenbrock se muestra en la <a href="#t2">Tabla 2</a>. Uno de los algoritmos es <i>MIMIC<sub>C</sub><sup>G</sup></i> y los otros tres son extensiones del mismo:</font></p>  	    <p align="center"><font face="verdana" size="2"><a name="t2"></a></font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/ns/v2n3/a2t2.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">a) un algoritmo con c&oacute;pulas Frank y marginales Beta <i><img src="/img/revistas/ns/v2n3/a2i14.jpg"></i></font></p>  	    <p align="justify"><font face="verdana" size="2">b) un algoritmo con c&oacute;pulas Frank y marginales Gaussianas <i><img src="/img/revistas/ns/v2n3/a2i15.jpg"></i></font></p>  	    <p align="justify"><font face="verdana" size="2">c) un algoritmo con c&oacute;pulas Guassianas y marginales Beta<img src="/img/revistas/ns/v2n3/a2i16.jpg"></font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">De acuerdo a la expresi&oacute;n dada por la Ec. (5) el algoritmo <i>MIMIC<sub>C</sub><sup>G</sup></i> puede verse como un modelo probabil&iacute;stico que utiliza marginales Gaussianas y c&oacute;pulas Gaussianas, es decir, puede verse como <i><img src="/img/revistas/ns/v2n3/a2i17.jpg">.</i></font></p>  	    <p align="justify"><font face="verdana" size="2">Cada algoritmo es ejecutado 30 veces utilizando un tama&ntilde;o de poblaci&oacute;n de 200 individuos. El n&uacute;mero m&aacute;ximo de evaluaciones es de 300,000. Sin embargo, cuando es detectada convergencia a un m&iacute;nimo local la ejecuci&oacute;n es detenida. Una mejor&iacute;a menor a 1x10<sup>&#45;6</sup> en 25 iteraciones es considerada como convergencia.</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Resultados</b></font></p>  	    <p align="justify"><font face="verdana" size="2">En la <a href="/img/revistas/ns/v2n3/a2t3.jpg" target="_blank">Tabla 3</a> se muestra un resumen descriptivo de los valores de aptitud logrados por los cuatro algoritmos para la funci&oacute;n de prueba Rosenbrock. La informaci&oacute;n acerca del n&uacute;mero de evaluaciones requeridas por cada algoritmo se reporta en la <a href="#t4">Tabla 4</a>.</font></p>  	    <p align="center"><font face="verdana" size="2"><a name="t4"></a></font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/ns/v2n3/a2t4.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">Como puede observarse en la <a href="/img/revistas/ns/v2n3/a2t3.jpg" target="_blank">Tabla 3</a>, el algoritmo <i><img src="/img/revistas/ns/v2n3/a2i15.jpg"></i> obtiene en promedio el mejor valor de aptitud aunque tiene asociada una mayor dispersi&oacute;n respecto a los dem&aacute;s algoritmos. En cuanto al n&uacute;mero de evaluaciones de funci&oacute;n puede verse en la <a href="#t4">Tabla 4</a> que <i>MIMIC<sub>C</sub><sup>G</sup></i> es el algoritmo que en promedio requiere menos evaluaciones de la funci&oacute;n Rosenbrock, adem&aacute;s de ser el m&aacute;s consistente, pues obtiene la desviaci&oacute;n est&aacute;ndar m&aacute;s peque&ntilde;a.</font></p>  	    <p align="justify"><font face="verdana" size="2">Para determinar si existen diferencias significativas en los resultados se realiza una comparaci&oacute;n estad&iacute;stica entre el algoritmo <i>MIMIC<sub>C</sub><sup>G</sup></i> y cada una de las tres extensiones utilizadas en este trabajo. Para ello se utiliza una prueba de hip&oacute;tesis basada en el m&eacute;todo Bootstrap para diferencias de medias. De igual manera se determina mediante Bootstrap los intervalos de confianza del 95&#37; para la diferencia de medias entre algoritmos comparados.</font></p>  	    <p align="justify"><font face="verdana" size="2">El valor&#45;p reportado en la <a href="/img/revistas/ns/v2n3/a2t5.jpg" target="_blank">Tabla 5</a> para cada comparaci&oacute;n de algoritmos indica que existe diferencia significativa entre los promedios de aptitud. Esto tambi&eacute;n puede apreciarse a trav&eacute;s de los intervalos de confianza construidos para la diferencia de promedios, pues en todos los casos se excluye al cero. Dado que en la comparaci&oacute;n de algoritmos los intervalos de confianza excluyen valores positivos, puede afirmarse que el algoritmo <i>MIMIC<sub>C</sub><sup>G</sup></i> no obtiene una aptitud similar a la de los otros algoritmos. Esto quiere decir que en los algoritmos <i><img src="/img/revistas/ns/v2n3/a2i14.jpg"></i>, <img src="/img/revistas/ns/v2n3/a2i15.jpg"> y <i><img src="/img/revistas/ns/v2n3/a2i16.jpg"></i>los promedios de aptitud son mejores que los de <i>MIMIC<sub>C</sub><sup>G</sup></i> . Lo anterior significa que modificar la estructura de dependencia o modificar la distribuci&oacute;n de las marginales en el algoritmo MIMIC puede ayudar a obtener mejores resultados en un problema de optimizaci&oacute;n.</font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Conclusiones</b></font></p>  	    <p align="justify"><font face="verdana" size="2">Se ha presentado una modificaci&oacute;n del algoritmo MIMIC mediante el uso de c&oacute;pulas. Las funciones c&oacute;pulas permiten separar la estructura de dependencia de las distribuciones marginales, lo que permite una mayor flexibilidad de modelado en distribuciones conjuntas. Aunque la estructura de dependencia usada en los experimentos fue fijada al igual que las distribuciones marginales, esto no necesariamente debe ocurrir para todas las variables. Combinaciones de c&oacute;pulas y de distribuciones marginales pueden ser utilizadas en un mismo modelo de probabilidad.</font></p>  	    <p align="justify"><font face="verdana" size="2">Los tres algoritmos que modifican su estructura de dependencia o la distribuci&oacute;n de sus marginales obtienen mejores desempe&ntilde;os respecto al algoritmo MIMIC<i><sub>C</sub><sup>G</sup></i>. Esto sugiere que el uso de c&oacute;pulas puede mejorar el desempe&ntilde;o de los EDAs, sin embargo, debe tenerse cuidado de escoger las c&oacute;pulas y las distribuciones marginales m&aacute;s adecuadas para cada problema de optimizaci&oacute;n.</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Referencias</b></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Bacig&aacute;l, T. y Komorn&iacute;kov&aacute;, M. (2006). Fitting archimedean copulas to bivariate geodetic data. Compstat 2006 Proceedings in Computational Statistics. Physica&#45;Verlag HD.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5467053&pid=S2007-0705201000010000200001&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Cherubini, U., Luciano, E. y Vecchiato, W. (2004). Copula Methods in Finance. Wiley.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5467055&pid=S2007-0705201000010000200002&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    ]]></body>
<body><![CDATA[<!-- ref --><p align="justify"><font face="verdana" size="2">Davy, M. y Doucet, A. (2005). Copulas: a new insight into positive time&#45;frequency distributions. Signal Processing Letters, IEEE, 10(7): 215&#45;218.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5467057&pid=S2007-0705201000010000200003&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">De Bonet, J.S., Isbell, C.L. y Viola, P. (1997). MIMIC: Finding optima by estimating probability densities. Advances in Neural Information Processing Systems (9): 424&#45;430. The MIT Press.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5467059&pid=S2007-0705201000010000200004&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">De&#45;Waal, D.J. y Van&#45;Gelder, P.H.A.J.M. (2005). Modelling of extreme wave heights and periods through copulas. Extremes 8(4): 345&#45;356.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5467061&pid=S2007-0705201000010000200005&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Genest, C. y Favre, A.C. (2007). Everything you always wanted to know about copula modeling but were afraid to ask. Journal of Hydrologic Engineering 12(4): 347&#45;368.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5467063&pid=S2007-0705201000010000200006&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Joe, H. (1997). Multivariate models and dependence concepts. Chapman and Hall.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5467065&pid=S2007-0705201000010000200007&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    ]]></body>
<body><![CDATA[<!-- ref --><p align="justify"><font face="verdana" size="2">Larra&ntilde;aga, P., Etxeberria, R., Lozano, J.A. y Pe&ntilde;a, J.M. (1999). Optimization by learning and simulation of bayesian and gaussian networks. Technical Report KZZA&#45;IK&#45;4&#45;99, University of the Basque Country.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5467067&pid=S2007-0705201000010000200008&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Larra&ntilde;aga, P. y Lozano, J.A. (2002). Estimation of Distribution Algorithms: A New Tool for Evolutionary Computation. Kluwer Academic Publishers.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5467069&pid=S2007-0705201000010000200009&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Monjardin, P.E. (2007). An&aacute;lisis de dependencia en tiempo de falla. Tesis de maestr&iacute;a. Centro de Investigaci&oacute;n en Matem&aacute;ticas. Guanajuato, M&eacute;xico.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5467071&pid=S2007-0705201000010000200010&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Nelsen, R.B. (2006). An introduction to Copulas. Springer Series in Statistics.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5467073&pid=S2007-0705201000010000200011&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Sch&ouml;lzel, C. y Friederichs, P. (2008). Multivariate non&#45;normally distributed random variables in climate research &#45; introduction to the copula approach. Nonlinear Processes in Geophysics 15(5): 761&#45;772.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5467075&pid=S2007-0705201000010000200012&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    ]]></body>
<body><![CDATA[<!-- ref --><p align="justify"><font face="verdana" size="2">Sklar, A. (1959). Fonctions de repartition &agrave; n dimensions et leurs marges. Publications de l'Institut de Statistique de l'Universit&eacute; de Paris (8): 229&#45;231.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5467077&pid=S2007-0705201000010000200013&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Trivedi, P.K. y Zimmer, D.M. (2007). Copula Modeling: An Introduction for Practitioners. Foundations and Trends in Econometrics (1). Now Publishers.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5467079&pid=S2007-0705201000010000200014&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Nota</b></font></p>  	    <p align="justify"><font face="verdana" size="2">Art&iacute;culo por Invitaci&oacute;n.</font></p>      ]]></body><back>
<ref-list>
<ref id="B1">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Bacigál]]></surname>
<given-names><![CDATA[T.]]></given-names>
</name>
<name>
<surname><![CDATA[Komorníková]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Fitting archimedean copulas to bivariate geodetic data]]></article-title>
<source><![CDATA[Compstat 2006 Proceedings in Computational Statistics]]></source>
<year>2006</year>
<publisher-name><![CDATA[Physica-Verlag HD]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B2">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Cherubini]]></surname>
<given-names><![CDATA[U.]]></given-names>
</name>
<name>
<surname><![CDATA[Luciano]]></surname>
<given-names><![CDATA[E.]]></given-names>
</name>
<name>
<surname><![CDATA[Vecchiato]]></surname>
<given-names><![CDATA[W.]]></given-names>
</name>
</person-group>
<source><![CDATA[Copula Methods in Finance]]></source>
<year>2004</year>
<publisher-name><![CDATA[Wiley]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B3">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Davy]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
<name>
<surname><![CDATA[Doucet]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Copulas: a new insight into positive time-frequency distributions]]></article-title>
<source><![CDATA[Signal Processing Letters]]></source>
<year>2005</year>
<volume>10</volume>
<numero>7</numero>
<issue>7</issue>
<page-range>215-218</page-range><publisher-name><![CDATA[IEEE]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B4">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[De Bonet]]></surname>
<given-names><![CDATA[J.S.]]></given-names>
</name>
<name>
<surname><![CDATA[Isbell]]></surname>
<given-names><![CDATA[C.L.]]></given-names>
</name>
<name>
<surname><![CDATA[Viola]]></surname>
<given-names><![CDATA[P.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[MIMIC: Finding optima by estimating probability densities]]></article-title>
<source><![CDATA[Advances in Neural Information Processing Systems]]></source>
<year>1997</year>
<numero>9</numero>
<issue>9</issue>
<page-range>424-430</page-range><publisher-name><![CDATA[The MIT Press]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B5">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[De-Waal]]></surname>
<given-names><![CDATA[D.J.]]></given-names>
</name>
<name>
<surname><![CDATA[Van-Gelder]]></surname>
<given-names><![CDATA[P.H.A.J.M.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Modelling of extreme wave heights and periods through copulas]]></article-title>
<source><![CDATA[Extremes]]></source>
<year>2005</year>
<volume>8</volume>
<numero>4</numero>
<issue>4</issue>
<page-range>345-356</page-range></nlm-citation>
</ref>
<ref id="B6">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Genest]]></surname>
<given-names><![CDATA[C.]]></given-names>
</name>
<name>
<surname><![CDATA[Favre]]></surname>
<given-names><![CDATA[A.C.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Everything you always wanted to know about copula modeling but were afraid to ask]]></article-title>
<source><![CDATA[Journal of Hydrologic Engineering]]></source>
<year>2007</year>
<volume>12</volume>
<numero>4</numero>
<issue>4</issue>
<page-range>347-368</page-range></nlm-citation>
</ref>
<ref id="B7">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Joe]]></surname>
<given-names><![CDATA[H.]]></given-names>
</name>
</person-group>
<source><![CDATA[Multivariate models and dependence concepts]]></source>
<year>1997</year>
<publisher-name><![CDATA[Chapman and Hall]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B8">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Larrañaga]]></surname>
<given-names><![CDATA[P.]]></given-names>
</name>
<name>
<surname><![CDATA[Etxeberria]]></surname>
<given-names><![CDATA[R.]]></given-names>
</name>
<name>
<surname><![CDATA[Lozano]]></surname>
<given-names><![CDATA[J.A.]]></given-names>
</name>
<name>
<surname><![CDATA[Peña]]></surname>
<given-names><![CDATA[J.M.]]></given-names>
</name>
</person-group>
<source><![CDATA[Optimization by learning and simulation of bayesian and gaussian networks]]></source>
<year>1999</year>
<publisher-name><![CDATA[University of the Basque Country]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B9">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Larrañaga]]></surname>
<given-names><![CDATA[P.]]></given-names>
</name>
<name>
<surname><![CDATA[Lozano]]></surname>
<given-names><![CDATA[J.A.]]></given-names>
</name>
</person-group>
<source><![CDATA[Estimation of Distribution Algorithms: A New Tool for Evolutionary Computation]]></source>
<year>2002</year>
<publisher-name><![CDATA[Kluwer Academic Publishers]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B10">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Monjardin]]></surname>
<given-names><![CDATA[P.E.]]></given-names>
</name>
</person-group>
<source><![CDATA[Análisis de dependencia en tiempo de falla]]></source>
<year>2007</year>
</nlm-citation>
</ref>
<ref id="B11">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Nelsen]]></surname>
<given-names><![CDATA[R.B.]]></given-names>
</name>
</person-group>
<source><![CDATA[An introduction to Copulas]]></source>
<year>2006</year>
<publisher-name><![CDATA[Springer Series in Statistics]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B12">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Schölzel]]></surname>
<given-names><![CDATA[C.]]></given-names>
</name>
<name>
<surname><![CDATA[Friederichs]]></surname>
<given-names><![CDATA[P.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Multivariate non-normally distributed random variables in climate research - introduction to the copula approach]]></article-title>
<source><![CDATA[Nonlinear Processes in Geophysics]]></source>
<year>2008</year>
<volume>15</volume>
<numero>5</numero>
<issue>5</issue>
<page-range>761-772</page-range></nlm-citation>
</ref>
<ref id="B13">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Sklar]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
</person-group>
<source><![CDATA[Fonctions de repartition à n dimensions et leurs marges]]></source>
<year>1959</year>
<volume>8</volume>
<page-range>229-231</page-range><publisher-name><![CDATA[l'Institut de Statistique de l'Université de Paris]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B14">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Trivedi]]></surname>
<given-names><![CDATA[P.K.]]></given-names>
</name>
<name>
<surname><![CDATA[Zimmer]]></surname>
<given-names><![CDATA[D.M.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Copula Modeling: An Introduction for Practitioners]]></article-title>
<source><![CDATA[Foundations and Trends in Econometrics]]></source>
<year>2007</year>
<publisher-name><![CDATA[Now Publishers]]></publisher-name>
</nlm-citation>
</ref>
</ref-list>
</back>
</article>
