<?xml version="1.0" encoding="ISO-8859-1"?><article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance">
<front>
<journal-meta>
<journal-id>1405-3195</journal-id>
<journal-title><![CDATA[Agrociencia]]></journal-title>
<abbrev-journal-title><![CDATA[Agrociencia]]></abbrev-journal-title>
<issn>1405-3195</issn>
<publisher>
<publisher-name><![CDATA[Colegio de Postgraduados]]></publisher-name>
</publisher>
</journal-meta>
<article-meta>
<article-id>S1405-31952012000400008</article-id>
<title-group>
<article-title xml:lang="es"><![CDATA[La colinealidad y la separación en los datos en el modelo de regresión logística]]></article-title>
<article-title xml:lang="en"><![CDATA[Collineartity and separated data in the logistic regression model]]></article-title>
</title-group>
<contrib-group>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Godínez-Jaimes]]></surname>
<given-names><![CDATA[Flaviano]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Ramírez-Valverde]]></surname>
<given-names><![CDATA[Gustavo]]></given-names>
</name>
<xref ref-type="aff" rid="A02"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Reyes-Carreto]]></surname>
<given-names><![CDATA[Ramón]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Ariza-Hernandez]]></surname>
<given-names><![CDATA[F. Julian]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Barrera-Rodriguez]]></surname>
<given-names><![CDATA[Elia]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
</contrib-group>
<aff id="A01">
<institution><![CDATA[,Universidad Autónoma de Guerrero Unidad Académica de Matemáticas ]]></institution>
<addr-line><![CDATA[Chilpancingo Guerrero]]></addr-line>
</aff>
<aff id="A02">
<institution><![CDATA[,Colegio de Postgraduados Campus Montecillo ]]></institution>
<addr-line><![CDATA[Montecillo Estado de México]]></addr-line>
</aff>
<pub-date pub-type="pub">
<day>00</day>
<month>06</month>
<year>2012</year>
</pub-date>
<pub-date pub-type="epub">
<day>00</day>
<month>06</month>
<year>2012</year>
</pub-date>
<volume>46</volume>
<numero>4</numero>
<fpage>411</fpage>
<lpage>425</lpage>
<copyright-statement/>
<copyright-year/>
<self-uri xlink:href="http://www.scielo.org.mx/scielo.php?script=sci_arttext&amp;pid=S1405-31952012000400008&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.mx/scielo.php?script=sci_abstract&amp;pid=S1405-31952012000400008&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.mx/scielo.php?script=sci_pdf&amp;pid=S1405-31952012000400008&amp;lng=en&amp;nrm=iso"></self-uri><abstract abstract-type="short" xml:lang="es"><p><![CDATA[La colinealidad y la falta de traslape en los datos son problemas que afectan la inferencia basada en el modelo de regresión logística. Mediante simulación se investigó como son afectados los estimadores que tratan la colinealidad (Ridge iterativo), la separación en los datos (de Firth, y de Rousseeuw y Christmann) o ambos problemas (de Shen y Gao). Estos estimadores se compararon considerando el número de condición escalado de la matriz de información estimada, el sesgo y el error cuadrático medio. En cada uno de los cuatro escenarios estudiados, formados al usar dos niveles de colinealidad y dos tamaños de muestra, se consideraron tres grados de traslape en los datos. Se encontró que los estimadores Ridge iterativo y de Shen y Gao tienen condicionamiento nulo, además el sesgo y el error cuadrático medio más pequeños. El grado de traslape y el nivel de colinealidad afectan fuertemente el sesgo y el error cuadrático medio de los estimadores de máxima verosimilitud, de Firth y de Rousseeuw y Christmann.]]></p></abstract>
<abstract abstract-type="short" xml:lang="en"><p><![CDATA[Collinearity and the lack of overlap in the data are problems that afect inference based on the logistic regression model. Simulation was used to investigate how the estimators that deal with collinearity (iterative Ridge) are afected, along with separation in the data (Firth's, and Rousseeuw and Christmann's) or both problems (Shen and Gao's). These estimators were compared considering the scaled condition number of the estimated information matrix, the bias and the mean squared error. In each one of the four scenarios studied, formed by using two levels of collinearity and two sample sizes, three degrees of overlap were considered in the data. It was found that iterative Ridge and Shen and Gao's estimators have null conditioning, as well as smaller bias and mean square error. The degree of overlap and the level of collinearity strongly afect the bias and mean square error of the maximum likelihood, Firth's and Rousseeuw and Christmann's estimators.]]></p></abstract>
<kwd-group>
<kwd lng="es"><![CDATA[estimador de Firth]]></kwd>
<kwd lng="es"><![CDATA[estimador de máxima verosimilitud estimada]]></kwd>
<kwd lng="es"><![CDATA[estimador doble penalizado]]></kwd>
<kwd lng="es"><![CDATA[estimador Ridge iterativo]]></kwd>
<kwd lng="es"><![CDATA[datos traslapados]]></kwd>
<kwd lng="en"><![CDATA[Firth's estimator]]></kwd>
<kwd lng="en"><![CDATA[estimated maximum likelihood estimator]]></kwd>
<kwd lng="en"><![CDATA[penalized double estimator]]></kwd>
<kwd lng="en"><![CDATA[iterative Ridge estimator]]></kwd>
<kwd lng="en"><![CDATA[overlapped data]]></kwd>
</kwd-group>
</article-meta>
</front><body><![CDATA[  	    <p align="justify"><font face="verdana" size="4">Matem&aacute;ticas aplicadas, estad&iacute;stica y computaci&oacute;n</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="center"><font face="verdana" size="4"><b>La colinealidad y la separaci&oacute;n en los datos en el modelo de regresi&oacute;n log&iacute;stica</b></font></p>  	    <p align="center"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="center"><font face="verdana" size="3"><b>Collineartity and separated data in the logistic regression model</b></font></p>  	    <p align="center"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="center"><font face="verdana" size="2"><b>Flaviano God&iacute;nez&#45;Jaimes<sup>1*</sup>, Gustavo Ram&iacute;rez&#45;Valverde<sup>2</sup>, Ram&oacute;n Reyes&#45;Carreto<sup>1</sup>, F. Julian Ariza&#45;Hernandez<sup>1</sup>, Elia Barrera&#45;Rodriguez<sup>1</sup></b></font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><i><sup>1</sup> Unidad Acad&eacute;mica de Matem&aacute;ticas, Universidad Aut&oacute;noma de Guerrero. 39090. Chilpancingo, Guerrero.</i> (<a href="mailto:fgodinezj@gmail.com">fgodinezj@gmail.com</a>), (<a href="mailto:rcarreto1@yahoo.com.mx">rcarreto1@yahoo.com.mx</a>), (<a href="mailto:arizahf@colpos.mx">arizahf@colpos.mx</a>), (<a href="mailto:he&#45;lya@hotmail.com">he&#45;lya@hotmail.com</a>). <i><sup>*</sup> Autor responsable.</i></font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2"><i><sup>2</sup> Estad&iacute;stica. Campus Montecillo. Colegio de Postgraduados. 56230. Montecillo, Estado de M&eacute;xico.</i> (<a href="mailto:gramirez@colpos.mx">gramirez@colpos.mx</a>).</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2">Recibido: diciembre, 2011.    <br> 	Aprobado: abril, 2012.</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Resumen</b></font></p>  	    <p align="justify"><font face="verdana" size="2">La colinealidad y la falta de traslape en los datos son problemas que afectan la inferencia basada en el modelo de regresi&oacute;n log&iacute;stica. Mediante simulaci&oacute;n se investig&oacute; como son afectados los estimadores que tratan la colinealidad (Ridge iterativo), la separaci&oacute;n en los datos (de Firth, y de Rousseeuw y Christmann) o ambos problemas (de Shen y Gao). Estos estimadores se compararon considerando el n&uacute;mero de condici&oacute;n escalado de la matriz de informaci&oacute;n estimada, el sesgo y el error cuadr&aacute;tico medio. En cada uno de los cuatro escenarios estudiados, formados al usar dos niveles de colinealidad y dos tama&ntilde;os de muestra, se consideraron tres grados de traslape en los datos. Se encontr&oacute; que los estimadores Ridge iterativo y de Shen y Gao tienen condicionamiento nulo, adem&aacute;s el sesgo y el error cuadr&aacute;tico medio m&aacute;s peque&ntilde;os. El grado de traslape y el nivel de colinealidad afectan fuertemente el sesgo y el error cuadr&aacute;tico medio de los estimadores de m&aacute;xima verosimilitud, de Firth y de Rousseeuw y Christmann.</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Palabras clave:</b> estimador de Firth, estimador de m&aacute;xima verosimilitud estimada, estimador doble penalizado, estimador Ridge iterativo, datos traslapados.</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Abstract</b></font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">Collinearity and the lack of overlap in the data are problems that afect inference based on the logistic regression model. Simulation was used to investigate how the estimators that deal with collinearity (iterative Ridge) are afected, along with separation in the data (Firth's, and Rousseeuw and Christmann's) or both problems (Shen and Gao's). These estimators were compared considering the scaled condition number of the estimated information matrix, the bias and the mean squared error. In each one of the four scenarios studied, formed by using two levels of collinearity and two sample sizes, three degrees of overlap were considered in the data. It was found that iterative Ridge and Shen and Gao's estimators have null conditioning, as well as smaller bias and mean square error. The degree of overlap and the level of collinearity strongly afect the bias and mean square error of the maximum likelihood, Firth's and Rousseeuw and Christmann's estimators.</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Key words:</b> Firth's estimator, estimated maximum likelihood estimator, penalized double estimator, iterative Ridge estimator, overlapped data.</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>INTRODUCCI&Oacute;N</b></font></p>  	    <p align="justify"><font face="verdana" size="2">Sean <i>Y<sub>i</sub></i>, <i>i</i>=1,...<i>n,</i> variables aleatorias independientes con distribuci&oacute;n Bernoulli con probabilidad de &eacute;xito <img src="/img/revistas/agro/v46n4/a8s1.jpg">. Adem&aacute;s, sea X la matriz dise&ntilde;o de orden <i>n x</i> (<i>p</i>+1) cuyos renglones son <img src="/img/revistas/agro/v46n4/a8s2.jpg">, que corresponden a la <i>i</i>&#45;&eacute;sima observaci&oacute;n de las variables independientes <i>X</i><sub>1</sub>, ..., <i>X<sub>p</sub></i>. El modelo de regresi&oacute;n log&iacute;stica supone que las variables independientes y la variable respuesta est&aacute;n relacionadas por:</font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/agro/v46n4/a8s3.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">donde <i>&#946;</i>=(<i>&#946;</i><sub>0</sub>, <i>&#946;</i><sub>1</sub>, ..., <i>&#946;</i><i><sub>p</sub></i>)<i><sup>T</sup></i> es el vector de par&aacute;metros desconocido.</font></p>  	    <p align="justify"><font face="verdana" size="2">El estimador de m&aacute;xima verosimilitud (MV), <img src="/img/revistas/agro/v46n4/a8s4.jpg">se obtiene al maximizar la funci&oacute;n de logverosimilitud:</font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/agro/v46n4/a8s5.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">Bajo los supuestos de que <i>X</i> es de rango completo y <i>&#946;</i> pertenece al interior del espacio de par&aacute;metros, <img src="/img/revistas/agro/v46n4/a8s4.jpg">es la soluci&oacute;n del sistema de <i>p</i>+1 ecuaciones formadas al igualar a cero las derivadas de <i>l(</i>&#946;) respecto a <i>&#946;.</i> El sistema de ecuaciones se resuelve usando m&eacute;todos iterativos, como el m&eacute;todo de Newton&#45;Raphson, que est&aacute; dado por:</font></p>  	    ]]></body>
<body><![CDATA[<p align="center"><font face="verdana" size="2"><img src="/img/revistas/agro/v46n4/a8s6.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">donde <i>U(</i>&#946;) = X<sup>T</sup> (y&#151;&#960;(<i>&#946;</i>)) es el vector de primeras derivadas parciales de <i>l(</i>&#946;) e <i>I</i>(<i>&#946;</i>) = <i>X<sup>T</sup> <img src="/img/revistas/agro/v46n4/a8s7.jpg">X</i> la matriz de informaci&oacute;n estimada con <img src="/img/revistas/agro/v46n4/a8s8.jpg">.</font></p>  	    <p align="justify"><font face="verdana" size="2">Si la matriz <i>I</i><i>(&#946;</i><sup>(s)</sup>) no tiene inversa entonces no existe el estimador de MV. Lesafre y Marx (1993) demuestran que la matriz de informaci&oacute;n estimada del modelo de regresi&oacute;n log&iacute;stica es singular si: 1) X es de rango incompleto o 2) <i><img src="/img/revistas/agro/v46n4/a8s4.jpg"></i>se acerca a la frontera del espacio de par&aacute;metros.</font></p>  	    <p align="justify"><font face="verdana" size="2">Aun cuando X sea de rango completo pueden existir dependencias lineales cercanas entre sus columnas, esto es, <i>c</i><sub>0</sub> <i>X</i> <sub>0</sub> <i>+...+cX &asymp;</i> 0 con <i>c</i><sub>0</sub><i>,...,c<sub>p</sub></i> no todas cero. Entre m&aacute;s cerca a cero est&eacute; la combinaci&oacute;n lineal, m&aacute;s cerca est&aacute; X a la singularidad, fen&oacute;meno conocido como colinealidad entre las variables independientes.</font></p>  	    <p align="justify"><font face="verdana" size="2">La colinealidad en regresi&oacute;n log&iacute;stica causa los siguientes problemas: 1)<img src="/img/revistas/agro/v46n4/a8s4.jpg">es sensible a cambios peque&ntilde;os en las variables independientes, 2) algunas componentes de<img src="/img/revistas/agro/v46n4/a8s4.jpg">son grandes y 3) las varianzas estimadas de algunas componentes de<img src="/img/revistas/agro/v46n4/a8s4.jpg">son muy grandes. Como consecuencia de estos problemas resultan intervalos de confianza muy amplios y baja potencia de las pruebas de hip&oacute;tesis relacionadas con la significancia de los par&aacute;metros (Schaefer <i>et al.,</i> 1984; Lee y Silvapulle, 1988; Marx y Smith, 1990).</font></p>  	    <p align="justify"><font face="verdana" size="2">Si<img src="/img/revistas/agro/v46n4/a8s9.jpg">se aproxima a uno o a cero, entonces el elemento <i>i</i> en la diagonal de <i><img src="/img/revistas/agro/v46n4/a8s7.jpg"></i>es cero y no existe inversa de la matriz <i>I(&#946;).</i> Para que<img src="/img/revistas/agro/v46n4/a8s9.jpg">se aproxime a uno o a cero, con <img src="/img/revistas/agro/v46n4/a8s10.jpg">fijo, debe ocurrir que al menos una <i><img src="/img/revistas/agro/v46n4/a8s4.jpg"><sub>j</sub></i>&rarr; &plusmn; &infin; , lo cual significa que <i>&#946;<sub>j</sub></i> est&aacute; en la frontera del espacio de par&aacute;metros. Esto puede ocurrir cuando los datos tienen una configuraci&oacute;n especial conocida como separaci&oacute;n o casi separaci&oacute;n. Albert y Anderson (1984) y Santner y Duffy (1986) demuestran que el estimador de MV del modelo de regresi&oacute;n log&iacute;stica no existe cuando hay separaci&oacute;n o casi separaci&oacute;n en los datos, y existe y es &uacute;nico cuando hay traslape en los datos.</font></p>  	    <p align="justify"><font face="verdana" size="2">Hay separaci&oacute;n en los datos si existe un <i>&#952;</i>&isin;R<sup><i>p</i>&#45;1</sup>tal que, <i><img src="/img/revistas/agro/v46n4/a8s10.jpg">&#952;&gt;0</i> cuando <i>Y<sub>i</sub>=1</i> y <i>x<sup>T</sup>&#952;&lt;0</i> cuando <i>Y<sub>i</sub>=0,</i> para <i>i=1,</i>...<i>,n.</i> La casi separaci&oacute;n en los datos ocurre si existe un <i><img src="/img/revistas/agro/v46n4/a8s11.jpg"></i>tal que <i><img src="/img/revistas/agro/v46n4/a8s10.jpg">&#952;&gt;0</i> cuando <i>Y<sub>i</sub>=1</i> y <img src="/img/revistas/agro/v46n4/a8s10.jpg"><i>&#952;&le;0</i> cuando <i>Y<sub>i</sub>=0,</i> para todo <i>i,</i> y existe <i><img src="/img/revistas/agro/v46n4/a8s12.jpg"></i> tal que <i><img src="/img/revistas/agro/v46n4/a8s13.jpg">&#952;=0.</i> Por &uacute;ltimo, existe traslape en los datos si no hay separaci&oacute;n o casi separaci&oacute;n en los datos. Si solamente hay una variable independiente continua <i>X</i> y existe separaci&oacute;n en los datos, entonces <i>X</i> es una variable predictiva perfecta, pues para alguna constante <i>k,</i> cuando <i>X&lt;k</i> todos son &eacute;xitos y cuando <i>X&gt;k</i> todos son fracasos o viceversa. Lo contradictorio es que en esta situaci&oacute;n no existe estimador de MV del modelo de regresi&oacute;n log&iacute;stica.</font></p>  	    <p align="justify"><font face="verdana" size="2">En resumen, la matriz de informaci&oacute;n estimada, <i>X<sup>T</sup><img src="/img/revistas/agro/v46n4/a8s7.jpg"></i> <i>X</i>, se puede acercar a la singularidad por el efecto combinado de la colinealidad en las variables independientes, la cercan&iacute;a a la separaci&oacute;n en los datos o a que se presenten ambas condiciones.</font></p>  	    <p align="justify"><font face="verdana" size="2">Los estimadores Ridge en regresi&oacute;n log&iacute;stica son propuestos para reducir el tama&ntilde;o de <i><img src="/img/revistas/agro/v46n4/a8s4.jpg"></i>ocasionado por la presencia de colinealidad. Schaefer <i>et al.</i> (1984) proponen un estimador Ridge log&iacute;stico de un paso (RL) dado por:</font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/agro/v46n4/a8s14.jpg"></font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">le Cessie y van Houwenlingen (1992) proponen un estimador Ridge iterativo log&iacute;stico que se obtiene al maximizar la logverosimilitud que es penalizada con el cuadrado de la norma de <i>&#946; y</i> donde <i>k</i> se determina en funci&oacute;n del desempe&ntilde;o del estimador.</font></p>  	    <p align="justify"><font face="verdana" size="2">Schaefer <i>et al.</i> (1984) muestran para el estimador Ridge de un paso que siempre es posible encontrar un valor de <i>k</i> que produce un estimador con menor error cuadr&aacute;tico medio que el del estimador de MV. Un problema con el estimador Ridge es que no existe una expresi&oacute;n &uacute;nica para determinar <i>k;</i> algunas propuestas son: <i>1</i>/<i>&#946;</i><i><sup>T</sup>&#946;, (p+1)</i>/<i>&#946;</i><i><sup>T</sup>&#946;</i><i><sub>2</sub>,</i> traza <i>(X<sup>T</sup>VX)</i><i>/</i>&#946;<sup>T</sup><i>X<sup>T</sup></i>VX<i>&#946;</i><i>,<img src="/img/revistas/agro/v46n4/a8s15.jpg"></i> donde <img src="/img/revistas/agro/v46n4/a8s16.jpg">es un vector propio de <i>X<sup>T</sup><img src="/img/revistas/agro/v46n4/a8s7.jpg">X</i> (Schaefer <i>et al.,</i> 194; Lee y Silvapulle, 1988; le Cessie y van Houwelingen, 1992). Para calcular <i>k</i> es necesario conocer <i>&#946;</i> por lo que <img src="/img/revistas/agro/v46n4/a8s4.jpg"> se usa en su lugar; como consecuencia, el estimador RL herede los problemas del estimador de MV. Una forma de determinar el par&aacute;metro de Ridge, independiente de <i><img src="/img/revistas/agro/v46n4/a8s4.jpg">,</i> es <i>k=(&#955;<sub>1</sub>&#151;10</i>0<i>&#955;<sub>p</sub></i>)/99, donde <i>&#955;<sub>1</sub> y &#955;<sub>p</sub></i> son los valores propios mayor y menor de <i>X<sup>T</sup>X</i> (Liu, 2003).</font></p>  	    <p align="justify"><font face="verdana" size="2">Firth (1993) propone un estimador para reducir el sesgo al usar muestras peque&ntilde;as en el modelo lineal generalizado. Heinze y Schemper (2002) muestran que ese estimador tambi&eacute;n existe cuando hay separaci&oacute;n en los datos. Rousseeuw y Christmann (2003) proponen otro estimador cuando hay separaci&oacute;n en los datos. Shen y Gao (2008) presentan un estimador para resolver los problemas de colinealidad y separaci&oacute;n en los datos simult&aacute;neamente.</font></p>  	    <p align="justify"><font face="verdana" size="2">Aunque Shen y Gao (2008) proponen su estimador para tratar con la colinealidad en las variables independientes y separaci&oacute;n en los datos, la simulaci&oacute;n que realizan induce separaci&oacute;n en los datos pero no induce colinealidad. Adem&aacute;s, los estimadores Ridge se han propuesto para atenuar los efectos de la colinealidad, pero no han sido evaluados en presencia de separaci&oacute;n de los datos, adem&aacute;s de que en todos los casos tampoco se ha evaluado el condicionamiento del estimador. En esta investigaci&oacute;n se utiliza simulaci&oacute;n para estudiar el efecto del nivel de colinealidad y el grado de traslape en los estimadores propuestos para 1) tratar la colinealidad (Ridge iterativo), 2) la separaci&oacute;n en los datos (de Firth, y de Rousseeuw y Christmann) o 3) ambos problemas (de Shen y Gao).</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>MATERIALES Y M&Eacute;TODOS</b></font></p>  	    <p align="justify">&nbsp;</p> 	    <p align="justify"><font face="verdana" size="2"><b>Estimadores estudiados</b></font></p> 	    <p align="justify"><font face="verdana" size="2"><b>Estimador Ridge iterativo</b></font></p>  	    <p align="justify"><font face="verdana" size="2">Este estimador fue propuesto por le Cessie y van Houwenlingen (1992) penalizando la logverosimilitud con el cuadrado de la norma de <i>&#946;</i>. La funci&oacute;n de logverosimilitud es:</font></p>  	    ]]></body>
<body><![CDATA[<p align="center"><font face="verdana" size="2"><img src="/img/revistas/agro/v46n4/a8s17.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">donde <i>l(&#946;)</i> es la logverosimilitud del modelo de regresi&oacute;n log&iacute;stica y <i>k</i> es el par&aacute;metro de Ridge. El estimador Ridge iterativo log&iacute;stico, <img src="/img/revistas/agro/v46n4/a8s4.jpg"><i><sub>RI</sub></i> , se obtiene usando el m&eacute;todo de Newton&#45;Raphson:</font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/agro/v46n4/a8s18.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">donde <i>k</i> se obtiene minimizando la media de una medida del error de predicci&oacute;n como el error de clasificaci&oacute;n, el cuadrado del error o menos la logverosimilitud. En el presente estudio el par&aacute;metro Ridge se determina usando la propuesta de Liu (2003), <i>k</i>=(&#955;<sub>1</sub>&#45;100&#955;<i><sub>p</sub></i>)/99.</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Estimador de Firth</b></font></p>  	    <p align="justify"><font face="verdana" size="2">Este estimador puede considerarse como un estimador penalizado donde la funci&oacute;n de penalizaci&oacute;n es la a priori invariante de Jefreys. La funci&oacute;n de logverosimilitud es:</font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/agro/v46n4/a8s19.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">donde <i>I</i>(<i>&#946;</i>) es la matriz de informaci&oacute;n estimada del modelo de regresi&oacute;n log&iacute;stica. Las primeras derivadas parciales de <i>l<sup>F</sup></i>(<i>&#946;</i>) respecto a <i>&#946;</i><i><sub>r</sub></i> igualadas a cero son:</font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/agro/v46n4/a8s20.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2"><i>h</i>i es el <i>i</i>&#45;&eacute;simo elemento en la diagonal de <img src="/img/revistas/agro/v46n4/a8s21.jpg">, donde <img src="/img/revistas/agro/v46n4/a8s22.jpg">. El estimador de Firth, <img src="/img/revistas/agro/v46n4/a8s4.jpg"><i><sub>F</sub></i>, se obtiene de manera iterativa usando el m&eacute;todo de Newton&#45;Raphson</font></p>  	    ]]></body>
<body><![CDATA[<p align="center"><font face="verdana" size="2"><img src="/img/revistas/agro/v46n4/a8s23.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Estimador de Rousseeuw y Christmann</b></font></p>  	    <p align="justify"><font face="verdana" size="2">Rousseeuw y Christmann (2003) proponen una modificaci&oacute;n del modelo de regresi&oacute;n log&iacute;stica al que denominan modelo de regresi&oacute;n log&iacute;stica escondido. En este modelo se supone que el verdadero status <i>T,</i> con valores &eacute;xito (&iacute;) y falla <i>(f),</i> no se puede observar debido a un mecanismo estoc&aacute;stico adicional, pero existe una variable binaria observada <i>Y</i> fuertemente relacionada con <i>T.</i> Si el verdadero status es <i>T=s,</i> se observa <i>Y=1</i> con <i>P</i>(<i>Y</i>=1| <i>T=s</i>)=<i>&#948;</i><sub>1</sub>, por tanto, una clasificaci&oacute;n incorrecta con <i>P</i>(<i>Y</i>=0| <i>T=s</i>)=1&#45;<i>&#948;</i><sub>1</sub>.</font></p>  	    <p align="justify"><font face="verdana" size="2">An&aacute;logamente, si el verdadero status es <i>T=j</i> se observa <i>Y=0</i> con <i>P</i>(<i>Y</i>=0| <i>T=f</i>)=1&#45;<i>&#948;</i><sub>0</sub> y una clasificaci&oacute;n incorrecta con <i>P</i>(<i>Y</i>=1| <i>T=f</i>)=<i>&#948;</i><sub>0</sub><i>.</i> Si la probabilidad de observar el verdadero status es mayor a 0.5, entonces, 0&lt; <i>&#948;</i><sub>0</sub>&lt;0.5&lt; <i>&#948;</i><sub>1</sub>&lt;1. El estimador de Rousseeuw y Christmann, <img src="/img/revistas/agro/v46n4/a8s4.jpg"><i><sub>RC</sub></i>, se obtiene despu&eacute;s de estimar la verosimilitud pues depende de <i>&#948;</i><sub>0</sub> y <i>&#948;</i><sub>1</sub> por lo cual los autores lo llaman estimador de m&aacute;xima verosimilitud estimada. Este estimador se obtiene con el siguiente algoritmo:</font></p>  	    <p align="justify"><font face="verdana" size="2">1. Calcular <img src="/img/revistas/agro/v46n4/a8s24.jpg">donde <img src="/img/revistas/agro/v46n4/a8s25.jpg">y <i>&#948;=</i>0.01.</font></p>  	    <p align="justify"><font face="verdana" size="2">2. Calcular <img src="/img/revistas/agro/v46n4/a8s26.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">3. Calcular las pseudo&#45;observaciones <i><img src="/img/revistas/agro/v46n4/a8s27.jpg"></i></font></p>  	    <p align="justify"><font face="verdana" size="2">4. Ajustar el modelo de regresi&oacute;n log&iacute;stica en el cual se sustituyen las observaciones por las pseudo&#45;observaciones.</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Estimador de Shen y Gao</b></font></p>  	    <p align="justify"><font face="verdana" size="2">Para resolver simult&aacute;neamente los problemas de colinealidad y separaci&oacute;n en los datos ellos usan una doble penalizaci&oacute;n de la logverosimilitud, una de tipo a priori no informativa de Jefreys y otra de tipo Ridge dada por el cuadrado de la norma de <i>&#946;</i>, esto es:</font></p>  	    ]]></body>
<body><![CDATA[<p align="center"><font face="verdana" size="2"><img src="/img/revistas/agro/v46n4/a8s28.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">El estimador de Shen y Gao, <i><img src="/img/revistas/agro/v46n4/a8s4.jpg"><sub>SG</sub></i>, se obtiene usando el m&eacute;todo de Newton&#45;Raphson donde el par&aacute;metro &#955; se obtiene minimizando, mediante validaci&oacute;n cruzada, la media del cuadrado del error, <img src="/img/revistas/agro/v46n4/a8s29.jpg"></font></p>  	    <p align="justify">&nbsp;</p> 	    <p align="justify"><font face="verdana" size="2"><b>Diagn&oacute;stico</b></font></p> 	    <p align="justify"><font face="verdana" size="2">Belsley y Oldford (1986) estudiaron el comportamiento del sistema de ecuaciones <i>&#968;=f(w</i><i>)</i> ante peque&ntilde;os cambios en <i>w</i> y lo llamaron an&aacute;lisis de condicionamiento. Si <i>&#968;</i> tiene cambios grandes cuando <i>w</i> tiene cambios peque&ntilde;os se dice que <i>&#968;</i> est&aacute; mal condicionado. Ellos identifican tres tipos de condicionamiento: de los datos, del estimador y del criterio.</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Condicionamiento de los datos</b>. En regresi&oacute;n log&iacute;stica el condicionamiento de los datos est&aacute; relacionado con la colinealidad en las variables independientes y se diagnostica con el n&uacute;mero de condici&oacute;n escalado de la matriz dise&ntilde;o propuesto por Belsley <i>et al.</i> (1980). El n&uacute;mero de condici&oacute;n escalado de <i>X se</i> define por <img src="/img/revistas/agro/v46n4/a8s30.jpg">donde <img src="/img/revistas/agro/v46n4/a8s31.jpg"> y <img src="/img/revistas/agro/v46n4/a8s32.jpg"> son el m&aacute;ximo y el m&iacute;nimo de los valores propios de <i>X<sup>T</sup>X</i> despu&eacute;s de ser escalada. La colinealidad est&aacute; presente en cualquier conjunto de variables independientes, pero no siempre afecta de manera importante la estimaci&oacute;n o inferencia. Belsley <i>et al.</i> (1980) clasifican la colinealidad en tres niveles de acuerdo a su intensidad: 1) nula <i>(</i><i>&#951;<sub>x</sub></i>&lt;10), 2) moderada (10&le;<i>&#951;<sub>x</sub></i>&lt;30) y 3) severa <i>(</i>&#951;<sub>x</sub>&lt;30).</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Condicionamiento del estimador</b>. El diagn&oacute;stico se realiza con el n&uacute;mero de condici&oacute;n escalado de la matriz de informaci&oacute;n estimada, que se define por <i><img src="/img/revistas/agro/v46n4/a8s33.jpg"></i>, donde <img src="/img/revistas/agro/v46n4/a8s34.jpg"> y <img src="/img/revistas/agro/v46n4/a8s35.jpg"> son los valores propios m&aacute;ximo y m&iacute;nimo de la matriz de informaci&oacute;n estimada escalada. El nivel de condicionamiento de esta matriz medido por <i>&#951;<sub>MI</sub></i> se determina de forma similar a <i>&#951;<sub>x</sub></i>.</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Condicionamiento del criterio</b>. <i><img src="/img/revistas/agro/v46n4/a8s4.jpg"></i>se obtiene maximizando la verosimilitud, Belsley y Oldford (1986) afirman que <i>&#951;<sub>MI</sub></i> permite valorar este tipo de condicionamiento. Por esta raz&oacute;n no se considera en el presente estudio.</font></p>  	    <p align="justify"><font face="verdana" size="2">El condicionamiento de los estimadores de MV, de Firth, de Rousseeuw y Christmann, de Shen y Gao y Ridge iterativo se miden en las matrices de informaci&oacute;n estimadas: <i>X<sup>T</sup><img src="/img/revistas/agro/v46n4/a8s7.jpg">X</i>, <i>X<sup>T</sup><img src="/img/revistas/agro/v46n4/a8s7.jpg"><sub>F</sub>X</i>, <i>X<sup>T</sup><img src="/img/revistas/agro/v46n4/a8s7.jpg"><sub>RC</sub>X</i>, <i>X<sup>T</sup><img src="/img/revistas/agro/v46n4/a8s7.jpg"><sub>SG</sub>X&#45;2&#955;I y X<sup>T</sup><img src="/img/revistas/agro/v46n4/a8s7.jpg"><sub>RI</sub>X +2kI.</i> El estimador de Firth se obtiene usando el paquete logistf (Ploner <i>et al.,</i> 2010) de R Development Core Team, 2011, y el estimador de Rousseeuw y Christmann con el paquete hlr de R (Rousseeuw y Christmann, 2008).</font></p>  	    <p align="justify">&nbsp;</p> 	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2"><b>Separaci&oacute;n de los datos</b></font></p> 	    <p align="justify"><font face="verdana" size="2">La detecci&oacute;n de la separaci&oacute;n en los datos fue analizada por Santner y Dufy (1986) usando un procedimiento basado en programaci&oacute;n lineal, el cual no fue implementado en los paquetes estad&iacute;sticos. En SAS se advierte al usuario cuando puede haber separaci&oacute;n o casi separaci&oacute;n en los datos pero el algoritmo usado no es preciso. Rousseeuw y Christmann (2004) proponen un procedimiento basado en regresi&oacute;n profunda e implementado en el paquete noverlap (Rousseeuw and Christmann, 2004) de R. Este procedimiento se usa en el presente estudio y determina el n&uacute;mero de observaciones a eliminar para que haya separaci&oacute;n en los datos. Konis (2009) propone un procedimiento basado en programaci&oacute;n cuadr&aacute;tica implementado en el paquete safeBinaryRegresion de R; sin embargo, este procedimiento no se usa porque al identificar separaci&oacute;n en los datos autom&aacute;ticamente declara la no existencia del estimador de MV.</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Estudio de simulaci&oacute;n</b></font></p>  	    <p align="justify"><font face="verdana" size="2">El estudio de simulaci&oacute;n consisti&oacute; en realizar 1500 repeticiones en cada uno de los escenarios generados por las combinaciones de los dos factores estudiados: colinealidad y tama&ntilde;o de muestra.</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Colinealidad entre las variables independientes (C)</b>. Se usaron dos grados de colinealidad: 1) moderada (<i>&#951;<sub>x</sub></i>=16) y 2) severa (<i>&#951;<sub>x</sub></i>=32).</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Tama&ntilde;o de muestra (TM)</b>. Se consideraron dos tama&ntilde;os de muestra 20 y 40.</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Grado de traslape (GT)</b>. Se consideraron cuatro grados de traslape que se construyeron despu&eacute;s de generar los datos, clasificando cada caso en los grupos G0, G1, G2 y G3 de acuerdo a si las proporciones de observaciones traslapadas, detectadas con el paquete noverlap, est&aacute;n en los intervalos &#91;0, 0.025&#93;, (0.025, 0.125&#93;, (0.125, 0.225&#93; y (0.225, 0.325&#93; respectivamente. El an&aacute;lisis considera solamente los primeros tres grupos porque no en todos los escenarios se obtuvieron los cuatro grupos.</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Generaci&oacute;n de los datos</b></font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2"><b>Variables independientes</b></font></p>  	    <p align="justify"><font face="verdana" size="2">Se usaron dos variables independientes que se construyeron usando dos variables con distribuci&oacute;n uniforme en &#91;0,1&#93;, <i>X</i><sub>1</sub> y <i>W</i>; la variable <i>X</i><sub>1</sub> fue la primer variable independientes y la segunda se construy&oacute; con <i>X</i><sub>2</sub>=<i>X</i><sub>1</sub>+<i>cW</i>, donde <i>c</i> toma valores apropiados para obtener los n&uacute;meros de condici&oacute;n escalados <i>&#951;<sub>x</sub></i>=16 y <i>&#951;<sub>x</sub></i>=32.</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Variable respuesta</b></font></p>  	    <p align="justify"><font face="verdana" size="2">Se obtuvo con <i>Y<sub>i</sub></i>=1 si <i>&#960;<sub>i</sub>U<sub>i</sub></i> y <i>Y<sub>i</sub></i>=0 en otro caso; <i>i</i>=1,..., n; donde <i>U<sub>i</sub></i> tiene distribuci&oacute;n uniforme en &#91;0, 1&#93; y <img src="/img/revistas/agro/v46n4/a8s36.jpg">donde <i>&#946;</i> es dos veces el vector propio asociado al valor propio mayor de <i>X<sup>T</sup>X.</i></font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Comparaci&oacute;n de estimadores</b></font></p>  	    <p align="justify"><font face="verdana" size="2">Se realiz&oacute; en funci&oacute;n de:</font></p>  	    <p align="justify"><font face="verdana" size="2">1. El n&uacute;mero de condici&oacute;n escalado de la matriz de informaci&oacute;n estimada: <i>&#951;<sub>Mr</sub></i><i>.</i></font></p>  	    <p align="justify"><font face="verdana" size="2"><i>2.</i> El error cuadr&aacute;tico medio: <i><img src="/img/revistas/agro/v46n4/a8s37.jpg"></i> <i>.</i></font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2">3. El sesgo: <i><img src="/img/revistas/agro/v46n4/a8s38.jpg"></i></font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2">donde <img src="/img/revistas/agro/v46n4/a8s39.jpg"> es uno de los estimadores de <i>&#946;<sub>i</sub></i> en la <i>r</i>&#45;&eacute;sima repetici&oacute;n.</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>RESULTADOS Y DISCUSI&Oacute;N</b></font></p>  	    <p align="justify"><font face="verdana" size="2">Se usan los t&eacute;rminos <i>estimadores originales</i> para aludir a los estimadores de MV, de Firth (F), de Rousseeuw y Christmann (RC) y <i>estimadores Ridge</i> para referirse a los estimadores de Shen y Gao (SG) y Ridge iterativo (RI).</font></p>  	    <p align="justify">&nbsp;</p> 	    <p align="justify"><font face="verdana" size="2"><b>Efecto en el condicionamiento del estimador</b></font></p> 	    <p align="justify"><font face="verdana" size="2">Los estimadores originales fueron muy sensibles a la colinealidad y al grado de traslape estudiados, ya que presentaron un condicionamiento severo de la matriz de informaci&oacute;n para cualquier tama&ntilde;o de muestra, niveles de colinealidad y grado de traslape estudiados (<a href="#c1">Cuadro 1</a>).</font></p>  	    <p align="center"><font face="verdana" size="2"><a name="c1"></a></font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/agro/v46n4/a8c1.jpg"></font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">Tambi&eacute;n se observ&oacute;, como se esperaba, que el n&uacute;mero de condici&oacute;n escalado de los estimadores originales fue mayor cuando existe colinealidad severa, que en moderada o con TM 20, que con TM 40 y con grados de traslape bajos. Los estimadores RI y de SG presentaron condicionamiento nulo.</font></p>  	    <p align="justify">&nbsp;</p> 	    <p align="justify"><font face="verdana" size="2"><b>Efecto en el error cuadr&aacute;tico medio</b></font></p> 	    <p align="justify"><font face="verdana" size="2">Los estimadores originales tuvieron mayor ECM que los estimadores Ridge (<a href="/img/revistas/agro/v46n4/a8c2.jpg" target="_blank">Cuadro 2</a>), lo cual es de esperarse ya que los estimadores Ridge surgieron con el fin de reducir el ECM (Schaefer <i>et al.,</i> 1984).</font></p>  	    <p align="justify"><font face="verdana" size="2">Todos los estimadores estudiados tuvieron el mayor ECM en G0 donde hay separaci&oacute;n o casi separaci&oacute;n en los datos. Al aumentar el grado de traslape se observ&oacute; una notable disminuci&oacute;n en el ECM de los estimadores originales. El comportamiento del ECM es diferente en los estimadores Ridge pues en ellos el ECM es aproximadamente igual, como en SG, o incrementa, como en RI.</font></p>  	    <p align="justify"><font face="verdana" size="2">El efecto de la colinealidad fue muy fuerte en el ECM de los estimadores originales lo cual fue reportado por Schaefer <i>et al</i>. (1984), le Cessie y van Houwenlingen (1992), Lee y Silvapulle (1988), Weissfeld y Sereika (1991) y M&aring;nsson y Shukur (2011). En colinealidad severa el ECM fue 2 a 150 veces mayor que en colinealidad moderada, con excepci&oacute;n de los estimadores de MV y RC en el G0 y TM 20. En los estimadores Ridge el efecto observado fue al rev&eacute;s; en general; el ECM fue mayor en colinealidad moderada que en colinealidad severa.</font></p>  	    <p align="justify"><font face="verdana" size="2">En general, el ECM de los estimadores originales fue afectado de forma severa por el tama&ntilde;o de muestra ya que su valor fue 2.64 a 130.58 veces m&aacute;s grande en TM 20 que en TM 40. Aunque tambi&eacute;n los estimadores Ridge tuvieron mayor ECM con TM 20 que en TM 40, esto fue menos frecuente y el incremento fue menor.</font></p>  	    <p align="justify"><font face="verdana" size="2">Entre los estimadores originales tuvo mejor desempe&ntilde;o el estimador F, a&uacute;n en G0 donde hay separaci&oacute;n y casi separaci&oacute;n, y el estimador de peor desempe&ntilde;o fue el de MV. En los estimadores Ridge, el RI tuvo el menor ECM seguido del estimador de SG.</font></p>  	    <p align="justify">&nbsp;</p> 	    <p align="justify"><font face="verdana" size="2"><b>Efecto en el sesgo</b></font></p> 	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">Los estimadores originales tuvieron mayor sesgo que los estimadores Ridge en los tres grados de traslape al usar TM de 20, pero con TM 40 solamente ocurri&oacute; en G0 (<a href="/img/revistas/agro/v46n4/a8c3.jpg" target="_blank">Cuadro 3</a>). Los estimadores originales tuvieron mayor sesgo en G0, donde hay separaci&oacute;n o casi separaci&oacute;n en los datos, y disminuy&oacute; en G1 y G2. Por el contrario, los estimadores Ridge generalmente tuvieron menor sesgo en G0 y al aumentar el porcentaje de traslape increment&oacute; ligeramente el sesgo.</font></p>  	    <p align="justify"><font face="verdana" size="2">El efecto de la colinealidad fue fuerte en el sesgo de los estimadores originales. El mayor sesgo se obtuvo en colinealidad severa y disminuy&oacute; al incrementar el grado de traslape. En los estimadores Ridge se observ&oacute; un comportamiento opuesto, pues en general fue mayor el sesgo en colinealidad moderada que en colinealidad severa. Es interesante notar que en los estimadores Ridge el sesgo, aunque peque&ntilde;o, siempre fue negativo.</font></p>  	    <p align="justify"><font face="verdana" size="2">Schaefer (1983) y Ram&iacute;rez&#45;Valverde y Rice (1995) muestran que el sesgo de <i><img src="/img/revistas/agro/v46n4/a8s4.jpg"></i> es aproximadamente</font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/agro/v46n4/a8s40.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">por lo cual el sesgo del estimador de MV es afectado por ambos problemas, el de colinealidad en las variables independientes (matriz <i>X</i>) y el de la cercan&iacute;a a la separaci&oacute;n (matriz <i>V</i>).</font></p>  	    <p align="justify"><font face="verdana" size="2">Ram&iacute;rez&#45;Valverde y Rice (1995), aunque solamente estudiaron el efecto de la colinealidad, tambi&eacute;n muestran que el sesgo del estimador de MV es mayor que el sesgo del estimador Ridge de un paso. En la literatura revisada, no se encontraron investigaciones acerca del efecto del grado de traslape en el sesgo de los estimadores evaluados en el presente estudio.</font></p>  	    <p align="justify"><font face="verdana" size="2">El TM afect&oacute; fuertemente el sesgo de los estimadores originales. El sesgo en valor absoluto fue, generalmente, entre 1.05 y 130.77 veces mayor con TM 20 que con TM 40. Por el contrario, los estimadores Ridge tuvieron mayor sesgo con TM 40 que con TM 20. Entre los estimadores originales el estimador F tuvo el mejor desempe&ntilde;o, aun en el G0 donde hay menor traslape, mientras que el estimador de MV fue notoriamente malo. Los estimadores RI y SG tuvieron el menor sesgo entre los estimadores Ridge, especialmente el primero. Los estimadores Ridge en regresi&oacute;n log&iacute;stica, al contrario de los estimadores Ridge en regresi&oacute;n lineal, presentan menos sesgo que el estimador de MV.</font></p>  	    <p align="justify"><font face="verdana" size="2">Los resultados de este estudio coincidieron con los de Shen y Gao (2008) quienes tambi&eacute;n encontraron que el estimador F y SG son mejores que el de MV cuando se compararon en funci&oacute;n del ECM. Adem&aacute;s, el estimador SG fue mejor que F bajo el mismo criterio, pero en esta simulaci&oacute;n se destaca que el estimador RI result&oacute; mejor que F y que SG en t&eacute;rminos del ECM.</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Ejemplo</b></font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">Para mostrar las diferencias entre los estimadores evaluados en el presente estudio, se analiz&oacute; un ejemplo presentado por Riedwyl en 1997 y citado por Rousseeuw y Christmann (2004). Las 200 observaciones corresponden a siete variables medidas en billetes suizos. La variable respuesta Status (S) es 1 si el billete es falso y 0 si es genuino; las variables independientes son longitud del billete (L), ancho del borde izquierdo (LE), ancho del borde derecho (R), ancho del margen inferior (B), ancho del margen superior (T) y longitud diagonal de la imagen (D), medidas en mil&iacute;metros.</font></p>  	    <p align="justify"><font face="verdana" size="2">Usando D y B para modelar la probabilidad de S=1 se presenta el problema de separaci&oacute;n en los datos. Los estimadores estudiados fueron valorados con tama&ntilde;os de muestra de 20 y 40, que fueron 10 y 5 veces menores que el tama&ntilde;o de este conjunto de datos. Sin embargo, se consider&oacute; pertinente valorar su desempe&ntilde;o por la presencia de colinealidad severa (<i>&#951;<sub>x</sub></i>=388) y separaci&oacute;n en los datos. Los estimadores de MV, F y RC tienen condicionamiento severo y los estimadores RI y SG tienen condicionamiento nulo (<a href="#c4">Cuadro 4</a>). Las estimaciones de MV son muy grandes lo que hace dif&iacute;cil su interpretaci&oacute;n ya sea como incremento en el logaritmo de la raz&oacute;n de momios o como momios. Aunque no se conocen los par&aacute;metros, de acuerdo con los resultados obtenidos se espera que las estimaciones m&aacute;s cercanas a las verdaderas sean las de los estimadores SG y RI.</font></p>  	    <p align="center"><font face="verdana" size="2"><a name="c4"></a></font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/agro/v46n4/a8c4.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>CONCLUSIONES</b></font></p>  	    <p align="justify"><font face="verdana" size="2">Es una ventaja que los estimadores de Firth y de Rousseeuw y Christmann existan cuando hay separaci&oacute;n en los datos, pero son fuertemente afectados por el nivel de colinealidad entre las variables independientes y por bajos grados de traslape en los datos, efectos que son mayores cuando el tama&ntilde;o de muestra es peque&ntilde;o. Los estimadores Ridge iterativo y de Shen y Gao son mejores, en t&eacute;rminos de error cuadr&aacute;tico medio y de sesgo, cuando se presentan simult&aacute;neamente los problemas de colinealidad, poco traslape en los datos y el tama&ntilde;o de muestra sea peque&ntilde;o. Aunque las diferencias fueron peque&ntilde;as, el estimador Ridge iterativo tuvo un mejor comportamiento que el estimador de Shen y Gao.</font></p>  	    <p align="justify"><font face="verdana" size="2">Respecto a los estimadores Ridge iterativo y de Shen y Gao hace falta investigaci&oacute;n para proponer intervalos de confianza de los par&aacute;metros estimados; as&iacute; como considerar un n&uacute;mero mayor de variables en las que haya m&aacute;s de una relaci&oacute;n de colinealidad. Tambi&eacute;n merece atenci&oacute;n proponer formas para determinar el par&aacute;metro de Ridge que tomen en cuenta el nivel de colinealidad, el n&uacute;mero de relaciones de colinealidad y el grado de traslape en los datos.</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2"><b>LITERATURA CITADA</b></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Albert, A., and J. A. Anderson. 1984. On the existence of maximum likelihood estimates in logistic regression models. Biometrika 71:1&#45;10.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=567197&pid=S1405-3195201200040000800001&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Belsley, D. A., E. Kuh, and R. Welsh. 1980. Regression Diagnostics: Identifying Influential Data and Source of Collinearity. John Wiley &amp; Sons. New York. 393 p.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=567199&pid=S1405-3195201200040000800002&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Belsley, D. A., and R. W. Oldford. 1986. The general problem of ill&#45;conditioning in statistical analysis. Comput. Stat. Data An. 4:103&#45;120.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=567201&pid=S1405-3195201200040000800003&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Firth, D. 1993. Bias reduction of maximum likelihood estimates. Biometrika 80: 27&#45;38.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=567203&pid=S1405-3195201200040000800004&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Heinze, G., and M. Schemper. 2002. A solution to the problem of separation in logistic regression. Stat. Med. 21: 2409&#45;2419.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=567205&pid=S1405-3195201200040000800005&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Konis, K. 2009. safebinaryRegression. R package version 0.1&#45;2. <a href="http://www.r&#45;project.org" target="_blank">http://www.r&#45;project.org</a> (Consulta: julio, 2010).    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=567207&pid=S1405-3195201200040000800006&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">le Cessie, S. and J. C. van Houwelingen. 1992. Ridge estimators in logistic regression. Appl. Statistics 41(1): 191&#45;201.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=567209&pid=S1405-3195201200040000800007&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Lee, A. H., and M. J. Silvapulle. 1988. Ridge estimation in logistic regression. Comm. in Statistics&#45;Theory and Methods 17(4): 1231&#45;1257.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=567211&pid=S1405-3195201200040000800008&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Lesaffre, E., and B. D. Marx. 1993. Collinearity in generalized linear regression. Comm. Statistics&#45;Theory and Methods 22(7):1933&#45;1952.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=567213&pid=S1405-3195201200040000800009&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Liu, K. 2003. Using Liu&#45;type estimator to combat collinearity. Comm. Statistics&#45;Theory and Methods 32(5): 1009&#45;1020.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=567215&pid=S1405-3195201200040000800010&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">M&aring;nsson K., and G. Shukur. 2011. On ridge parameters in logistic regression. Comm. Statistics &#45; Theory and Methods 40(18): 3366&#45;3381.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=567217&pid=S1405-3195201200040000800011&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Marx, B. D., and E. P. Smith. 1990. Weighted multicollinearity in logistic regression: Diagnostics and biased estimation techniques with an example from lake acidification. Can. J. Fish. Aquat. Sci. 47: 1128&#45;1135.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=567219&pid=S1405-3195201200040000800012&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Ploner, M., D. Dunkler, H. Southworth, and G. Heinze. 2010. logistf: Firth's bias reduced logistic regression. R package version 1.10. <a href="http://CRAN.R&#45;project.org/package=logistf" target="_blank">http://CRAN.R&#45;project.org/package=logistf</a> (Consulta: agosto, 2010).    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=567221&pid=S1405-3195201200040000800013&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">R Development Core Team. 2011. R: A language and environment for statistical computing. R Foundation for Statistical Computing, Vienna, Austria. ISBN 3&#45;900051&#45;07&#45;0, URL <a href="http://www.R&#45;project.org/" target="_blank">http://www.R&#45;project.org/</a> (Consulta: octubre, 2010).    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=567223&pid=S1405-3195201200040000800014&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Ram&iacute;rez&#45;Valverde, G., and J. C. Rice. 1995. Bias and collinearity in logistic regression. ASA Proc. Epidemiology Section 97&#45;101.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=567225&pid=S1405-3195201200040000800015&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Rousseeuw, P. J., and A. Christmann. 2003. Robustness against separation and outliers in logistic regression. Comput. Stat. Data An. 43: 315&#45;332.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=567227&pid=S1405-3195201200040000800016&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Rousseeuw, P. J. and A. Christmann. 2004. noverlap: ncomplete. R package version 1.0&#45;1. <a href="http://www.r&#45;project.org" target="_blank">http://www.r&#45;project.org</a> (Consulta: agosto, 2010).    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=567229&pid=S1405-3195201200040000800017&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Rousseeuw, P. J., and A. Christmann. 2008. hlr: Hidden Logistic Regression. R package version 0.0&#45;4. (Consulta: agosto, 2010).    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=567231&pid=S1405-3195201200040000800018&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Santner T. J., and D. E. Duffy. 1986. A note on A. Albert and J. A. Anderson's conditions for the existence of maximum likelihood estimates in logistic regression models. Biometrika 73: 755&#45;758.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=567233&pid=S1405-3195201200040000800019&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Schaefer R. L. 1983. Bias correction in maximum likelihood logistic regression. Stat. Med. 2: 71&#45;78.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=567235&pid=S1405-3195201200040000800020&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Schaefer, R. L., L. D. Roi, and R. A. Wolfe. 1984. A Ridge logistic estimator. Comm. Statistics&#45;Theory and Methods 13(1): 99&#45;113.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=567237&pid=S1405-3195201200040000800021&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Shen, J., and S. Gao. 2008. A solution to separation and multicollinearity in multiple logistic regression. J. Data Sci. 6: 515&#45;531.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=567239&pid=S1405-3195201200040000800022&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Weissfeld L. A., and S. M. Sereika. 1991. A multicollinearity diagnostic for generalized linear models. Comm. Statistics&#45;Theory and Methods 20(4) 1183:1198.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=567241&pid=S1405-3195201200040000800023&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>      ]]></body><back>
<ref-list>
<ref id="B1">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Albert]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
<name>
<surname><![CDATA[Anderson]]></surname>
<given-names><![CDATA[J. A.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[On the existence of maximum likelihood estimates in logistic regression models]]></article-title>
<source><![CDATA[Biometrika]]></source>
<year>1984</year>
<volume>71</volume>
<page-range>1-10</page-range></nlm-citation>
</ref>
<ref id="B2">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Belsley]]></surname>
<given-names><![CDATA[D. A.]]></given-names>
</name>
<name>
<surname><![CDATA[Kuh]]></surname>
<given-names><![CDATA[E.]]></given-names>
</name>
<name>
<surname><![CDATA[Welsh]]></surname>
<given-names><![CDATA[R.]]></given-names>
</name>
</person-group>
<source><![CDATA[Regression Diagnostics: Identifying Influential Data and Source of Collinearity]]></source>
<year>1980</year>
<page-range>393</page-range><publisher-loc><![CDATA[New York ]]></publisher-loc>
<publisher-name><![CDATA[John Wiley & Sons]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B3">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Belsley]]></surname>
<given-names><![CDATA[D. A.]]></given-names>
</name>
<name>
<surname><![CDATA[Oldford]]></surname>
<given-names><![CDATA[R. W.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[The general problem of ill-conditioning in statistical analysis]]></article-title>
<source><![CDATA[Comput. Stat. Data An.]]></source>
<year>1986</year>
<volume>4</volume>
<page-range>103-120</page-range></nlm-citation>
</ref>
<ref id="B4">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Firth]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Bias reduction of maximum likelihood estimates]]></article-title>
<source><![CDATA[Biometrika]]></source>
<year>1993</year>
<volume>80</volume>
<page-range>27-38</page-range></nlm-citation>
</ref>
<ref id="B5">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Heinze]]></surname>
<given-names><![CDATA[G.]]></given-names>
</name>
<name>
<surname><![CDATA[Schemper]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A solution to the problem of separation in logistic regression]]></article-title>
<source><![CDATA[Stat. Med.]]></source>
<year>2002</year>
<volume>21</volume>
<page-range>2409-2419</page-range></nlm-citation>
</ref>
<ref id="B6">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Konis]]></surname>
<given-names><![CDATA[K.]]></given-names>
</name>
</person-group>
<source><![CDATA[safebinaryRegression]]></source>
<year>2009</year>
</nlm-citation>
</ref>
<ref id="B7">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[le Cessie]]></surname>
<given-names><![CDATA[S.]]></given-names>
</name>
<name>
<surname><![CDATA[Houwelingen]]></surname>
<given-names><![CDATA[J. C. van]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Ridge estimators in logistic regression]]></article-title>
<source><![CDATA[Appl. Statistics]]></source>
<year>1992</year>
<volume>41</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>191-201</page-range></nlm-citation>
</ref>
<ref id="B8">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Lee]]></surname>
<given-names><![CDATA[A. H.]]></given-names>
</name>
<name>
<surname><![CDATA[Silvapulle]]></surname>
<given-names><![CDATA[M. J.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Ridge estimation in logistic regression]]></article-title>
<source><![CDATA[Comm. in Statistics-Theory and Methods]]></source>
<year>1988</year>
<volume>17</volume>
<numero>4</numero>
<issue>4</issue>
<page-range>1231-1257</page-range></nlm-citation>
</ref>
<ref id="B9">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Lesaffre]]></surname>
<given-names><![CDATA[E.]]></given-names>
</name>
<name>
<surname><![CDATA[Marx]]></surname>
<given-names><![CDATA[B. D.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Collinearity in generalized linear regression]]></article-title>
<source><![CDATA[Comm. Statistics-Theory and Methods]]></source>
<year>1993</year>
<volume>22</volume>
<numero>7</numero>
<issue>7</issue>
<page-range>1933-1952</page-range></nlm-citation>
</ref>
<ref id="B10">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Liu]]></surname>
<given-names><![CDATA[K]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Using Liu-type estimator to combat collinearity]]></article-title>
<source><![CDATA[Comm. Statistics-Theory and Methods]]></source>
<year>2003</year>
<volume>32</volume>
<numero>5</numero>
<issue>5</issue>
<page-range>1009-1020</page-range></nlm-citation>
</ref>
<ref id="B11">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Månsson]]></surname>
<given-names><![CDATA[K.]]></given-names>
</name>
<name>
<surname><![CDATA[Shukur]]></surname>
<given-names><![CDATA[G.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[On ridge parameters in logistic regression]]></article-title>
<source><![CDATA[Comm. Statistics - Theory and Methods]]></source>
<year>2011</year>
<volume>40</volume>
<numero>18</numero>
<issue>18</issue>
<page-range>3366-3381</page-range></nlm-citation>
</ref>
<ref id="B12">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Marx]]></surname>
<given-names><![CDATA[B. D.]]></given-names>
</name>
<name>
<surname><![CDATA[Smith]]></surname>
<given-names><![CDATA[E. P.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Weighted multicollinearity in logistic regression: Diagnostics and biased estimation techniques with an example from lake acidification]]></article-title>
<source><![CDATA[Can. J. Fish. Aquat. Sci.]]></source>
<year>1990</year>
<volume>47</volume>
<page-range>1128-1135</page-range></nlm-citation>
</ref>
<ref id="B13">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Ploner]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
<name>
<surname><![CDATA[Dunkler]]></surname>
<given-names><![CDATA[D.]]></given-names>
</name>
<name>
<surname><![CDATA[Southworth]]></surname>
<given-names><![CDATA[H.]]></given-names>
</name>
<name>
<surname><![CDATA[Heinze]]></surname>
<given-names><![CDATA[G.]]></given-names>
</name>
</person-group>
<source><![CDATA[logistf: Firth's bias reduced logistic regression]]></source>
<year>2010</year>
</nlm-citation>
</ref>
<ref id="B14">
<nlm-citation citation-type="book">
<collab>R Development Core Team</collab>
<source><![CDATA[R: A language and environment for statistical computing]]></source>
<year>2011</year>
<publisher-loc><![CDATA[Vienna ]]></publisher-loc>
<publisher-name><![CDATA[R Foundation for Statistical Computing]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B15">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Ramírez-Valverde]]></surname>
<given-names><![CDATA[G.]]></given-names>
</name>
<name>
<surname><![CDATA[Rice]]></surname>
<given-names><![CDATA[J. C.]]></given-names>
</name>
</person-group>
<source><![CDATA[Bias and collinearity in logistic regression]]></source>
<year>1995</year>
<page-range>97-101</page-range></nlm-citation>
</ref>
<ref id="B16">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Rousseeuw]]></surname>
<given-names><![CDATA[P. J.]]></given-names>
</name>
<name>
<surname><![CDATA[Christmann]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Robustness against separation and outliers in logistic regression]]></article-title>
<source><![CDATA[Comput. Stat. Data An.]]></source>
<year>2003</year>
<volume>43</volume>
<page-range>315-332</page-range></nlm-citation>
</ref>
<ref id="B17">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Rousseeuw]]></surname>
<given-names><![CDATA[P. J.]]></given-names>
</name>
<name>
<surname><![CDATA[Christmann]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
</person-group>
<source><![CDATA[noverlap: ncomplete]]></source>
<year>2004</year>
</nlm-citation>
</ref>
<ref id="B18">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Rousseeuw]]></surname>
<given-names><![CDATA[P. J.]]></given-names>
</name>
<name>
<surname><![CDATA[Christmann]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
</person-group>
<source><![CDATA[hlr: Hidden Logistic Regression]]></source>
<year>2008</year>
</nlm-citation>
</ref>
<ref id="B19">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Santner]]></surname>
<given-names><![CDATA[T. J.]]></given-names>
</name>
<name>
<surname><![CDATA[Duffy]]></surname>
<given-names><![CDATA[D. E.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A note on A. Albert and J. A. Anderson's conditions for the existence of maximum likelihood estimates in logistic regression models]]></article-title>
<source><![CDATA[Biometrika]]></source>
<year>1986</year>
<volume>73</volume>
<page-range>755-758</page-range></nlm-citation>
</ref>
<ref id="B20">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Schaefer]]></surname>
<given-names><![CDATA[R. L]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Bias correction in maximum likelihood logistic regression]]></article-title>
<source><![CDATA[Stat. Med.]]></source>
<year>1983</year>
<volume>2</volume>
<page-range>71-78</page-range></nlm-citation>
</ref>
<ref id="B21">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Schaefer]]></surname>
<given-names><![CDATA[R. L.]]></given-names>
</name>
<name>
<surname><![CDATA[Roi]]></surname>
<given-names><![CDATA[L. D.]]></given-names>
</name>
<name>
<surname><![CDATA[Wolfe]]></surname>
<given-names><![CDATA[R. A.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A Ridge logistic estimator]]></article-title>
<source><![CDATA[Comm. Statistics-Theory and Methods]]></source>
<year>1984</year>
<volume>13</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>99-113</page-range></nlm-citation>
</ref>
<ref id="B22">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Shen]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
<name>
<surname><![CDATA[Gao]]></surname>
<given-names><![CDATA[S.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A solution to separation and multicollinearity in multiple logistic regression]]></article-title>
<source><![CDATA[J. Data Sci.]]></source>
<year>2008</year>
<volume>6</volume>
<page-range>515-531</page-range></nlm-citation>
</ref>
<ref id="B23">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Weissfeld]]></surname>
<given-names><![CDATA[L. A.]]></given-names>
</name>
<name>
<surname><![CDATA[Sereika]]></surname>
<given-names><![CDATA[S. M.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A multicollinearity diagnostic for generalized linear models]]></article-title>
<source><![CDATA[Comm. Statistics-Theory and Methods]]></source>
<year>1991</year>
<volume>20</volume>
<numero>4</numero>
<issue>4</issue>
</nlm-citation>
</ref>
</ref-list>
</back>
</article>
