<?xml version="1.0" encoding="ISO-8859-1"?><article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance">
<front>
<journal-meta>
<journal-id>1405-3195</journal-id>
<journal-title><![CDATA[Agrociencia]]></journal-title>
<abbrev-journal-title><![CDATA[Agrociencia]]></abbrev-journal-title>
<issn>1405-3195</issn>
<publisher>
<publisher-name><![CDATA[Colegio de Postgraduados]]></publisher-name>
</publisher>
</journal-meta>
<article-meta>
<article-id>S1405-31952010000200008</article-id>
<title-group>
<article-title xml:lang="es"><![CDATA[Efectos de especificar un modelo incorrecto para regresión logística, con dos variables independientes correlacionadas]]></article-title>
<article-title xml:lang="en"><![CDATA[Effects of specifying an incorrect model for logistic regression, with two independent correlated variables]]></article-title>
</title-group>
<contrib-group>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Sifuentes-Amaya]]></surname>
<given-names><![CDATA[Rigoberto]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Ramirez-Valverde]]></surname>
<given-names><![CDATA[Gustavo]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
</contrib-group>
<aff id="A01">
<institution><![CDATA[,Colegio de Postgraduados Campus Montecillo ]]></institution>
<addr-line><![CDATA[Montecillo Estado de México]]></addr-line>
</aff>
<pub-date pub-type="pub">
<day>31</day>
<month>03</month>
<year>2010</year>
</pub-date>
<pub-date pub-type="epub">
<day>31</day>
<month>03</month>
<year>2010</year>
</pub-date>
<volume>44</volume>
<numero>2</numero>
<fpage>197</fpage>
<lpage>207</lpage>
<copyright-statement/>
<copyright-year/>
<self-uri xlink:href="http://www.scielo.org.mx/scielo.php?script=sci_arttext&amp;pid=S1405-31952010000200008&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.mx/scielo.php?script=sci_abstract&amp;pid=S1405-31952010000200008&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.mx/scielo.php?script=sci_pdf&amp;pid=S1405-31952010000200008&amp;lng=en&amp;nrm=iso"></self-uri><abstract abstract-type="short" xml:lang="es"><p><![CDATA[El análisis de regresión logística se utiliza para estudiar la asociación entre una variable respuesta binaria con un conjunto de variables independientes. Cuando hay correlación alta entre dos variables independientes, se presentan varianzas grandes en los estimadores de los parámetros. Sin embargo, si el modelo lineal está mal especificado las varianzas pueden disminuir al aumentar la correlación entre las variables independientes. En este trabajo se evaluó mediante un estudio de simulación el efecto de la correlación entre las variables independientes en el modelo de regresión logística cuando el modelo tiene una especificación incorrecta. Al omitir una variable relevante el sesgo de <img border=0 width=13 height=26 src="../../../../../img/revistas/agro/v44n2/a8s18.jpg">aumentó y no desapareció al aumentar n. Se detectó un efecto de la correlación en la potencia de la prueba de hipótesis sobre el parámetro estimado y el tamaño de la prueba de hipótesis estuvo cerca del nominal. Al incluir una variable irrelevante no hubo efecto en el sesgo, el error cuadrado medio mostró evidencia de consistencia y la potencia de la prueba de hipótesis disminuyó cuando aumentó la correlación entre las variables independientes.]]></p></abstract>
<abstract abstract-type="short" xml:lang="en"><p><![CDATA[Analysis of logistic regression is used to study the association between a binary response variable and a set of independent variables. When correlation is high between two independent variables, variances of the parameter estimators are large. However, if the linear model is poorly specified, the variances can decrease when the correlation between the independent variables increases. In this paper, using a simulation study, we evaluated the effect of the correlation between independent variables on the logistic regression model when the model has an incorrect specification. When a relevant variable was omitted, the <img border=0 width=13 height=26 src="../../../../../img/revistas/agro/v44n2/a8s18.jpg">bias increased and did not disappear even when n was augmented. An effect of the correlation was detected in the power of the hypothesis test on the estimated parameter, and the test size of the hypothesis was close to the nominal size. When an irrelevant variable was included, there was no effect on the bias, the mean square error showed evidence of consistency and power of the hypothesis test diminished when the correlation between the independent variables increased.]]></p></abstract>
<kwd-group>
<kwd lng="es"><![CDATA[correlación]]></kwd>
<kwd lng="es"><![CDATA[especificación]]></kwd>
<kwd lng="es"><![CDATA[omisión e inclusión de variables]]></kwd>
<kwd lng="es"><![CDATA[regresión logística]]></kwd>
<kwd lng="en"><![CDATA[correlation]]></kwd>
<kwd lng="en"><![CDATA[specification]]></kwd>
<kwd lng="en"><![CDATA[variable omission and inclusion]]></kwd>
<kwd lng="en"><![CDATA[logistic regression]]></kwd>
</kwd-group>
</article-meta>
</front><body><![CDATA[ <p align="justify"><font face="verdana" size="4">Matem&aacute;ticas aplicadas, estad&iacute;stica y computaci&oacute;n</font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="center"><font face="verdana" size="4"><b>Efectos de especificar un modelo incorrecto para regresi&oacute;n log&iacute;stica, con dos variables independientes correlacionadas</b></font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="center"><font face="verdana" size="3"><b>Effects of specifying an incorrect model for logistic regression, with two independent correlated variables</b></font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="center"><font face="verdana" size="2"><b>Rigoberto Sifuentes&#150;Amaya, Gustavo Ramirez&#150;Valverde*</b></font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><i>Estad&iacute;stica. Campus Montecillo. Colegio de Postgraduados. 56230. Montecillo, Estado de M&eacute;xico,</i> (<a href="mailto:rsifuentes@colpos.mx">rsifuentes@colpos.mx</a>), *Autor responsable: (<a href="mailto:gramirez@colpos.mx">gramirez@colpos.mx</a>)</font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">Recibido: Enero, 2009.     <br>   Aprobado: Noviembre, 2009.</font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><b>Resumen</b></font></p>     <p align="justify"><font face="verdana" size="2">El an&aacute;lisis de regresi&oacute;n log&iacute;stica se utiliza para estudiar la asociaci&oacute;n entre una variable respuesta binaria con un conjunto de variables independientes. Cuando hay correlaci&oacute;n alta entre dos variables independientes, se presentan varianzas grandes en los estimadores de los par&aacute;metros. Sin embargo, si el modelo lineal est&aacute; mal especificado las varianzas pueden disminuir al aumentar la correlaci&oacute;n entre las variables independientes. En este trabajo se evalu&oacute; mediante un estudio de simulaci&oacute;n el efecto de la correlaci&oacute;n entre las variables independientes en el modelo de regresi&oacute;n log&iacute;stica cuando el modelo tiene una especificaci&oacute;n incorrecta. Al omitir una variable relevante el sesgo de <img src="/img/revistas/agro/v44n2/a8s18.jpg"> aument&oacute; y no desapareci&oacute; al aumentar n. Se detect&oacute; un efecto de la correlaci&oacute;n en la potencia de la prueba de hip&oacute;tesis sobre el par&aacute;metro estimado y el tama&ntilde;o de la prueba de hip&oacute;tesis estuvo cerca del nominal. Al incluir una variable irrelevante no hubo efecto en el sesgo, el error cuadrado medio mostr&oacute; evidencia de consistencia y la potencia de la prueba de hip&oacute;tesis disminuy&oacute; cuando aument&oacute; la correlaci&oacute;n entre las variables independientes.</font></p>     <p align="justify"><font face="verdana" size="2"><b>Palabras clave: </b>correlaci&oacute;n, especificaci&oacute;n, omisi&oacute;n e inclusi&oacute;n de variables, regresi&oacute;n log&iacute;stica.</font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><b>Abstract</b></font></p>     <p align="justify"><font face="verdana" size="2">Analysis of logistic regression is used to study the association between a binary response variable and a set of independent variables. When correlation is high between two independent variables, variances of the parameter estimators are large. However, if the linear model is poorly specified, the variances can decrease when the correlation between the independent variables increases. In this paper, using a simulation study, we evaluated the effect of the correlation between independent variables on the logistic regression model when the model has an incorrect specification. When a relevant variable was omitted, the <img src="/img/revistas/agro/v44n2/a8s18.jpg" alt=""> bias increased and did not disappear even when n was augmented. An effect of the correlation was detected in the power of the hypothesis test on the estimated parameter, and the test size of the hypothesis was close to the nominal size. When an irrelevant variable was included, there was no effect on the bias, the mean square error showed evidence of consistency and power of the hypothesis test diminished when the correlation between the independent variables increased.</font></p>     <p align="justify"><font face="verdana" size="2"><b>Key words: </b>correlation, specification, variable omission and inclusion, logistic regression.</font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><b>INTRODUCCI&Oacute;N</b></font></p>     <p align="justify"><font face="verdana" size="2">La regresi&oacute;n log&iacute;stica es un modelo lineal generalizado frecuentemente usado para medir la asociaci&oacute;n entre una variable respuesta binaria y una o m&aacute;s variables independientes. El modelo supone que la probabilidad de que <i>Y=</i>1<i> (&#960;<sub>i</sub></i>) depende de <i>p </i>variables independientes <i>X<sub>x</sub>, X<sub>2</sub>, </i>..., <i>X<sub>p</sub>. </i>El modelo de regresi&oacute;n log&iacute;stico est&aacute; dado por:</font></p>     <p align="center"><font face="verdana" size="2"><img src="/img/revistas/agro/v44n2/a8s1.jpg"></font></p>     <p align="justify"><font face="verdana" size="2">El modelo est&aacute; correctamente especificado cuando las <i>p </i>variables contribuyen a explicar la variabilidad de la variable respuesta, y cualquier otra variable independiente no incluida en el modelo no lo hace; esto es, las <i>p </i>variables son importantes y no hay otra que lo sea.</font></p>     <p align="justify"><font face="verdana" size="2">En regresi&oacute;n lineal Walls y Weeks (1969) advierten que agregar una variable al modelo nunca mejora la precisi&oacute;n de los estimadores de m&iacute;nimos cuadrados, pero se remueve un posible sesgo y esto ocurre sin importar si la variable es importante o no. Rao (1971) muestra que omitir una variable relevante causa en los estimadores de m&iacute;nimos cuadrados: 1) sesgo; 2) disminuci&oacute;n de sus varianzas; 3) disminuci&oacute;n del error cuadrado cuando el valor de su par&aacute;metro es menor que la desviaci&oacute;n est&aacute;ndar de su estimador. Rosenberg y Levy (1972) determinaron las condiciones con las cuales el estimador de m&iacute;nimos cuadrados en un modelo incorrectamente especificado por omitir una variable importante, es m&aacute;s eficiente en t&eacute;rminos de error cuadrado medio. Seg&uacute;n Hocking (1976), omitir una variable importante produce sesgo en los estimadores, excepto cuando las variables omitidas son ortogonales a las incluidas o cuando el coeficiente verdadero de las variables omitidas es cero (las variables omitidas no son relevantes). En relaci&oacute;n a la inclusi&oacute;n de variables irrelevantes al modelo de regresi&oacute;n, Rao (1971) muestra que no generan sesgo en los estimadores, pero generan un incremento en sus varianzas y por consiguiente en sus errores cuadrados medios.</font></p>     <p align="justify"><font face="verdana" size="2">Para el modelo de regresi&oacute;n log&iacute;stica, Gail <i>et al. </i>(1984) mostraron que omitir variables independientes relevantes produce sesgo en los coeficientes de las variables independientes incluidas, aunque las variables excluidas eran independientes de las incluidas. Neuhaus y Jewell (1993) reportan resultados semejantes cuando hay una correlaci&oacute;n de 0.5 entre la variable independiente omitida y la incluida.</font></p>     <p align="justify"><font face="verdana" size="2">En el modelo lineal generalizado Neuhaus (1998) encuentra que omitir una variable independiente relevante puede inducir p&eacute;rdida en la eficiencia de los estimadores cuando la variable excluida es independiente de la variable incluida. Neuhaus (1998) reporta, en el modelo lineal generalizado, una p&eacute;rdida de la potencia de las pruebas de hip&oacute;tesis de las variables incluidas al modelo al omitir variables relevantes e independientes de las variables incluidas. Seg&uacute;n Begg y Lagakos (1990), la prueba de Score de los modelos log&iacute;sticos conserva el tama&ntilde;o de prueba nominal, aunque se omitan variables aleatorias relevantes.</font></p>     <p align="justify"><font face="verdana" size="2">En regresi&oacute;n lineal un modelo correctamente especificado produce estimadores insesgados de los par&aacute;metros. Sin embargo, la correlaci&oacute;n entre las variables independientes puede causar un aumento de la varianza de los estimadores de los par&aacute;metros (Wittink, 1988; Lehmann <i>et al, </i>1997), aunque Mela y Praveen (2002) mencionan que en ciertas circunstancias la varianza de los estimadores de los par&aacute;metros puede disminuir.</font></p>     <p align="justify"><font face="verdana" size="2">Un modelo incorrectamente especificado es el caso donde el sesgo puede ser problem&aacute;tico y el problema puede aumentar si hay correlaci&oacute;n alta entre las variables independientes (Mela y Praveen, 2002). Adem&aacute;s, Clarke (2009) menciona que ante el riesgo de sesgo por omitir variables se podr&iacute;a suponer una mejora al incluir un n&uacute;mero grande de variables de control pero en ambos casos, regresi&oacute;n lineal o modelo lineal generalizado, el aumento de variables de control puede aumentar o disminuir el sesgo y es dif&iacute;cil saber cual es el caso en una situaci&oacute;n particular.</font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">En el presente trabajo mediante un estudio de simulaci&oacute;n, se analiz&oacute; el efecto de una incorrecta especificaci&oacute;n del modelo de regresi&oacute;n log&iacute;stica en presencia de diferentes grados de correlaci&oacute;n en un modelo con dos variables independientes.</font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><b>MATERIALES Y M&Eacute;TODOS</b></font></p>     <p align="justify"><font face="verdana" size="2"><b>Estudio de simulaci&oacute;n</b></font></p>     <p align="justify"><font face="verdana" size="2">El estudio de simulaci&oacute;n se realiz&oacute; con dos escenarios: uno para mostrar el desempe&ntilde;o del estimador de m&aacute;xima verosimilitud y su prueba de hip&oacute;tesis al omitir una variable relevante al modelo; otro para mostrar el desempe&ntilde;o del estimador de m&aacute;xima verosimilitud y su prueba de hip&oacute;tesis al incluir una variable irrelevante.</font></p>     <p align="justify"><font face="verdana" size="2"><b>Primer escenario: </b></font></p>     <p align="justify"><font face="verdana" size="2"><b>Omisi&oacute;n de una variable relevante</b></font></p>     <p align="justify"><font face="verdana" size="2">El modelo generador de los valores de la variable respuesta <i>Y<sub>i</sub>  fue:</i></font></p>     <p align="center"><font face="verdana" size="2"><img src="/img/revistas/agro/v44n2/a8s2.jpg"></font></p>     <p align="justify"><font face="verdana" size="2">Hay dos variables independientes relevantes <i>X</i><sub>1</sub> y<i> X</i><sub>2</sub>. Las propiedades en la inferencia asociada a la variable <i>X</i><sub>1</sub> al omitir la variable relevante <i>X<sub>2</sub>; </i>se estudiaron en tres situaciones:</font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">1) El modelo fue correctamente especificado, la estimaci&oacute;n y la prueba de hip&oacute;tesis se hizo usando correctamente el modelo (1).</font></p>     <p align="justify"><font face="verdana" size="2">2) El modelo fue incorrectamente especificado; la estimaci&oacute;n y la prueba de hip&oacute;tesis se hizo usando incorrectamente el modelo:</font></p>     <p align="center"><font face="verdana" size="2"><img src="/img/revistas/agro/v44n2/a8s3.jpg"></font></p>     <p align="justify"><font face="verdana" size="2">Esto es, se omiti&oacute; la variable <i>X </i>que es una variable importante para predecir <i>Y<sub>i</sub>.</i></font></p>     <p align="justify"><font face="verdana" size="2">3) Para estudiar el tama&ntilde;o de la prueba de hip&oacute;tesis H<sub>0</sub>:/<i>&#946;</i><sub>1</sub>= 0 <i>vs</i> H<sub>s</sub>:/<i>&#946;</i><sub>1</sub>&#8800;0 en un modelo incorrectamente especificado donde la variable importante <i>X</i><sub>2</sub><i> </i>fue omitida y el valor de <i>&#946;</i><sub>1</sub> =0 (Ho es cierta). El modelo generador de los datos fue log&#91;<i>&#960;<sub>i</sub> /</i> (<i>1 &#150; &#960;<sub>i</sub>)</i>&#93;<i> = <i>&#946;</i></i><sub>0</sub><i> + <i>&#946;</i><sub>2 </sub>X<sub>2i</sub> </i>y se prob&oacute; H<sub>0</sub>:<i>&#946;</i><sub>1</sub>= 0 en el modelo   log&#91;<i>&#960;<sub>i</sub> /</i> (<i>1 &#150; &#960;<sub>i</sub>)</i>&#93;<i> = <i>&#946;</i></i><sub>0</sub><i> + <i>&#946;</i></i><sub>1 </sub><i>X</i><sub>1i</sub>.</font></p>     <p align="justify"><font face="verdana" size="2"><b>Segundo escenario:     <br> Inclusi&oacute;n de una variable irrelevante</b></font></p>     <p align="justify"><font face="verdana" size="2">El modelo generador de los valores de la variable respuesta <i>Y<sub>i</sub> </i>fue:</font></p>     <p align="center"><font face="verdana" size="2"><img src="/img/revistas/agro/v44n2/a8s6.jpg"></font></p>     <p align="justify"><font face="verdana" size="2">S&oacute;lo est&aacute; la variable independiente relevante X<SUB>1</SUB>. Las propiedades en la inferencia asociada a la variable <i>X</i><sub>1</sub> al incluir la variable irrelevante <i>X</i><SUB>2</SUB> se estudiaron en dos situaciones:</font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">1) El modelo fue correctamente especificado, la estimaci&oacute;n y la prueba de hip&oacute;tesis se hizo usando correctamente el modelo (2):</font></p>     <p align="center"><font face="verdana" size="2"><img src="/img/revistas/agro/v44n2/a8s7.jpg" alt=""></font></p>     <p align="justify"><font face="verdana" size="2">2) El modelo fue incorrectamente especificado; la estimaci&oacute;n y la prueba de hip&oacute;tesis se hizo usando incorrectamente el modelo (1):</font></p>     <p align="center"><font face="verdana" size="2"><img src="/img/revistas/agro/v44n2/a8s8.jpg"></font></p>     <p align="justify"><font face="verdana" size="2">Esto es, se incluy&oacute; la variable <i>X</i><sub>2</sub>, que es irrelevante para predecir <i>Y</i><sub>1</sub>. En el <a href="#c1">Cuadro 1</a> se muestra un resumen de los dos escenarios estudiados.</font></p>     <p align="center"><font face="verdana" size="2"><a name="c1"></a></font></p>     <p align="center"><font face="verdana" size="2"><img src="/img/revistas/agro/v44n2/a8c1.jpg"></font></p>     <p align="justify"><font face="verdana" size="2">La variable <i>X</i><sub>1</sub> se simul&oacute; como una variable uniforme con media cero y varianza uno; la segunda variable independiente <i>X</i><sub>2</sub> se gener&oacute; usando una variable auxiliar <i>X</i><sub>3</sub> y la variable <i>X</i><sub>1</sub>; la variable auxiliar <i>X</i><sub>3</sub> se gener&oacute; independiente de <i>X</i><sub>1</sub> como una variable uniforme con media cero y varianza uno; finalmente, se obtuvo <i>X</i><sub>2</sub> mediante la ecuaci&oacute;n<i> X</i><sub>2</sub><i>= &#945;</i><sub>0</sub><i>+&#945;</i><sub>1</sub><i>X</i><sub>1</sub><i>+&#945;</i><sub>2</sub><i>X</i><sub>2</sub>, donde &#945;<sub>0</sub>=1, &#945;</sup><sub>0</sub>=.5 y para el valor de<i> &#945;<sub>2 </sub></i>se inici&oacute; con <i>&#945;</i><sub>2</sub> =30 y se disminuy&oacute; en 0.1 hasta obtener un valor de <i>&#945;</i><sub>2</sub> que obtenga las correlaciones deseadas entre los valores <i>X</i><sub>1</sub><i> y X</i><sub>2</sub><i>.</i></font></p>     <p align="justify"><font face="verdana" size="2">Se estudiaron tres correlaciones en cada uno de los escenarios generados: a) la correlaci&oacute;n nula (&#8776;.05); b) correlaci&oacute;n moderada (&#8776;.5); c) correlaci&oacute;n severa (&#8776;.99). Una vez logradas las tres distintas correlaciones, las variables <i>X</i><sub>1</sub> y<i> X</i><sub>2</sub> se mantuvieron fijas para todas las situaciones estudiadas. Este proceso se repiti&oacute; para cada tama&ntilde;o de muestra estudiado.</font></p>     <p align="justify"><font face="verdana" size="2">Los tama&ntilde;os de muestra usados en cada situaci&oacute;n simulada fueron 40, 50, 60, 70, 80, 90, 100, 200, 300, 400, 500 y 1000 observaciones.</font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">La generaci&oacute;n de la variable respuesta <i>Y</i><sub>1</sub> se realiz&oacute; utilizando el m&eacute;todo de la transformada inversa (Ross, 1999), con los pasos siguientes:</font></p>     <p align="justify"><font face="verdana" size="2">1) Primero se generaron los valores de <i>&#960;<sub>i</sub> </i>(i=1, 2,..., n) para cada una de las n observaciones de la muestra. Para el primer escenario estos valores se obtuvieron con la ecuaci&oacute;n:</font></p>     <p align="center"><font face="verdana" size="2"><img src="/img/revistas/agro/v44n2/a8s9.jpg"></font></p>     <p align="justify"><font face="verdana" size="2">Para el segundo escenario estos valores se obtuvieron con la ecuaci&oacute;n:</font></p>     <p align="center"><font face="verdana" size="2"><img src="/img/revistas/agro/v44n2/a8s10.jpg"></font></p>     <p align="justify"><font face="verdana" size="2">El vector de par&aacute;metros <i>&#946; </i>se seleccion&oacute; como el vector propio asociado al valor propio mayor de <i>X<sup>T</sup>X, </i>que es el mejor de los escenarios te&oacute;ricos para estimar <i>&#946;</i> (Lee y Silvapulle, 1988; Duffy y Santner, 1989).</font></p>     <p align="justify"><font face="verdana" size="2">2) Se gener&oacute; una variable auxiliar <i>Z<sub>i</sub> </i>(i= 1,2,... ,n) donde <i>Z. </i>tiene distribuci&oacute;n uniforme en (0,1).</font></p>     <p align="justify"><font face="verdana" size="2">3) Se gener&oacute; el valor de <i>Y</i><sub>i</sub> (i=1,2,...,n) con la siguiente regla de decisi&oacute;n:</font></p>     <p align="center"><font face="verdana" size="2"><img src="/img/revistas/agro/v44n2/a8s11.jpg"></font></p>     <p align="justify"><font face="verdana" size="2">Los aspectos de la inferencia en el modelo de regresi&oacute;n log&iacute;stica evaluadas en la simulaci&oacute;n siempre fueron sobre <i>&#946;</i><sub>1</sub> y consideraron:</font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">1) Sesgo del estimador. El sesgo del estimador de <i>&#946;</i><sub>1</sub> dado por E (<img src="/img/revistas/agro/v44n2/a8s17.jpg">) <i>&#150; <i>&#946;</i></i><sub>1</sub> se estim&oacute; como:</font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2">donde <img src="/img/revistas/agro/v44n2/a8s19.jpg">, es el estimador de m&aacute;xima verosimilitud de <i>&#946;</i><sub>1</sub> obtenido en la i&#150;&eacute;sima simulaci&oacute;n.</font></p>     <p align="justify"><font face="verdana" size="2">2)   El error cuadrado medio (ECM). El ECM de<i> &#946;</i><sub>1</sub><i> </i>dado por <img src="/img/revistas/agro/v44n2/a8s13.jpg" alt="">, se estim&oacute; como:</font></p>     <p align="center"><font face="verdana" size="2"><img src="/img/revistas/agro/v44n2/a8s14.jpg"></font></p>     <p align="justify"><font face="verdana" size="2">3) La potencia y tama&ntilde;o de la prueba. Se estudi&oacute; la funci&oacute;n potencia de la prueba de hip&oacute;tesis estad&iacute;stica <i>H</i><sub>0</sub><i>:<i>&#946;</i></i><sub>1</sub><i>=</i>0<i> vs H</i><sub>a</sub><i>:<i>&#946;</i></i><sub>1</sub><i>&#8800;</i>0 la funci&oacute;n de potencia est&aacute; dada por:</font></p>     <p align="center"><font face="verdana" size="2"><img src="/img/revistas/agro/v44n2/a8s15.jpg"></font></p>     <p align="justify"><font face="verdana" size="2">donde <i>a</i>(<i><i>&#946;</i></i><sub>1</sub>)= Pr (Error tipo I) = Pr (Rechazar <i>H</i><sub>0</sub> cuando <i>H</i><sub>0 </sub>es verdadero), y <i><i>&#946;</i></i> (<i><i>&#946;</i></i><sub>1</sub>) = Pr (Error tipo II) = Pr (No rechazar <i>H</i><sub>0 </sub>cuando <i>H</i><sub>0</sub> es falso)</font></p>     <p align="justify"><font face="verdana" size="2">El valor <i>a</i>(<i><i>&#946;<sub>1</sub></i></i>) para valores del <i><i>&#946;</i></i><sub>1</sub> bajo <i>H</i><sub>0</sub> representa el tama&ntilde;o de la prueba y el valor 1 <i>&#150; <i>&#946; </i></i>(<i><i>&#946;</i></i><sub>1</sub>) para valores de <i><i>&#946;</i></i><sub>1</sub> bajo <i>H</i><sub>a</sub> representa la potencia.</font></p>     <p align="justify"><font face="verdana" size="2">El valor de <i>a</i>(<i><i>&#946;</i></i><sub>1</sub>) se estim&oacute; como la proporci&oacute;n de rechazos cuando en la simulaci&oacute;n <i><i>&#946;</i></i><sub>1</sub>=0.</font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">El valor de 1 <i>&#150; <i>&#946; </i></i>(<i><i>&#946;</i></i><sub>1</sub>) se estim&oacute; como la proporci&oacute;n de rechazos cuando en la simulaci&oacute;n <i><i>&#946;<sub>1</sub></i></i>&#8800;0<i>.</i></font></p>     <p align="justify"><font face="verdana" size="2">El nivel de significancia en todas las pruebas de hip&oacute;tesis fue <i>a</i>=0.05.</font></p>     <p align="justify"><font face="verdana" size="2">En los dos escenarios propuestos se realizaron 1000 simulaciones con el paquete R versi&oacute;n 2.7.1.</font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><b>RESULTADOS Y DISCUSI&Oacute;N</b></font></p>     <p align="justify"><font face="verdana" size="2"><b>Primer escenario</b></font></p>     <p align="justify"><font face="verdana" size="2">El modelo generador de los datos es:</font></p>     <p align="center"><font face="verdana" size="2"><img src="/img/revistas/agro/v44n2/a8s16.jpg" alt=""></font></p>     <p align="justify"><font face="verdana" size="2"><b>Sesgo al omitir la variable relevante <i>X</i><sub>2</sub></b></font></p>     <p align="justify"><font face="verdana" size="2">En el modelo correctamente especificado (<a href="#f1">Figura 1A</a>) hay evidencia de que el sesgo tiende a cero al aumentar <i>n; </i>alrededor de n=300 el sesgo pr&aacute;cticamente desaparece.</font></p>     ]]></body>
<body><![CDATA[<p align="center"><font face="verdana" size="2"><a name="f1"></a></font></p>     <p align="center"><font face="verdana" size="2"><img src="/img/revistas/agro/v44n2/a8f1.jpg"></font></p>     <p align="justify"><font face="verdana" size="2">En el modelo incorrectamente especificado (<a href="#f1">Figura 1B</a>) el sesgo de <img src="/img/revistas/agro/v44n2/a8s17.jpg"> al omitir <i>X<sub>2</sub> </i>se mantiene casi constante para cualquier tama&ntilde;o de muestra, dando evidencias de que el sesgo no desaparece al aumentar n. Estos resultados coinciden con los de Gail <i>et al. </i>(1984) y Neuhaus y Jewell (1993).</font></p>     <p align="justify"><font face="verdana" size="2">Hay un efecto de la correlaci&oacute;n en el sesgo, en general a mayor correlaci&oacute;n mayor sesgo. El efecto es m&aacute;s marcado en el modelo incorrectamente especificado (<a href="#f1">Figura 1B</a>).</font></p>     <p align="justify"><font face="verdana" size="2"><b>Error cuadrado medio al omitir la variable relevante <i>X</i><sub>2</sub></b></font></p>     <p align="justify"><font face="verdana" size="2">En la <a href="#f2">Figura 2</a> se observa un efecto fuerte de la correlaci&oacute;n. El ECM es marcadamente m&aacute;s alto en los casos con correlaci&oacute;n alta que cuando la correlaci&oacute;n es nula o moderada.</font></p>     <p align="center"><font face="verdana" size="2"><a name="f2"></a></font></p>     <p align="center"><font face="verdana" size="2"><img src="/img/revistas/agro/v44n2/a8f2.jpg"></font></p>     <p align="justify"><font face="verdana" size="2">El modelo incorrectamente especificado (<a href="#f2">Figura 2B</a>) mostr&oacute; ECM menor que el modelo correctamente especificado (<a href="#f2">Figura 2A</a>) en tama&ntilde;os de muestra peque&ntilde;os. Sin embargo, al aumentar el tama&ntilde;o de muestra disminuye la diferencia en ECM, hasta ocurrir lo contrario alrededor de n=300.</font></p>     <p align="justify"><font face="verdana" size="2"><b>Potencia al omitir la variable relevante <i>X</i><sub>2</sub></b></font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">En la <a href="#f3">Figura 3</a> se observa que para correlaci&oacute;n nula y media el modelo correctamente especificado (<a href="#f3">Figura 3A</a>) present&oacute; mayores potencias que en el modelo incorrectamente especificado (<a href="#f3">Figura 3B</a>). Sin embargo, con una correlaci&oacute;n alta, la potencia de la prueba tuvo una gran disminuci&oacute;n en el modelo correctamente especificado (<a href="#f3">Figura 3A</a>) pero en el modelo incorrectamente especificado (<a href="#f3">Figura 3B</a>) la potencia tuvo un gran aumento.</font></p>     <p align="center"><font face="verdana" size="2"><a name="f3"></a></font></p>     <p align="center"><font face="verdana" size="2"><img src="/img/revistas/agro/v44n2/a8f3.jpg"></font></p>     <p align="justify"><font face="verdana" size="2">Hay un efecto de correlaci&oacute;n en la potencia de la prueba de Wald, en ambos casos. As&iacute;, cuando el modelo est&aacute; correctamente especificado (<a href="#f3">Figura 3A</a>) la potencia disminuye y el efecto es muy marcado para correlaci&oacute;n alta; la potencia es menos de 0.3 cuando n=1000. Para el modelo mal especificado (<a href="#f3">Figura 3B</a>) que omiti&oacute; la variable X<sub>2</sub> el efecto de la correlaci&oacute;n es positivo; al aumentar la correlaci&oacute;n la potencia aumenta dr&aacute;sticamente y en n=50 la potencia es casi 1 en la correlaci&oacute;n alta.</font></p>     <p align="justify"><font face="verdana" size="2"><b>Tama&ntilde;o de la prueba de hip&oacute;tesis al omitir la variable relevante <i>X</i><sub>2</sub></b></font></p>     <p align="justify"><font face="verdana" size="2">En la <a href="#f4">Figura 4</a> se muestra el comportamiento del tama&ntilde;o de la prueba <i>H</i><sub>0</sub><i>&#946;</i><sub>1</sub><i>=</i>0<i> vs <i>&#946;</i></i><sub>1</sub>&#8800;<i>0 </i>, al omitir una variable relevante; se nota que los valores fluct&uacute;an cerca del valor nominal de 0.05. Las fluctuaciones se pueden atribuir a que s&oacute;lo se repitieron 1000 simulaciones en cada situaci&oacute;n simulada. El resultado obtenido coincide con el reportado por Begg y Lagakos (1990) cuando la variable incluida y la no incluida son independientes.</font></p>     <p align="center"><font face="verdana" size="2"><a name="f4"></a></font></p>     <p align="center"><font face="verdana" size="2"><img src="/img/revistas/agro/v44n2/a8f4.jpg"></font></p>     <p align="justify"><font face="verdana" size="2"><b>Segundo escenario </b></font></p>     <p align="justify"><font face="verdana" size="2"><b>Sesgo al incluir la variable irrelevante <i>X</i><sub>2</sub></b></font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">En la <a href="#f5">Figura 5</a> se muestra que para ambos casos: A) sesgo de <img src="/img/revistas/agro/v44n2/a8s17.jpg" alt=""><i> </i>con el modelo correctamente especificado y B) sesgo de <img src="/img/revistas/agro/v44n2/a8s17.jpg" alt=""> al incluir la variable irrelevante <i>X</i><sub>2</sub>, los sesgos tienden a desaparecer al aumentar <i>n </i>(consistencia) y son mayores cuando el modelo est&aacute; incorrectamente especificado por incluir la variable irrelevante <i>X</i><sub>2</sub>.</font></p>     <p align="center"><font face="verdana" size="2"><a name="f5"></a></font></p>     <p align="center"><font face="verdana" size="2"><img src="/img/revistas/agro/v44n2/a8f5.jpg"></font></p>     <p align="justify"><font face="verdana" size="2"><b>Error cuadrado medio al incluir la variable irrelevante <i>X</i><sub>2</sub></b></font></p>     <p align="justify"><font face="verdana" size="2">En la <a href="#f6">Figura 6</a> se observa que con el modelo correctamente especificado (<a href="#f6">Figura 6A</a>) el error cuadrado medio de <img src="/img/revistas/agro/v44n2/a8s17.jpg" alt=""> no muestra efecto de la correlaci&oacute;n.El ECM de <img src="/img/revistas/agro/v44n2/a8s17.jpg" alt=""> al incluir la variable irrelevante <i>X</i><sub>2</sub> (<a href="#f6">Figura 6b</a>) es mayor s&oacute;lo en las correlaciones severas (<i>r</i><sub>ij</sub> &#8776; 0.99).</font></p>     <p align="center"><font face="verdana" size="2"><a name="f6"></a></font></p>     <p align="center"><font face="verdana" size="2"><img src="/img/revistas/agro/v44n2/a8f6.jpg"></font></p>     <p align="justify"><font face="verdana" size="2"><b>Potencia de la prueba de hip&oacute;tesis al incluir la variable irrelevante <i>X</i><sub>2</sub></b></font></p>     <p align="justify"><font face="verdana" size="2">En la <a href="#f7">Figura 7</a> se observa un gran efecto de la correlaci&oacute;n en la potencia de la prueba sobre <img src="/img/revistas/agro/v44n2/a8s17.jpg" alt=""> al incluir la variable irrelevante <i>X</i><sub>2</sub>, principalmente en muestras peque&ntilde;a. Este efecto de la correlaci&oacute;n disminuye al aumentar <i>n </i>en las correlaciones nulas (<i>r</i><sub>ij</sub> &#8776;  0.05) y moderadas (<i>r</i><sub>ij</sub> &#8776;  0.05) principalmente.</font></p>     <p align="center"><font face="verdana" size="2"><a name="f7"></a></font></p>     ]]></body>
<body><![CDATA[<p align="center"><font face="verdana" size="2"><img src="/img/revistas/agro/v44n2/a8f7.jpg"></font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><b>CONCLUSIONES</b></font></p>     <p align="justify"><font face="verdana" size="2"><b>Primer escenario </b></font></p>     <p align="justify"><font face="verdana" size="2"><b>Al omitir una variable independiente relevante</b></font></p>     <p align="justify"><font face="verdana" size="2">El estimador de<i><i> &#946;</i></i><sub>1 </sub>en el modelo correctamente especificado es consistente. Cuando el modelo estaba mal especificado el estimador fue sesgado y el sesgo no desapareci&oacute; al aumentar el tama&ntilde;o de muestra.</font></p>     <p align="justify"><font face="verdana" size="2">Existe efecto de la correlaci&oacute;n en la potencia de la prueba de hip&oacute;tesis. En el modelo correctamente especificado hay un efecto negativo de la correlaci&oacute;n (la potencia disminuye al aumentar la correlaci&oacute;n). En el modelo incorrectamente especificado hay un efecto positivo de la correlaci&oacute;n (al aumentar la correlaci&oacute;n la potencia aument&oacute;).</font></p>     <p align="justify"><font face="verdana" size="2">El valor del tama&ntilde;o de la prueba en todos los casos estuvo cercano al nominal de &#945;=0.05.</font></p>     <p align="justify"><font face="verdana" size="2"><b>Segundo escenario </b></font></p>     <p align="justify"><font face="verdana" size="2"><b>Se incluye una variable independiente irrelevante</b></font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">No hay efecto por incluir una variable irrelevante en el sesgo, excepto cuando la correlaci&oacute;n es alta donde resultaron sesgos mayores que cuando el modelo estaba correctamente especificado.</font></p>     <p align="justify"><font face="verdana" size="2">Al aumentar una variable irrelevante hay efecto de la correlaci&oacute;n en el error cuadrado medio y aumenta conforme incrementa la correlaci&oacute;n. El efecto disminuye al aumentar el tama&ntilde;o de muestra.</font></p>     <p align="justify"><font face="verdana" size="2">Al aumentar una variable irrelevante hay efecto de la correlaci&oacute;n en la potencia de la prueba; al aumentar la correlaci&oacute;n, disminuye la potencia.</font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><b>LITERATURA CITADA</b></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Begg, M. D., and S. W. Lagakos. 1990. On the consequences of model misspecification in logistic regression. Environ. Health Perspectives 87: 69&#150;75.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=541256&pid=S1405-3195201000020000800001&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">Clarke, K. A. 2009. Return of the phantom menace omitted variable bias in political research. Conflict Manage. Peace Sci. 26(1): 46&#150;66.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=541257&pid=S1405-3195201000020000800002&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">Duffy, D. E., and T. J. Santner. 1989. On the small sample properties of norm restricted maximum likelihood estimators for logistic regression models. Comm. Statistics&#150;Theory and Methods 18(3): 959&#150;980.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=541258&pid=S1405-3195201000020000800003&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">Gail, M. H., S. Wieand, and S. Piantadosi. 1984. Biased estimates of treatment effect in randomized experiments with nonlinear regressions and omitted covariates. Biometrics 71: 431&#150;444.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=541259&pid=S1405-3195201000020000800004&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">Hocking, R. R. 1976. The analysis and selection of variables in linear regression. Biometrics 32(1):1&#150;49.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=541260&pid=S1405-3195201000020000800005&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">Lee, A. H., and M.J. Silvapulle. 1988. Ridge estimation in logistic regression. Comm. Statistics&#150;Theory and Methods 17(4): 1231&#150;1257.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=541261&pid=S1405-3195201000020000800006&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">Lehmann, D. R., S. Gupta, and J. Steckel. 1997. Marketing Research, Addison&#150;Wesley Educational Publishers, Inc. Reading. Massachussetts. 780 p.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=541262&pid=S1405-3195201000020000800007&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">Mela, F. C, and K. K. Praveen. 2002. The impact of collinearity on regression analysis: the asymmetric effect of negative and positive correlations. Appl. Econ. 34: 667&#150;677.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=541263&pid=S1405-3195201000020000800008&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">Neuhaus, J. M. 1998. Estimation efficiency with omitted covariates in generalized linear models. J. Am. Stat. Assoc. 93(443): 1124&#150;1129.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=541264&pid=S1405-3195201000020000800009&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">Neuhaus, J. M., and N. P. Jewell. 1993. A geometric approach to assess bias due to omitted covariates in generalized linear models. Biometrika 80: 807&#150;815.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=541265&pid=S1405-3195201000020000800010&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">Rao, P. 1971. Some notes on misspecification in multiple regressions. The Am. Stat. 25(5):37&#150;39.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=541266&pid=S1405-3195201000020000800011&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">Rosenberg, S. H., and P.S. Levy. 1972. Note: a characterization on misspecification in the general linear regression. Biometrics 28(4):1129&#150;1133.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=541267&pid=S1405-3195201000020000800012&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">Ross, S. M. 1999. Simulation. Academic Press. Fourth edition. 312 p.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=541268&pid=S1405-3195201000020000800013&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">Walls, R. C., and D.L. Weeks. 1969. A note on the variance of a predicted response in regression. The Am. Stat. 23(3): 24&#150;26.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=541269&pid=S1405-3195201000020000800014&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">Wittink, D. R. 1988. The Application of Regression Analysis. Simon &amp; Schuster. Needham Heights. Massachusetts. 350 p.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=541270&pid=S1405-3195201000020000800015&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --> ]]></body><back>
<ref-list>
<ref id="B1">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Begg]]></surname>
<given-names><![CDATA[M. D]]></given-names>
</name>
<name>
<surname><![CDATA[Lagakos]]></surname>
<given-names><![CDATA[S. W.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[On the consequences of model misspecification in logistic regression]]></article-title>
<source><![CDATA[Environ. Health Perspectives]]></source>
<year>1990</year>
<volume>87</volume>
<page-range>69-75</page-range></nlm-citation>
</ref>
<ref id="B2">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Clarke]]></surname>
<given-names><![CDATA[K. A]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Return of the phantom menace omitted variable bias in political research]]></article-title>
<source><![CDATA[Conflict Manage. Peace Sci]]></source>
<year>2009</year>
<volume>26</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>46-66</page-range></nlm-citation>
</ref>
<ref id="B3">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Duffy]]></surname>
<given-names><![CDATA[D. E]]></given-names>
</name>
<name>
<surname><![CDATA[Santner]]></surname>
<given-names><![CDATA[T. J.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[On the small sample properties of norm restricted maximum likelihood estimators for logistic regression models]]></article-title>
<source><![CDATA[Comm. Statistics-Theory and Methods]]></source>
<year>1989</year>
<volume>18</volume>
<numero>3</numero>
<issue>3</issue>
<page-range>959-980</page-range></nlm-citation>
</ref>
<ref id="B4">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Gail]]></surname>
<given-names><![CDATA[M. H.]]></given-names>
</name>
<name>
<surname><![CDATA[Wieand]]></surname>
<given-names><![CDATA[S.]]></given-names>
</name>
<name>
<surname><![CDATA[Piantadosi]]></surname>
<given-names><![CDATA[S.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Biased estimates of treatment effect in randomized experiments with nonlinear regressions and omitted covariates]]></article-title>
<source><![CDATA[Biometrics]]></source>
<year>1984</year>
<volume>71</volume>
<page-range>431-444</page-range></nlm-citation>
</ref>
<ref id="B5">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Hocking]]></surname>
<given-names><![CDATA[R. R.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[The analysis and selection of variables in linear regression]]></article-title>
<source><![CDATA[Biometrics]]></source>
<year>1976</year>
<volume>32</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>1-49</page-range></nlm-citation>
</ref>
<ref id="B6">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Lee]]></surname>
<given-names><![CDATA[A. H]]></given-names>
</name>
<name>
<surname><![CDATA[Silvapulle]]></surname>
<given-names><![CDATA[M.J.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Ridge estimation in logistic regression]]></article-title>
<source><![CDATA[Comm. Statistics-Theory and Methods]]></source>
<year>1988</year>
<volume>17</volume>
<numero>4</numero>
<issue>4</issue>
<page-range>1231-1257</page-range></nlm-citation>
</ref>
<ref id="B7">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Lehmann]]></surname>
<given-names><![CDATA[D. R.]]></given-names>
</name>
<name>
<surname><![CDATA[Gupta]]></surname>
<given-names><![CDATA[S.]]></given-names>
</name>
<name>
<surname><![CDATA[Steckel]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
</person-group>
<source><![CDATA[Marketing Research]]></source>
<year>1997</year>
<page-range>780</page-range><publisher-loc><![CDATA[Reading^eMassachussetts Massachussetts]]></publisher-loc>
<publisher-name><![CDATA[Addison-Wesley Educational Publishers, Inc.]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B8">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Mela]]></surname>
<given-names><![CDATA[F. C]]></given-names>
</name>
<name>
<surname><![CDATA[Praveen]]></surname>
<given-names><![CDATA[K. K.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[The impact of collinearity on regression analysis: the asymmetric effect of negative and positive correlations]]></article-title>
<source><![CDATA[Appl. Econ]]></source>
<year>2002</year>
<volume>34</volume>
<page-range>667-677</page-range></nlm-citation>
</ref>
<ref id="B9">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Neuhaus]]></surname>
<given-names><![CDATA[J. M]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Estimation efficiency with omitted covariates in generalized linear models]]></article-title>
<source><![CDATA[J. Am. Stat. Assoc]]></source>
<year>1998</year>
<volume>93</volume>
<numero>443</numero>
<issue>443</issue>
<page-range>1124-1129</page-range></nlm-citation>
</ref>
<ref id="B10">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Neuhaus]]></surname>
<given-names><![CDATA[J. M.]]></given-names>
</name>
<name>
<surname><![CDATA[Jewell]]></surname>
<given-names><![CDATA[N. P.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A geometric approach to assess bias due to omitted covariates in generalized linear models]]></article-title>
<source><![CDATA[Biometrika]]></source>
<year>1993</year>
<volume>80</volume>
<page-range>807-815</page-range></nlm-citation>
</ref>
<ref id="B11">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Rao]]></surname>
<given-names><![CDATA[P]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Some notes on misspecification in multiple regressions]]></article-title>
<source><![CDATA[The Am. Stat]]></source>
<year>1971</year>
<volume>25</volume>
<numero>5</numero>
<issue>5</issue>
<page-range>37-39</page-range></nlm-citation>
</ref>
<ref id="B12">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Rosenberg]]></surname>
<given-names><![CDATA[S. H.]]></given-names>
</name>
<name>
<surname><![CDATA[Levy]]></surname>
<given-names><![CDATA[P.S.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Note: a characterization on misspecification in the general linear regression]]></article-title>
<source><![CDATA[Biometrics]]></source>
<year>1972</year>
<volume>28</volume>
<numero>4</numero>
<issue>4</issue>
<page-range>1129-1133</page-range></nlm-citation>
</ref>
<ref id="B13">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Ross]]></surname>
<given-names><![CDATA[S. M.]]></given-names>
</name>
</person-group>
<source><![CDATA[Simulation]]></source>
<year>1999</year>
<edition>Fourth</edition>
<page-range>312</page-range><publisher-name><![CDATA[Academic Press]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B14">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Walls]]></surname>
<given-names><![CDATA[R. C]]></given-names>
</name>
<name>
<surname><![CDATA[Weeks]]></surname>
<given-names><![CDATA[D.L.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A note on the variance of a predicted response in regression]]></article-title>
<source><![CDATA[The Am. Stat]]></source>
<year>1969</year>
<volume>23</volume>
<numero>3</numero>
<issue>3</issue>
<page-range>24-26</page-range></nlm-citation>
</ref>
<ref id="B15">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Wittink]]></surname>
<given-names><![CDATA[D. R.]]></given-names>
</name>
</person-group>
<source><![CDATA[The Application of Regression Analysis]]></source>
<year>1988</year>
<page-range>350</page-range><publisher-loc><![CDATA[Needham Heights^eMassachusetts Massachusetts]]></publisher-loc>
<publisher-name><![CDATA[Simon & Schuster]]></publisher-name>
</nlm-citation>
</ref>
</ref-list>
</back>
</article>
