SciELO - Scientific Electronic Library Online

 
vol.5 número4Tanques hidroneumáticos. Cálculo de la capacidadEl uso del método de los elementos distintos como una herramienta para la detección de problemas de estabilidad en las excavaciones del vertedero profundas índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Servicios Personalizados

Revista

Articulo

Indicadores

Links relacionados

  • No hay artículos similaresSimilares en SciELO

Compartir


Tecnología y ciencias del agua

versión On-line ISSN 2007-2422

Tecnol. cienc. agua vol.5 no.4 Jiutepec jul./ago. 2014

 

Nota técnica

 

Ampliación de registros de volumen escurrido anual con base en información regional y regresión de tipo Ridge

 

Extension of Annual Runoff Volume Records Based on Regional Information and Ridge Regression

 

Daniel Francisco Campos-Aranda*
Profesor jubilado de la Universidad Autónoma de San Luis Potosí, México.
*Autor de correspondencia.

 

Dirección del autor

Dr. Daniel Francisco Campos Aranda
Profesor jubilado de la Universidad Autónoma de San Luis Potosí
Genaro Codina 240, Colonia Jardines del Estadio
78280 San Luis Potosí, San Luis Potosí, MÉXICO
Teléfono: +52 (444) 8151 431
campos_aranda@hotmail.com

 

Recibido: 26/12/12
Aceptado: 09/01/14

 

Resumen

En general, la planeación, diseño y manejo de las obras de infraestructura hidráulica se realiza con base en los registros históricos disponibles de crecientes, escurrimientos y lluvias anuales. Conforme tales registros abarcan más años, sus estimaciones hidrológicas tienen una mayor exactitud. Por lo anterior, siempre es necesario ampliar los registros cortos (Y), por ejemplo a través de la regresión lineal múltiple (RLM), la cual utiliza la información regional disponible. El establecimiento de una RLM tiene varias dificultades, quizá la más importante en el transporte de información hidrológica sea la presencia de correlación entre los registros auxiliares o variables predictivas (Xi), lo cual da origen a un problema de multicolinealidad. En este trabajo se expone con detalle el diagnóstico cuantitativo de tal problema por medio de los factores de inflación de la varianza y de los eigenvalores de la matriz X' · X. También se describe ampliamente la RLM de tipo Ridge o sesgada como estrategia para minimizar los efectos de la multicolinealidad, buscando su parámetro de sesgo con base en la traza Ridge. Se detalla una aplicación numérica para ampliar el registro de volúmenes escurridos anuales en la estación hidrométrica Santa Isabel de la cuenca del Alto Río Grijalva, utilizando cuatro registros amplios cercanos. Por último se formulan las conclusiones, las cuales destacan las ventajas del uso de la RLM de tipo Ridge.

Palabras clave: multicolinealidad, factores de inflación de la varianza, eigenvalores, eigenvectores, alto río Grijalva.

 

Abstract

The planning, design and management of water infrastructure are typically based on available historical records of annual floods, runoff and rainfall. The more years covered by these records the more accurate the hydrological estimates. Therefore, it is always necessary to expand short records (Y), for example, through multiple linear regression (MLR), which uses available regional information. Establishing a MLR has several difficulties, perhaps the most important regarding the transport of hydrological information is the presence of correlation between the auxiliary or predictor variables (Xi), which gives rise to a problem of multicollinearity. In this work, the quantitative evaluation of multicollinearity is presented in detail through variance inflation factors and eigenvalues for the X' · X matrix. In addition, the biased or Ridge MLR is described extensively as a strategy to minimize the effects of multicollinearity, seeking its biasing parameter based on the Ridge trace. A numerical application is presented in detail, which expands the annual runoff volume records in the Santa Isabel gauging station in the upper Grijalva River using four broad records nearby. Lastly, several conclusions are formulated which highlight the advantages of using the Ridge MLR.

Keywords: Multicollinearity, variance inflation factors, eigenvalues, eigenvectors, upper Grijalva River.

 

Introducción

En general, la planeación, diseño, operación y revisión de las obras hidráulicas se realiza con base en los registros históricos disponibles de datos hidrológicos, principalmente crecientes, escurrimientos y lluvias anuales. Al contar sólo con registros cortos, la confianza en sus estimaciones estadísticas es baja y por ello se debe buscar información adicional y técnicas de ampliación de las series disponibles (Salas et al., 2008). Para el caso específico de los escurrimientos anuales, la fuente más común de datos adicionales son los registros largos de las estaciones hidrométricas cercanas y la técnica estadística más utilizada para el llamado transporte regional de información hidrológica es la regresión lineal múltiple (RLM).

Bajo este enfoque, el registro corto (Y) debe tener un periodo común de información con las series largas (Xi, regresores) y guardar una cierta dependencia o correlación con ellas. Obtenida y validada su ecuación, se pueden obtener las estimaciones que amplían el registro corto, con base en los valores observados en los regresores. Esta técnica estadística implica una complejidad real tan sólo en los tres aspectos siguientes (Ryan, 1998): (1) selección de cuántos y cuáles registros amplios e independientes utilizar; (2) interpretación de los resultados, en especial de los coeficientes de la regresión (βi), y (3) determinación de cuándo un método de ajuste, alternativo al de mínimos cuadrados de los residuos, debe ser utilizado.

Como el registro corto debe estar correlacionado con los auxiliares o circunvecinos, resulta lógico esperar que también éstos muestren cierta dependencia entre sí, pues además de ser cercanos guardan correlación con la variable dependiente. La correlación entre los regresores implica que alguna parte de la información estadística contenida en cada uno también está presente en alguna de las otras i - 1 variables independientes (Haan, 1977). Esta situación genera un problema de multicolinealidad debido a la semejanza o correlación existente entre los registros involucrados. Tal problema se debe diagnosticar y resolver, por ejemplo, a través de la regresión tipo Ridge (Montgomery et al., 1998; 2002).

Los tres objetivos básicos de este trabajo son: (1) describir la teoría estadística relativa a la RLM y su ajuste por mínimos cuadrados de los residuos; (2) explicar los conceptos y el diagnóstico cuantitativo de la multicolinealidad, y (3) exponer y aplicar la RLM de tipo Ridge o sesgada, como método eficiente para contrarrestar la dependencia lineal entre los regresores. Se realiza una aplicación numérica con cinco estaciones hidrométricas de la cuenca del Alto Río Grijalva para ampliar el registro corto de volúmenes escurridos anuales en la estación Santa Isabel.

Se comparan los resultados con los obtenidos previamente, mediante el enfoque de selección exhaustiva de variables predictivas.

 

Resumen de la teoría operativa

Regresión Lineal Múltiple (RLM) y su ajuste

Con frecuencia se puede establecer una relación de tipo lineal entre la variable dependiente (Y) y varias (p) independientes X1, X2,..., Xp, que es la generalización o extensión natural de la regresión lineal simple; su expresión es (Ryan, 1998):

Debido a esto último, los principios que rigen a la regresión lineal se aplican a la RLM; por ejemplo, que tanto Y como las Xi estén normalmente distribuidas, y que los errores ε sean independientes también con distribución normal de media cero y misma varianza (σ2) para cada Xi. Por lo general, la estimación de los coeficientes de la regresión (βi) se realiza mediante el llamado ajuste de mínimos cuadrados de los residuos. Tal solución matricial para la RLM, en el caso general de p variables independientes o regresores y n observaciones o datos de Y, X1, X2,..., Xp, es la siguiente (Ryan, 1998):

Siendo:

El planteamiento de esta solución implica que la sumatoria de uno a n de los residuos al cuadrado debe ser minimizada, es decir que:

Entonces, diferenciando el lado derecho de la ecuación anterior con respecto a β0, β1, β2,..., βp, por separado, se originan las ecuaciones llamadas normales, función de los parámetros desconocidos. En notación matricial, estas ecuaciones son:

cuya solución es:

en la cual X' es la matriz transpuesta de X y (X' · X)-1 indica la matriz inversa de X' · X.

 

Coeficiente de determinación múltiple

Designado por R2 es probablemente el estadístico más utilizado para medir lo adecuado de un modelo de regresión; indica cuánta de la varianza de Y la explica el modelo; por ello su expresión es (Hirsch et al., 1993):

en la cual Ŷi es la estimación de la variable Yi a través de la ecuación de regresión; por ello SCRes es la suma de cuadrados de los residuos y SCY es la varianza total de la variable dependiente, cuya media aritmética es .

 

Escalamiento de longitud unitaria de los datos

Sustraer a cada variable independiente o regresor su media aritmética se conoce como centrado de los datos y tiene como ventaja fundamental que las matrices X involucradas de n renglones ahora tienen p columnas, ya que la ecuación de RLM es:

cuyo reacomodo para obtener la ecuación (1) implica que:

El escalamiento de longitud unitaria implica, además del centrado, la división entre la raíz cuadrada de la varianza (Montgomery et al. , 2002), por lo cual:

Donde:

El escalamiento de longitud unitaria produce, en relación con la ecuación (4), que la matriz E' · E sea una matriz de correlación simple entre los regresores XJ; además, la matriz E' · Y es ahora una matriz de correlación simple entre cada regresor XJ y la variable dependiente Y. Este escalamiento y el normal conducen a coeficientes estandarizados de regresión, cuya comparación entre ellos define la importancia de cada regresor.

Otro escalamiento que se requiere con frecuencia está asociado con la estabilidad numérica de la matriz inversa de E' · E, pues es común obtenerla planteando esta igualdad A · A-1 = I; al transformar la matriz A en la matriz identidad I y realizar las mismas operaciones en I, ésta se convierte en la matriz A-1 buscada. Cuando la matriz A tiene elementos muy grandes, su inversa presentará elementos muy pequeños y entonces los errores por redondeo se vuelven importantes. En tales casos conviene dividir (escalar) todos los datos entre una cantidad fija o cociente reductor (COR) antes de aplicar la ecuación (5) y después los resultados de la ecuación (1) se multiplican por el COR.

 

Multicolinealidad: definición y soluciones

Como ya se indicó, en el caso de una ampliación de un registro hidrológico con base en la información regional disponible, el conjunto de datos siempre mostrará un cierto grado de multicolinealidad, a menos que las columnas de la matriz X sean ortogonales, es decir que X' · X sea una matriz diagonal, lo cual sólo sucederá en un experimento diseñado (Montgomery et al., 1998; 2002). Siendo XJ la j-ésima columna de la matriz X, la multicolinealidad se define de manera formal como la dependencia lineal entre tales columnas, es decir, que existe un conjunto de constantes t1, t2,... , tp, no todas cero, tales que:

Si la ecuación anterior es exactamente válida para un subconjunto de las columnas de X, el rango de la matriz X' · X es menor que p y entonces no existe (X' · X)-1. Cuando la ecuación (13) es válida, sólo aproximadamente existe multicolinealidad; es decir, que la matriz X' · X presenta un cierto grado de deterioramiento. En general, cuando se aplica el método de mínimos cuadrados de los residuos a datos que presentan multicolinealidad, la estimación de los coeficientes de regresión no es confiable, ya que su valor absoluto está exagerado y además es inestable.

Las técnicas básicas para combatir la multicolinealidad son las tres siguientes (Ryan, 1998; Montgomery et al., 1998):

1. Obtener más datos, lo cual puede no ser posible y además es probable que los datos nuevos reflejen el comportamiento de los anteriores.

2. Re-especificar el modelo, redefiniendo los regresores. Por ejemplo, si X1, X2 y X3 son linealmente dependientes, se puede adoptar una función de ellos del tipo X = (X1 + X2)/X3, o bien X = X1 · X2 · X3, que preserva el contenido de la información de los regresores originales, pero que reduce el deterioramiento de los datos debido a la multicolinealidad. Otro método de reespecificación muy efectivo consiste en la eliminación de una o más variables o regresores, esto de manera definitiva reduce la multicolinealidad, pero puede dañar notablemente la capacidad predictiva del modelo.

3. Obtener estimaciones sesgadas, como la RLM de tipo Ridge.

 

Diagnóstico cuantitativo de la multicolinealidad con base en (E' · E)-1

La manera más simple de descubrir la multicolinealidad es a través de la inspección de la matriz E' · E, cuyos elementos fuera de la diagonal principal corresponden a los coeficientes de correlación simple entre pares de regresores; entonces, si existen valores absolutos mayores de 0.80, se tiene dependencia entre tal pareja. Este método sólo detecta la multicolinealidad, pero no la cuantifica; en cambio, cuando los factores de inflación de la varianza VIF de Variance Inflation Factor son mayores que 10 implican que los coeficientes de regresión obtenidos con la ecuación (5) no son confiables debido a la multicolinealidad. La expresión de los VIF es (Montgomery et al., 1998; 2002):

donde RJ2 es el coeficiente de determinación que resulta de la RLM entre el regresor Xj como variable dependiente y el resto p - 1 como regresores. Los VIFj corresponden a la diagonal principal de la matriz inversa de E' · E.

 

Diagnóstico cuantitativo de la multicolinealidad con base en los eigenvalores de E' · E

Los eigenvalores de la matriz E' · E se designan por λ1, λ2, λ3,..., λp; también se conocen como valores propios y corresponden a las raíces de la ecuación característica |A-λ·I| = 0 de la matriz A. Se obtienen con procedimientos de métodos numéricos, por ejemplo, el método de potencias (Carnahan et al., 1969). Si existe una o más dependencias casi lineales en los datos, uno o más de los eigenvalores serán pequeños. El número de condición κ de la matriz E' · E se define como (Montgomery et al., 1998; 2002):

y representa el espectro de variación de los eigenvalores de la matriz E' · E. En general, cuando κ es menor que 100, prácticamente no existen problemas de multicolinealidad; cuando varía de 100 a 1 000 se tiene multicolinealidad de moderada a fuerte, y cuando excede de 1 000 seguramente se tendrán graves problemas asociados con ésta. Los índices de condición κj de la matriz E' · E son:

Los valores de κj definen el número y magnitud de las dependencias lineales que existen en los datos. Además, los eigenvectores asociados con cada eigenvalor permiten establecer numéricamente la dependencia lineal que existe entre los regresores, como se mostrará en la aplicación numérica.

 

La regresión Ridge

El método de mínimos cuadrados de los residuos asegura que la estimación (ecuación (5)) tenga varianza mínima, pero la multicolinealidad genera varianza muy grande, por lo cual sus estimaciones son inestables. Suponiendo que se puede obtener un estimador sesgado que tenga mucho menor varianza, entonces se puede aceptar una cantidad pequeña de sesgo en , de manera que el error medio cuadrático de sea menor que la varianza del estimador insesgado . La menor varianza del estimador sesgado implica que es un estimador más estable de β que el insesgado .

Se han desarrollado varios procedimientos para obtener estimadores sesgados de los coeficientes de regresión β. Uno de ellos es la regresión Ridge o de cresta, que fue propuesta a comienzos de la década de los años setenta por Hoerl y Kennard (1970), y que debe su nombre a la semejanza de sus operaciones matemáticas con el análisis Ridge empleado para describir el comportamiento de superficies de respuesta de segundo orden. El estimador Ridge R se obtiene resolviendo una versión ligeramente modificada de las ecuaciones normales, expuestas como ecuaciones (4) y (5); ésta es (Montgomery et al., 1998; 2002):

por lo cual:

en las expresiones anteriores, la constante k ≥ 0, denominada parámetro de sesgo, se selecciona durante el proceso de aplicación de la regresión Ridge. En realidad, el estimador Ridge es una transformación lineal del estimador de mínimos cuadrados de los residuos, cuyo sesgo crece al aumentar k, pero al mismo tiempo disminuye su varianza. Con la regresión Ridge se obtiene una estimación estable de sus coeficientes, a cambio de no ser el mejor ajuste a los datos. Debido a esto último se cree, pues no hay demostración matemática concluyente, que conduce a ecuaciones de regresión que funcionan mejor para predecir observaciones futuras, en comparación con la de mínimos cuadrados de los residuos.

Hoerl y Kennard (1970) sugirieron que un valor adecuado de k puede estimarse por inspección de la traza Ridge, que es una gráfica de las magnitudes de R dibujados en las ordenadas, contra sus respectivos valores de k en las abscisas. Los valores de k suelen estar en intervalo de 0 a 1. Si la multicolinealidad es grave, los coeficientes R variarán mucho, pero en un cierto valor de k se estabilizan. La idea fundamental es seleccionar el valor de k más pequeño, donde los R ya sean estables. Con ello es posible que se obtenga una ecuación de regresión con menor error medio cuadrático que el correspondiente a mínimos cuadrados.

 

Aplicación numérica

Datos en el Alto Río Grijalva

En la figura 1 se muestra la ubicación, dentro de la Región Hidrológica 30 (Ríos Grijalva y Usumacinta), de cinco cuencas pertenecientes a las estaciones hidrométricas Santa Isabel, La Escalera, El Boquerón II, Las Flores II y Santa María, cuyos datos generales se tienen en el cuadro 1. El planteamiento general de esta aplicación numérica consiste en ampliar el registro corto de Santa Isabel a través de RLM de tipo Ridge, empleando los otros cuatro registros largos. Esta estimación ya fue realizada (Campos, 2012), con base en el método de selección de variables predictivas.

Campos (2012) recopiló en el sistema BANDAS (IMTA, 2002) los datos disponibles en las estaciones citadas, correspondientes al volumen escurrido anual en millones de metros cúbicos (Mm3); también estimó valores mensuales perdidos para los años incompletos y dedujo las magnitudes anuales faltantes en el periodo común, definido de 1956 a 1973. Además, estableció el periodo de ampliación de 1974 a 1994. Tales datos se presentan en el cuadro 2. Finalmente, probó que los datos no tuvieran componentes determinísticas y verificó su procedencia de una distribución normal, con base en el test de Shapiro y Wilk (Shapiro, 1998).

 

Diagnóstico de la multicolinealidad

Las matrices E' · E, E' · Y y (E' · E)-1 obtenidas para los datos del cuadro 1, procesados lógicamente con escalamiento unitario y subrutinas de multiplicación e inversión de matrices elaboradas ex professo son:

La inspección de la matriz E' · E muestra que únicamente existen dos correlaciones importantes: la mayor (rxy = 0.9115), entre X3 y X4, y la menor (rxy = 0.8673), entre X2 y X3. Por lo anterior, se detecta un problema de multicolinealidad en los datos, pero quizás sea aceptable o moderada. En relación con el vector E' · Y, ninguna correlación es importante y éstas disminuyen conforme las estaciones hidrométricas están más alejadas de la estación Santa Isabel (ver figura 1).

El diagnóstico cuantitativo de la multicolinealidad se tiene en el cuadro 3, cuyo primer renglón de resultados corresponde a los valores de los factores de inflación de la varianza (VIFj) y son los elementos de la diagonal principal de la matriz inversa de E' · E. Como la magnitud mayor de los VIFj escasamente excede de 10, se encuentra multicolinealidad aceptable. Por otra parte, como ninguno de los índices de condición (κj) excede de 100, entonces los problemas asociados con la multicolinealidad no serán serios, lo cual ratifica la conclusión anterior.

Con base en los elementos del cuarto eigenvector, que corresponde al menor de los eigenvalores, se establece la siguiente ecuación (13), relativa a la multicolinealidad presente:

considerando que el coeficiente de X1 es cercano a cero se obtiene:

la ecuación anterior establece la relación aproximada entre X3 con X2 y X4.

 

Cálculo y análisis de la traza Ridge

La aplicación de la ecuación (18), con base en un programa de cómputo elaborado ex professo, el cual utiliza los valores de k indicados en el cuadro 4, condujo a los coeficientes de regresión tipo Ridge ahí concentrados, cuyos coeficientes de determinación (R2) correspondientes también se muestran en este cuadro. El cálculo de R2 se realizó haciendo el centrado de los datos y utilizando un COR = 500. A partir de los resultados del cuadro 4 se ha construido la traza Ridge, mostrada en la figura 2.

El estudio de la traza Ridge muestra que sólo el coeficiente de regresión de la variable X1, es decir, de la estación hidrométrica La Escalera es estable; en cambio, los relativos a las estaciones Las Flores II (X3) y Santa María (X4) varían bastante y de manera similar; por último, el de El Boquerón II (X2) fluctúa menos, pero incluso cambia de signo. Con el objeto de establecer el menor valor para el parámetro de sesgo (k), se acepta que en la traza Ridge sus coeficientes ya están estables en 0.25 y más apropiadamente en 0.35.

 

Estimaciones Ridge y su contraste

En el cuadro 5 se exponen las 18 estimaciones de la variable dependiente (Ŷ i), esto es, el registro histórico en la estación hidrométrica Santa Isabel en el periodo 1956-1973, así como sus residuos correspondientes, realizadas con las regresiones Ridge, que emplean k = 0.250 y 0.350. Los coeficientes de regresión respectivos se muestran en el cuadro 6 y fueron obtenidos con datos centrados y usando un COR de 500.

En el cuadro 6 se han concentrado los resultados del contraste entre los residuos de los dos mejores modelos de regresión obtenidos a través de selección de variables predictivas (Campos, 2012) y las regresiones Ridge adoptadas. Se observa que la regresión Ridge origina valores ligeramente mayores de los residuos negativos y escasamente menores de los residuos positivos; la suma de residuos al cuadrado es mayor, pues no es el mejor ajuste a los datos, pero la suma algebraica de sus errores es menor.

 

Estimaciones Ridge adoptadas

Finalmente, en el cuadro 7 se presentan los 21 volúmenes escurridos anuales estimados en la estación hidrométrica Santa Isabel para el periodo de 1974 a 1994, mediante las regresiones Ridge adoptadas, así como sus respectivos parámetros estadísticos.

En la figura 3 se muestra la comparación entre la segunda serie de volúmenes escurridos anuales estimados con regresión Ridge y los valores adoptados bajo el planteamiento de selección de variables predictivas (Campos, 2012). Se observa que ambas series estimadas de volúmenes escurridos anuales presentan el mismo comportamiento, pero la procedente de la regresión Ridge es mayor y con los valores máximos más pequeños, lo cual origina un valor medio ( = 862.3 Mm3) y un coeficiente de variación (Cv = 0.223) más parecidos a los de los datos históricos de Santa Isabel ( = 1 009.4 Mm3 y Cv = 0.227), en comparación con los obtenidos mediante selección de regresores (= 831.1 Mm3 y Cv = 0.293).

 

Conclusiones

La regresión Ridge es un procedimiento directo, de fácil implementación dentro de la solución de mínimos cuadrados de los residuos (ecuaciones (5) y (18)) y la interpretación y uso de la traza Ridge no presenta ninguna dificultad.

En relación con los problemas de ajuste que origina la multicolinealidad, existe consenso para recomendar que es mejor usar algo de la información estadística de todos los regresores, como lo hace la regresión Ridge, que emplear toda la información de algunos regresores y nada de otros, como actúa el método de selección de variables predictivas.

Respecto a la aplicación numérica descrita, problema previamente abordado con eliminación de variables, los resultados de la regresión Ridge son bastante semejantes (ver figura 3), pero más apegados a los parámetros estadísticos históricos de la estación Santa Isabel (cuadro 2).

Finalmente, en problemas con seis o siete registros amplios disponibles, caso común al transportar registros de lluvia anual, la regresión Ridge será una mejor opción que la inspección de 64 o 128 posibles modelos obtenidos por mínimos cuadrados de los residuos, como lo establece el esquema de eliminación de variables predictivas.

 

Referencias

Campos-Aranda, D. F. (2012). Ampliación de registros de volumen escurrido anual a través de Regresión Lineal Múltiple, con selección de variables predictivas. XXII Congreso Nacional de Hidráulica. Tema: Aprovechamiento Integral de Cuencas, Ponencia 29, del 7 al 9 de noviembre, Acapulco, Guerrero.         [ Links ]

Carnahan, B., Luther, H. A., & Wilkes, J. O. (1969). Matrices and Related Topics. Chapter 4. In Applied Numerical Methods (pp. 210-268). New York: John Wiley & Sons.         [ Links ]

Haan, C. T. (1977). Multivariate Analysis. Chapter 12. In Statistical Methods in Hydrology (pp. 236-262). Ames, USA: The Iowa State University Press.         [ Links ]

Hirsch, R. M., Helsel, D. R., Cohn, T. A., & Gilroy, E. J. (1993). Statistical Analysis of Hydrologic Data. Chapter 17. In D. R. Maidment (Ed.), Handbook of Hydrology (pp. 17.1-17.55). New York: McGraw-Hill, Inc.         [ Links ]

Hoerl, A. E., & Kennard, R. W. (1970). Ridge Regression: Biased Estimation for Nonorthogonal Problems. Technometrics, 12, 55-67.         [ Links ]

IMTA (2002). Banco Nacional de Datos de Aguas Superficiales (BANDAS). 8 CD's. Jiutepec, México: Secretaría de Medio Ambiente y Recursos Naturales, Comisión Nacional del Agua, Instituto Mexicano de Tecnología del Agua.         [ Links ]

Montgomery, D. C., Peck, E. A., & Simpson, J. R. (1998). Multicollinearity and Biased Estimation in Regression. Chapter 16. In H. M. Wadsworth (Ed.), Handbook of Statistical Methods for Engineers and Scientists (pp. 291-342). Second edition. New York: McGraw-Hill, Inc.         [ Links ]

Montgomery, D. C., Peck, E. A., & Vining, G. G. (2002). Multicolinealidad. Capítulo 10. En Introducción al análisis de regresión lineal (pp. 291-342). México, DF: Compañía Editorial Continental.         [ Links ]

Ryan, T. P. (1998). Linear Regression. Chapter 14. In H. M. Wadsworth (Ed.), Handbook of Statistical Methods for Engineers and Scientists (pp. 14.1-14.43). New York: McGraw-Hill, Inc.         [ Links ]

Salas, J. D., Raynal, J. A., Tarawneh, Z. S., Lee, T. S., Frevert, D., & Fulp, T. (2008). Extending Short Record of Hydrologic Data. Chapter 20. In V. P. Singh (Ed.), Hydrology and Hydraulics (pp. 717-760). Highlands Ranch, USA: Water Resources Publications.         [ Links ]

Shapiro, S. S. (1998). Selection, Fitting and Testing Statistical Models. Chapter 6. In H. M. Wadsworth (Ed.), Handbook of Statistical Methods for Engineers and Scientists (pp. 6.1-6.35). Second edition. New York: McGraw-Hill, Inc.         [ Links ]

Creative Commons License Todo el contenido de esta revista, excepto dónde está identificado, está bajo una Licencia Creative Commons