<?xml version="1.0" encoding="ISO-8859-1"?><article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance">
<front>
<journal-meta>
<journal-id>0065-1737</journal-id>
<journal-title><![CDATA[Acta zoológica mexicana]]></journal-title>
<abbrev-journal-title><![CDATA[Acta Zool. Mex]]></abbrev-journal-title>
<issn>0065-1737</issn>
<publisher>
<publisher-name><![CDATA[Instituto de Ecología A.C.]]></publisher-name>
</publisher>
</journal-meta>
<article-meta>
<article-id>S0065-17372008000200013</article-id>
<title-group>
<article-title xml:lang="es"><![CDATA[Herramientas estadísticas para resolver contrastes de hipótesis con contenido biológico: Su uso en Ecología del siglo XXI]]></article-title>
</title-group>
<contrib-group>
<contrib contrib-type="author">
<name>
<surname><![CDATA[MARTÍNEZ ABRAÍN]]></surname>
<given-names><![CDATA[Alejandro]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[CONESA]]></surname>
<given-names><![CDATA[David]]></given-names>
</name>
<xref ref-type="aff" rid="A02"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[ORO]]></surname>
<given-names><![CDATA[Daniel]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
</contrib-group>
<aff id="A01">
<institution><![CDATA[,Consejo Superior de Investigaciones Científicas Universidad de las Islas Baleares Instituto Mediterráneo de Estudios Avanzados]]></institution>
<addr-line><![CDATA[Madrid ]]></addr-line>
<country>España</country>
</aff>
<aff id="A02">
<institution><![CDATA[,Universitat de Valencia Departament d'Estadística i Investigació Operativa Grup d'Estadística Espacial i Temporal en Epidemiologia i Medi Ambient]]></institution>
<addr-line><![CDATA[Valencia ]]></addr-line>
<country>España</country>
</aff>
<pub-date pub-type="pub">
<day>00</day>
<month>00</month>
<year>2008</year>
</pub-date>
<pub-date pub-type="epub">
<day>00</day>
<month>00</month>
<year>2008</year>
</pub-date>
<volume>24</volume>
<numero>2</numero>
<fpage>201</fpage>
<lpage>220</lpage>
<copyright-statement/>
<copyright-year/>
<self-uri xlink:href="http://www.scielo.org.mx/scielo.php?script=sci_arttext&amp;pid=S0065-17372008000200013&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.mx/scielo.php?script=sci_abstract&amp;pid=S0065-17372008000200013&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.mx/scielo.php?script=sci_pdf&amp;pid=S0065-17372008000200013&amp;lng=en&amp;nrm=iso"></self-uri></article-meta>
</front><body><![CDATA[ <p align="left"><font face="verdana" size="4">Art&iacute;culos originales</font></p>     <p align="center">&nbsp;</p>     <p align="center"><font face="verdana" size="4"><b>Herramientas estad&iacute;sticas    para resolver contrastes de hip&oacute;tesis con contenido biol&oacute;gico:    Su uso en Ecolog&iacute;a del siglo <b>XXI</b></b></font></p>     <p align="center">&nbsp;</p>     <p align="center"><font face="verdana" size="2"><b>Alejandro MART&Iacute;NEZ ABRA&Iacute;N<sup>1</sup>,    David CONESA<sup>2</sup> &amp; Daniel ORO<sup>1</sup></b></font></p>     <p align="justify">&nbsp;</p>     <p align="justify"><font face="verdana" size="2"><sup><em>1</em></sup> <em>IMEDEA (CSIC&#45;UIB),    C/Miquel Marqu&egrave;s 21, 07190 Esporles, Mallorca, ESPA&Ntilde;A</em> <a href="mailto:abrain@uib.es">abrain@uib.es</a>    <em>(+34961610847)</em> </font></p>     <p align="justify"><font face="verdana" size="2"><sup><em>2</em></sup> <em>Grup d'Estad&iacute;stica    Espacial i Temporal en Epidemiologia i Medi Ambient. Departament d'Estad&iacute;stica    i Investigaci&oacute; Operativa, Universitat de Valencia. C/ Dr. Moliner 50,    46100 Burjassot (Valencia), ESPA&Ntilde;A</em></font></p>     <p align="justify">&nbsp;</p>     <p align="justify"><font face="verdana" size="2">Recibido: 13 de septiembre de    2007     ]]></body>
<body><![CDATA[<br>   Aceptado: 27 de febrero de 2008</font></p>     <p align="justify">&nbsp;</p>     <p align="justify"><font face="verdana" size="2"><b>RESUMEN</b></font></p>     <p align="justify"><font face="verdana" size="2">A menudo la formaci&oacute;n    que han recibido durante la carrera los j&oacute;venes investigadores tiene    notables carencias en los aspectos pr&aacute;cticos de dise&ntilde;o experimental,    an&aacute;lisis de datos e interpretaci&oacute;n de resultados, lo cual limita    de manera decisiva el provecho cient&iacute;fico futuro de sus actividades.    Eso es especialmente cierto en nuestros d&iacute;as, ya que vivimos una revoluci&oacute;n    importante en el campo de la metodolog&iacute;a estad&iacute;stica e incluso    en el procedimiento de hacer inferencia (el salto matem&aacute;tico desde las    propiedades de nuestra muestra de datos a las de los par&aacute;metros desconocidos    de la poblaci&oacute;n, nuestro objeto de estudio), que afecta no s&oacute;lo    a los ec&oacute;logos sino a muchas otras disciplinas cient&iacute;ficas como    la medicina, la psicolog&iacute;a o la sociolog&iacute;a. Recordamos aqu&iacute;,    a los investigadores noveles, que la vieja idea de la existencia de una sola    herramienta estad&iacute;stica (la comprobaci&oacute;n de hip&oacute;tesis nulas    sin contenido biol&oacute;gico) ha de cambiarse hoy por el paradigma ejemplificado    mediante la "caja de herramientas" en la que existen diversos tipos de herramientas    a nuestra disposici&oacute;n, cuya elecci&oacute;n depende de la complejidad    de nuestros problemas. Dado que la informaci&oacute;n est&aacute; dispersa en    numerosos art&iacute;culos y tratados espec&iacute;ficos de estad&iacute;stica    y dise&ntilde;o experimental, nuestra idea aqu&iacute; es tratar de presentar    un gui&oacute;n actualizado de las principales herramientas disponibles para    resolver contrastes de hip&oacute;tesis con contenido biol&oacute;gico en ecolog&iacute;a    en el siglo XXI, identificando la utilidad y limitaciones de cada una de ellas,    con el fin de mejorar la cultura estad&iacute;stica de los j&oacute;venes investigadores.    Finalmente ofrecemos, con fines pr&aacute;cticos, una selecci&oacute;n de referencias    bibliogr&aacute;ficas para el buen uso de cada herramienta. </font></p>     <p align="justify"><font face="verdana" size="2"><b>Palabras clave:</b> herramientas    estad&iacute;sticas, hip&oacute;tesis con contenido biol&oacute;gico, estad&iacute;stica    Bayesiana, criterios de informaci&oacute;n, cultura estad&iacute;stica, relevancia    biol&oacute;gica.</font></p>     <p align="justify">&nbsp;</p>     <p align="justify"><font face="verdana" size="2"><b>ABSTRACT</b></font></p>     <p align="justify"><font face="verdana" size="2">It is common place to find young    researchers with serious problems regarding experimental design, data analysis    and correct interpretation of results. These limitations are a serious handicap    for their future scientific endeavour. This is specially the case nowadays because    we are living a substantial revolution within the field of techniques for data    analysis and even statistical inference procedures (the mathematical jump from    sample data to the unknown population parameters), which affects not only ecology    but other scientific disciplines such as medicine, psychology or sociology.    We recall here that the old idea of having just one tool available to answer    ecological questions (the testing of biologically non&#45;informed null hypothesis)    has now been substituted by the paradigm of the "tool box", where we can find    several tools available depending on the complexity of the problem we are dealing    with. Since gathering information on each tool requires an important searching    effort, our purpose here is to offer an updated guideline of the main tools    available to solve biologically&#45;informed contrasts in ecology in the 21<sup>st</sup>    century, and to correctly interpret our results, identifying the weaknesses    and strengths of each tool. We also present, with practical purposes, a selection    of relevant publications which can be consulted to master the tools in the box.    </font></p>     <p align="justify"><font face="verdana" size="2"><b>Key words:</b> statistical    tool box, biologically&#45;informed hypotheses, Bayesian statistics, information    criteria, statistical culture, biological relevance.</font></p>     <p align="justify">&nbsp;</p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2"><b>EL M&Eacute;TODO QUE USAN    LOS CIENT&Iacute;FICOS</b></font></p>     <p align="justify"><font face="verdana" size="2">Todo maestrillo tiene su librillo.    Los pintores y los escultores siguen un m&eacute;todo para llenar los lienzos    en blanco o para vaciar la piedra informe. Los cient&iacute;ficos responden    preguntas sobre el mundo siguiendo un m&eacute;todo tambi&eacute;n. El m&eacute;todo    es lo que distingue nuestra actividad de otras. Tanto los artistas como los    cient&iacute;ficos perseguimos en el fondo dar respuesta a las grandes preguntas,    pero lo hacemos siguiendo m&eacute;todos distintos. &Eacute;ste que tienes frente    a tus ojos es el librillo de los cient&iacute;ficos (muy resumido, bastante    digerido y puesto al d&iacute;a), especialmente el librillo de los ec&oacute;logos    del siglo XXI.</font></p>  	     <p align="justify"><font face="verdana" size="2"><b>Observar la naturaleza y hacerse    preguntas.</b> Podemos empezar con un ejemplo. Pongamos que el resultado de    una traslocaci&oacute;n de un grupo de tortugas hembra, realizado con fines    conservacionistas, es una larga etapa inicial de vagabundeo y una etapa final    de asentamiento en una zona concreta (lo cual sabemos porque las tortugas fueron    marcadas con radio emisores). La pregunta que surge de manera natural es: &iquest;qu&eacute;    ha ocurrido para que las tortugas hayan decidido estabilizarse? Lo importante    de este punto es que para llegar a formularse preguntas interesantes hay que    estar en contacto con lo que ocurre en la naturaleza. Desde el despacho rara    vez surgen preguntas interesantes.</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Formular hip&oacute;tesis concretas.</b> Las hip&oacute;tesis son las posibles explicaciones que se nos ocurren para responder a la pregunta, bas&aacute;ndonos en nuestra informaci&oacute;n previa de la especie y del medio en el que vive. La informaci&oacute;n previa (la experiencia acumulada) es por tanto muy importante, as&iacute; que el "subjetivismo" es parte ineludible del proceso de responder preguntas. Es importante recalcar que las hip&oacute;tesis no son preguntas sino posibles explicaciones. Por ejemplo en el caso de la pregunta anterior se nos pueden ocurrir varias hip&oacute;tesis: a) en la zona de estabilizaci&oacute;n hay mayor densidad de machos, b) en la zona de estabilizaci&oacute;n hay mayor disponibilidad de recursos alimenticios o c) como sabemos de antemano que las tortugas emplean el olfato para orientarse puede que la zona de estabilizaci&oacute;n sea la que huele m&aacute;s parecido a la zona de donde proceden las tortugas. Por supuesto hay muchas m&aacute;s hip&oacute;tesis posibles y depende de la experiencia del investigador no dejarse en el tintero la hip&oacute;tesis m&aacute;s cercana a la realidad, aunque de esto nunca podemos estar seguros. Seguramente no hay hip&oacute;tesis en ecolog&iacute;a que contemplen todas las variables en juego o de una manera que responda a la realidad. Siempre son simplificaciones que empleamos para separar el ruido de la informaci&oacute;n. De nuestras hip&oacute;tesis se pueden derivar predicciones espec&iacute;ficas, que con el paso del tiempo pueden ayudar a confirmar nuestras hip&oacute;tesis o a sospechar de su falsedad. Para nosotros los ec&oacute;logos, las hip&oacute;tesis quedan planteadas en forma de palabras, sin embargo, si queremos obtener conclusiones en t&eacute;rminos estad&iacute;sticos, es decir, aportar evidencia estad&iacute;stica, debemos reformular las hip&oacute;tesis en t&eacute;rminos de par&aacute;metros de una distribuci&oacute;n de probabilidad. En el caso de la hip&oacute;tesis anterior en la que la zona de estabilizaci&oacute;n tiene una mayor densidad de machos, nuestro par&aacute;metro de inter&eacute;s ser&iacute;a la proporci&oacute;n de machos y la hip&oacute;tesis a contrastar si dicho par&aacute;metro supera 0.5.</font></p>  	     <p align="justify"><font face="verdana" size="2"><b>Dise&ntilde;ar un experimento        para la obtenci&oacute;n de datos.</b> En ecolog&iacute;a llamamos experimento        a cualquier protocolo de toma de datos dirigido a responder una pregunta, aunque        s&oacute;lo incluya datos "observacionales" y no puramente experimentales. La        diferencia estriba en que en el primer procedimiento el investigador no tiene        un control espec&iacute;fico sobre los tratamientos aplicados, sino que estos      ]]></body>
<body><![CDATA[  se producen de manera natural (se les suele llamar estudios de campo), mientras        que en los estudios experimentales el investigador controla el estudio eligiendo        c&oacute;mo, a qui&eacute;n o a qu&eacute; aplicar los tratamientos, pudiendo        as&iacute; llegar a interpretaciones m&aacute;s relevantes (p. ej., establecer        relaciones de causalidad). En ecolog&iacute;a hay que saber estar atento e identificar        los "experimentos naturales" que nos brinda la naturaleza. Medir los efectos        sobre la biodiversidad de un parche de selva tropical tras un hurac&aacute;n        puede ser una buena manera de aprovechar un experimento natural, especialmente        si ten&iacute;amos estimaciones de diversidad del sitio antes del hurac&aacute;n.        La palabra natural no implica que los experimentos hayan de ser causados por      ]]></body>
<body><![CDATA[  la naturaleza. Tambi&eacute;n son experimentos "naturales" los causados por        el hombre, como los efectos de una moratoria de pesca sobre las aves marinas,        que se alimentan parcialmente del descarte de los barcos, o un vertido petrol&iacute;fero        que las deja sin sus presas naturales. El resultado final del experimento es        la obtenci&oacute;n de muestras. Lo ideal ser&iacute;a no necesitar muestras,        es decir, trabajar con la poblaci&oacute;n entera, pero eso es raramente posible.        Adem&aacute;s, hemos de tener presente los recursos disponibles antes de abordar        el dise&ntilde;o del experimento pues no siempre es posible acceder a un n&uacute;mero        elevado de muestras. Por eso es tan importante que la aleatorizaci&oacute;n        est&eacute; presente en el proceso de selecci&oacute;n de las muestras: el muestreo      ]]></body>
<body><![CDATA[  ha de ser lo m&aacute;s aleatorio posible. Tenemos que hacer todo lo que est&eacute;        en nuestra mano por tomar muestras al azar, de modo que obtengamos el m&aacute;ximo        de representatividad de la poblaci&oacute;n de estudio. En realidad la &uacute;nica        manera de muestrear estrictamente al azar es la que realizamos cuando metemos        todos los elementos de una poblaci&oacute;n (p. ej., los n&uacute;meros de un        sorteo) en una chistera y escogemos uno a ciegas. Eso es imposible en ecolog&iacute;a        as&iacute; que nuestros muestreos son s&oacute;lo semi&#45;azarosos. En gran        medida por ello los estudios en ecolog&iacute;a recogen s&oacute;lo una parte        peque&ntilde;a de la enorme variabilidad de los ecosistemas y sus organismos,        y es por ello que &eacute;sta es una disciplina que no suele responder simult&aacute;neamente      ]]></body>
<body><![CDATA[  a grandes preguntas (como la f&iacute;sica) sino que sus practicantes deben        conformarse, en la mayor&iacute;a de los casos, con responder a peque&ntilde;as        piezas del infinito rompecabezas que representa el planeta y su funcionamiento.        Este punto es importante porque los j&oacute;venes que se incorporan a la investigaci&oacute;n        en ecolog&iacute;a normalmente creen (creencia loable, por supuesto, y hasta        indispensable) que se disponen a encontrar respuestas inequ&iacute;vocas a las        preguntas formuladas, y la sorpresa es grande cuando descubren que lo que se        consigue suele ser responder a una peque&ntilde;a parte de la gran variabilidad        que se descubre all&iacute; afuera. La representatividad de nuestra muestra        aumenta al aumentar el tama&ntilde;o de la muestra, disminuyendo as&iacute;      ]]></body>
<body><![CDATA[  la variabilidad de las estimaciones de los par&aacute;metros y aumentando por        tanto la precisi&oacute;n de dichas estimaciones. De ah&iacute; la importancia        de contar con muestras grandes. Una muestra de tama&ntilde;o adecuado es, sobre        todo, aquella que consigue acotar bien la variabilidad de las estimaciones,        aunque tambi&eacute;n la que nos permite detectar efectos de la magnitud deseada.        Los muestreos que se basan en muestras peque&ntilde;as pueden llevar a una gran        variaci&oacute;n entre las estimaciones individuales de los par&aacute;metros.        De todos modos es conveniente tener informaci&oacute;n previa sobre el sistema        que vamos a muestrear ya que si est&aacute; compuesto de diferentes "estratos",        claramente identificables, el muestreo se deber&aacute; realizar de manera aleatoria      ]]></body>
<body><![CDATA[  dentro de cada uno de los estratos (es lo que se denomina un muestreo aleatorio        estratificado). No hay que confundir el error de muestreo con los errores de        bulto (p. ej., identificar mal una especie, etiquetar mal un tubo, medir dos        veces el mismo huevo, etc.). Es en este punto cuando debemos seleccionar el        modelo estad&iacute;stico (GLM, estructura espacial, temporal, etc.) que va        a describir la propia experimentaci&oacute;n. En otras palabras, tendremos que        concretar qu&eacute; dise&ntilde;o vamos a utilizar. As&iacute;, por ejemplo,        uno de los aspectos m&aacute;s importantes de la experimentaci&oacute;n es que        a menudo es necesario contar con un control. El control nos permite comparar        y extraer conclusiones en presencia y ausencia de una intervenci&oacute;n. Si      ]]></body>
<body><![CDATA[  queremos saber si las tortugas traslocadas se han movido mucho o poco, m&aacute;s        de lo habitual o menos, la &uacute;nica manera de saberlo es seguir en la misma        zona a un grupo de hembras no traslocadas, de similar edad y condici&oacute;n        f&iacute;sica, adem&aacute;s de a las traslocadas, y mediante los mismos m&eacute;todos.        En ocasiones, no basta con tener un control y un tratamiento si existe alg&uacute;n        factor ambiental que pueda estar influenciando a la variable de inter&eacute;s,        adem&aacute;s del propio tratamiento. Supongamos que se quiere saber si una        rapaz social, que cr&iacute;a sobre los tejados de las casas, se reproduce mejor        cuando las colonias son grandes (por los m&uacute;ltiples beneficios de la socialidad)        que cuando son peque&ntilde;as. Pero adem&aacute;s sabemos que hay dos tipos      ]]></body>
<body><![CDATA[  de casas: unas son altas y nuevas (lo que har&iacute;a m&aacute;s dif&iacute;cil        la entrada de depredadores) y otras son bajas y viejas (lo que facilita la entrada        de depredadores). Por tanto para saber si criar en colonias grandes o peque&ntilde;as        afecta al &eacute;xito reproductor necesitamos un dise&ntilde;o en bloques aleatorizados.        Tendremos que seguir el &eacute;xito reproductor de colonias grandes ubicadas        sobre casas malas y buenas y tambi&eacute;n seguir colonias peque&ntilde;as        ubicadas sobre casas malas y buenas, para poder separar el efecto de la calidad        de las casas y del tama&ntilde;o de colonia sobre el &eacute;xito de cr&iacute;a.        En el caso anterior se dice que hemos controlado por un factor, teni&eacute;ndolo        en cuenta en el modelo. Para concluir este apartado conviene resaltar que hay      ]]></body>
<body><![CDATA[  que tener siempre en mente que todo el proceso, adem&aacute;s de aleatorio,        debe ser lo m&aacute;s transparente y reproducible que sea posible, ya que la        ciencia avanza subi&eacute;ndose a los hombros de los que nos han precedido        y comprobando mil y una veces que los resultados son consistentes. Los resultados        de un &uacute;nico trabajo rara vez pueden ser concluyentes.</font></p>     <p align="justify"><font face="verdana" size="2"><b>Recuadro 1:</b> Falta de independencia    de los datos.</font></p>     <p align="center"><img src="/img/revistas/azm/v24n2/a13d1.jpg"></p>     <p align="justify"><font face="verdana" size="2">Replicar (repetir) es necesario    para poder captar toda la variabilidad posible de la poblaci&oacute;n de estudio.    Para ello las observaciones han de ser independientes. Si queremos saber de    qu&eacute; depende la longitud del brazo de una persona, no nos sirve de nada    medir 10 veces un mismo brazo, pero ser&iacute;a de gran ayuda medir la longitud    de 10 brazos distintos seleccionados de manera aleatoria. El primer ejercicio    es interesante s&oacute;lo si lo que queremos es asegurarnos de la precisi&oacute;n    de la medida o calcular la tasa de crecimiento si tomamos las 10 medidas en    momentos distintos. En el segundo caso medimos realmente variabilidad en la    poblaci&oacute;n, porque las unidades experimentales son independientes. Al    escogerlos al azar evitamos sesgos. Realmente en ecolog&iacute;a es m&aacute;s    dif&iacute;cil de lo que parece conseguir datos que sean completamente independientes    en el espacio y en el tiempo, es decir, que no muestren autocorrelaci&oacute;n    espacial o temporal (colinearidad), porque una de las caracter&iacute;sticas    principales de los sistemas naturales es que todo est&aacute; relacionado dentro    y entre ellos. Hay dos tipos de falta de independencia de datos. En el primer    caso dos datos no son independientes entre s&iacute; por tener en com&uacute;n    un factor externo (p.ej., no es un muestreo independiente muestrear dos plantas    hija que provienen de la misma madre). En el segundo caso un dato est&aacute;    influido directamente por otro (p. ej., si queremos medir la tasa de crecimiento    de una especie vegetal no deber&iacute;amos elegir individuos que est&eacute;n    muy pr&oacute;ximos porque el crecimiento de una planta afecta al crecimiento    de otra cercana por competici&oacute;n de recursos). Estrictamente hablando    se reserva el t&eacute;rmino pseudoreplicaci&oacute;n al segundo caso. El primer    caso la falta de independencia de los datos es una caracter&iacute;stica estructural    y a menudo es posible analizar los datos utilizando modelos que recojan dicha    estructura, como, por ejemplo, las series temporales, la geoestad&iacute;stica,    contrastes filogen&eacute;ticos independientes, etc., pero el segundo caso no    tiene m&aacute;s arreglo que muestrear plantas bien separadas entre s&iacute;,    mediante un buen dise&ntilde;o experimental <i>a priori.</i></font></p>     <p align="center"><img src="/img/revistas/azm/v24n2/a13d1.jpg"></p>     <p align="justify"><font face="verdana" size="2"><b>Analizar los datos e interpretar    los resultados</b></font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">Tras realizar el experimento    y obtener los datos el paso final consiste en analizarlos: calcular los estad&iacute;sticos,    elegir la herramienta estad&iacute;stica adecuada (entre las disponibles en    nuestra caja de herramientas) e interpretar los resultados. Si tenemos la suerte    de poder trabajar con todos los individuos de una poblaci&oacute;n la inferencia    estad&iacute;stica (es decir, la extrapolaci&oacute;n desde la muestra de datos    a los deseados par&aacute;metros poblaciones) no es necesaria. Basta con que    empleemos la estad&iacute;stica descriptiva, en forma de histogramas (gr&aacute;ficos    de frecuencias) por ejemplo. Hasta ahora exist&iacute;a una manera predominante    de realizar este an&aacute;lisis de los datos: contrastar hip&oacute;tesis por    pares. Pero no un par cualquiera, sino una hip&oacute;tesis sin contenido biol&oacute;gico,    la llamada hip&oacute;tesis nula (H<sub>0</sub>), frente a una hip&oacute;tesis    alternativa, que simplemente siempre apunta en direcci&oacute;n contraria. La    hip&oacute;tesis nula se emplea porque es una hip&oacute;tesis "falsificable"    (como dir&iacute;a Karl Popper) es decir una hip&oacute;tesis para la cual es    posible demostrar que es falsa. La idea es que si demostramos que la nula es    falsa nos podemos quedar con la otra, con la hip&oacute;tesis alternativa (H<sub>1</sub>).    Un ejemplo de hip&oacute;tesis nula falsificable es "en esta laguna no hay carpas".    Basta con que encontremos una carpa para rechazar la hip&oacute;tesis nula.    La hip&oacute;tesis "en esta laguna hay carpas" no es falsificable ya que si    salimos a la laguna y muestreamos y no encontramos ninguna no podemos asegurar    que no haya carpas; puede ser que simplemente no las hayamos encontrado. Este    procedimiento (llamado NHST del ingl&eacute;s "Null Hypothesis Statistical Testing")    tiene sin embargo numerosos problemas ya que las preguntas que nos podemos plantear    est&aacute;n totalmente mediatizadas por el contraste posterior que vamos a    realizar. S&oacute;lo podemos plantearnos preguntas dic&oacute;tomas, de blanco    o negro, cuando en realidad hay un gran n&uacute;mero de preguntas que requieren    de una extensa gama de tonos grises entre ambos extremos. Adem&aacute;s por    regla general solemos saber de antemano que la nula es falsa. Por ejemplo, si    yo me pregunto si la longitud media de los gavilanes macho es menor que la longitud    media de los gavilanes hembra me estoy haciendo una pregunta est&uacute;pida    (lo que se llama una "nula tonta" en ingl&eacute;s) ya que yo s&eacute; antes    de empezar que van a ser diferentes y lo que me interesa realmente es saber    en cuanto difieren, sobre todo si s&eacute; de antemano que cierto grado de    diferencia tiene relevancia biol&oacute;gica en alg&uacute;n sentido (lo que    constituye una pregunta mucho m&aacute;s interesante que las que permite plantearse    el NHST). Adem&aacute;s el hecho de que se pueda rechazar la hip&oacute;tesis    nula no hace que la alternativa sea cierta necesariamente (puede haber muchas    otras alternativas posibles que no hemos considerado). Pero no desesperen. Hay    maneras de plantear contrastes de hip&oacute;tesis nulas que sean mucho m&aacute;s    informativos y, sobre todo, hay maneras de contrastar a la vez todas las hip&oacute;tesis    que nos parezcan relevantes para responder a una pregunta. En el resto de este    trabajo vamos a presentar las herramientas con las que contamos en nuestra caja    de herramientas para tal fin.</font></p>     <p align="justify">&nbsp;</p>     <p align="justify"><font face="verdana" size="2"><b>HERRAMIENTAS TRADICIONALES PARA REALIZAR CONTRASTES CON CONTENIDO BIOL&Oacute;GICO</b></font></p>     <p align="justify"><font face="verdana" size="2"><b>Contraste de hip&oacute;tesis    nulas con contenido biol&oacute;gico desde el punto de vista frecuentista.</b></font></p>     <p align="justify"><font face="verdana" size="2">Una de las principales cuestiones    que nos planteamos los ec&oacute;logos incluye el an&aacute;lisis de las diferencias    entre dos poblaciones. &Eacute;ste es un claro ejemplo en el que contestar si    hay diferencias entre ambas poblaciones es irrelevante, ya que no existen dos    seres vivientes que sean iguales. Por el contrario, la hip&oacute;tesis m&aacute;s    apropiada ser&iacute;a valorar c&oacute;mo de grande es la diferencia entre    ambas poblaciones. Supongamos que estamos interesados realmente en el contraste    de una de estas hip&oacute;tesis con contenido biol&oacute;gico. El primer paso    es realizar una prueba de potencia <i>a priori</i> (o prospectiva). Esto lo    puedes hacer f&aacute;cilmente consiguiendo en la red software muy sencillo,    gratuito, como Gpower: (<a href="http://www.psycho.uni-duesseldorf.de/aap/projects/gpower/" target="_blank">http://www.psycho.uni&#150;duesseldorf.de/aap/projects/gpower/</a>).    La potencia de una prueba es la capacidad que tiene para detectar un efecto    si &eacute;ste existe. Un valor habitual de la potencia suele ser 80%, por lo    que el error de tipo II (al que se suele llamar &#946; y que representa la probabilidad    a largo plazo que tenemos de equivocarnos cuando no podemos rechazar la hip&oacute;tesis    nula y concluimos err&oacute;neamente que el tratamiento no tiene efecto) toma    el valor del 20% dado que la potencia es 1&#45;&#946;.</font></p>  	     <p align="justify"><font face="verdana" size="2"><b>Recuadro 2.</b> Compromiso    entre alfa y beta.</font></p>     <p align="center"><img src="/img/revistas/azm/v24n2/a13d1.jpg"></p>     <p align="justify"><font face="verdana" size="2">No obstante, si en nuestro caso    es m&aacute;s arriesgado cometer un error de Tipo II que un error de Tipo I    podemos encontrar el equilibrio adecuado entre los dos tipos de error al hacer    nuestra prueba de potencia. En materia de toma de decisiones, como en biolog&iacute;a    de la conservaci&oacute;n, por ejemplo, es m&aacute;s peligroso cometer un error    de Tipo II (decir que no pasa nada porque se haga una actuaci&oacute;n cuando    si que pasa) que un error de Tipo I (decir que s&iacute; tiene efecto una actuaci&oacute;n    cuando no la tiene) ya que en el segundo caso la actuaci&oacute;n no se realiza.    En cada caso habr&iacute;a que estudiar el compromiso m&aacute;s adecuado entre    alfa y beta, en lugar de tomarlo como algo predeterminado.</font></p>     <p align="center"><img src="/img/revistas/azm/v24n2/a13d1.jpg"></p>     <p align="justify"><font size="2" face="verdana">El objetivo de la prueba <i>a    priori</i> es obtener el tama&ntilde;o de muestra necesario para determinar    si dos poblaciones difieren en m&aacute;s de una magnitud dada. Esa diferencia    de magnitud entre poblaciones (sopesada por la varianza de ambas poblaciones)    se denomina "tama&ntilde;o del efecto" ("effect size" en ingl&eacute;s). Corresponde    al investigador, tirando de su experiencia previa de nuevo (de su subjetivismo    informado), establecer qu&eacute; diferencia considera relevante biol&oacute;gicamente    en cada caso. El error de tipo I (llamado &#945;) se suele fijar por convenio    en el 5%. Eso significa que tenemos una probabilidad del 5% de equivocarnos    a largo plazo (es decir tras infinitas repeticiones que en realidad nunca hacemos)    al rechazar la nula. Es importante aclarar aqu&iacute; que la coletilla "a largo    plazo" no est&aacute; de adorno. De hecho es fundamental entender que los m&eacute;todos    cl&aacute;sicos se llaman "m&eacute;todos frecuentistas" porque la validez de    los resultados depende de la frecuencia a largo plazo de los mismos. Sigamos.    Una vez introducidos los datos b&aacute;sicos (potencia deseada, alfa y tama&ntilde;o    del efecto) obtenemos el tama&ntilde;o de muestra necesario para nuestro experimento.    Con esta muestra (por supuesto obtenida lo m&aacute;s al azar posible) podemos    asegurar que la significaci&oacute;n estad&iacute;stica y la relevancia biol&oacute;gica    van emparejadas. Es decir, si rechazamos la hip&oacute;tesis nula es porque    las poblaciones difieren al menos en la magnitud de inter&eacute;s y, en caso    contrario, podemos aceptar la nula y concluir que difieren en menos, porque    disponemos de potencia para afirmarlo. Cuando no realizamos una prueba de potencia    previa no podemos concluir nada si obtenemos resultados estad&iacute;sticamente    no significativos. Todo lo que se puede hacer es no&#45;rechazar la nula, pero    no aceptarla. De ah&iacute; que todos los investigadores anhelen conseguir p&#45;valores    menores de 0.05, porque si salen mayores lo &uacute;nico que podemos decir es    que no sabemos nada. Eso provoca que las revistas est&eacute;n sesgadas hacia    la publicaci&oacute;n de resultados estad&iacute;sticamente significativos (los    llamados resultados "positivos"). Los resultados negativos no los quiere nadie,    porque no saben si se deben a que no hay diferencias realmente o a que no se    han detectado por bajo tama&ntilde;o de muestra. Tal y como hemos dicho, ese    problema se solventa al hacer la prueba de potencia <i>a priori</i> y escoger    bien el tama&ntilde;o de muestra. De ese modo los resultados negativos pasan    a ser tan valiosos como los positivos. Adem&aacute;s, en la versi&oacute;n t&iacute;pica    de comprobaci&oacute;n estad&iacute;stica de "nulas tontas" un p&#45;valor estad&iacute;sticamente    significativo no indica nada sobre la magnitud de las diferencias (puede que    sean muy peque&ntilde;as las diferencias pero haberlas detectado al ser la muestra    muy grande) y tampoco es una medida de evidencia contra la nula. Es decir, un    p&#45;valor m&aacute;s peque&ntilde;o no indica una evidencia mayor contra la    nula. Todo lo que podemos decir es si el p&#45;valor est&aacute; a un lado u    otro del valor de corte escogido, si el alumno est&aacute; aprobado o reprobado;    da igual si se reprueba con un 4.9 o con un 1.3. En esto difieren las dos visiones    cl&aacute;sicas de las que emergi&oacute;, como un h&iacute;brido, el contraste    de hip&oacute;tesis nulas. Para Ronald Fisher, el primer padre de la criatura,    el valor exacto de p (p. ej., p=0.032) es empleado como medida de la evidencia    de la nula (que no se acepta ni se rechaza). Sin embargo J. Neyman y E. Pearson    introducen el concepto de alfa (fijado t&iacute;picamente en el 5%) y el de    hip&oacute;tesis alternativa y con este &uacute;ltimo el de potencia y magnitud    del "effect size", rechazando la hip&oacute;tesis nula cuando el p&#45;valor    es menor que alfa. Un p&#45;valor de 0.03 significa que la probabilidad de haber    obtenido mis datos (u otros m&aacute;s extremos), es muy baja, de tan s&oacute;lo    el 3%, asumiendo que la nula es cierta claro y que repiti&eacute;ramos el experimento    infinitas veces. Conviene tener presente esta diferencia ya que en realidad    no es correcto mezclar ambos paradigmas, como por ejemplo realizando una prueba    de potencia y ofreciendo despu&eacute;s el valor exacto del p&#45;valor como    si con ello aport&aacute;semos m&aacute;s informaci&oacute;n que diciendo simplemente    si es mayor o menor que el punto de corte previamente acordado (alfa). Si queremos    un punto de corte m&aacute;s arriesgado hay que fijarlo <i>a priori</i>, antes    de empezar el experimento. Hacerlo <i>a posteriori</i> es hacer trampa.</font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">Tambi&eacute;n es importante tener en mente que si se opta por el procedimiento de contraste de hip&oacute;tesis con contenido biol&oacute;gico, mediante el empleo de pruebas de potencia prospectivas, dicho procedimiento deber&iacute;a repetirse independientemente para cada una de las variables a analizar, ya que para cada variable se debe especificar el "effect size" que se considera biol&oacute;gicamente relevante. Estrictamente hablando, no es correcto aquello de calcular el tama&ntilde;o de muestra para comprobar un efecto y, aprovechando que tenemos al animal o planta en mano, medir diez variables m&aacute;s.</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Intervalos de confianza desde el punto de vista frecuentista.</b></font></p>  	    <p align="justify"><font face="verdana" size="2">Los intervalos de confianza (IC) son una herramienta de utilizaci&oacute;n muy extendida; sin embargo su uso en ecolog&iacute;a como alternativa a los contrastes de hip&oacute;tesis es reciente. Lo primero que hay que tener claro es qu&eacute; es un intervalo de confianza. Sorprendentemente, la gran mayor&iacute;a de los usuarios de los IC los interpretan err&oacute;neamente al pensar que dentro del intervalo que obtenemos (pongamos uno del 95%) se encuentra el verdadero valor del par&aacute;metro con una probabilidad del 95%. Como veremos m&aacute;s adelante, dicha interpretaci&oacute;n s&oacute;lo es adecuada en el caso de los intervalos de credibilidad de la estad&iacute;stica Bayesiana. Los intervalos de confianza en realidad tienen una interpretaci&oacute;n frecuentista, es decir, de significado a largo plazo, tras infinitas repeticiones (un significado "asint&oacute;tico" en t&eacute;rminos matem&aacute;ticos). Si repetimos nuestro experimento muchas veces, en cada una de las repeticiones obtendremos un intervalo de confianza distinto. Un intervalo del 95% significa que, si pudi&eacute;ramos repetir de manera indefinida el proceso de repetici&oacute;n, en proporci&oacute;n, 95 de cada 100 de esos intervalos incluir&iacute;a el verdadero valor del par&aacute;metro, el cual se puede encontrar en cualquier punto entre los l&iacute;mites superior e inferior de cada intervalo individual (el punto central que proporcionamos en cada caso es s&oacute;lo una propiedad de los datos, de nuestra muestra). Es decir, a largo plazo, con infinitas repeticiones, tendr&iacute;amos una probabilidad de 0.95 de escoger un intervalo que incluyese el valor real del par&aacute;metro. El problema es que nosotros hacemos un &uacute;nico experimento y, por tanto, esperamos (confiamos) que nuestro intervalo sea uno de los que realmente contiene al valor real. No siempre es f&aacute;cil obtener intervalos de confianza. Para ello es necesario disponer de la distribuci&oacute;n en el muestreo ("sampling distribution"<i>)</i> del estad&iacute;stico que estamos utilizando para aproximar el par&aacute;metro de inter&eacute;s. Cuando no se dispone de dicha distribuci&oacute;n, una buena manera de obtener intervalos de confianza es mediante la t&eacute;cnica de "bootstrap", es decir, mediante muestreo con reemplazo de nuestra muestra de datos. Este m&eacute;todo se basa en la obtenci&oacute;n de una distribuci&oacute;n muestral aproximada. En concreto, si obtenemos, por ejemplo, 1000 submuestras al azar, a partir de nuestra muestra inicial, podemos generar 1000 estimaciones distintas del par&aacute;metro, ordenarlas despu&eacute;s de menor a mayor y escoger los dos valores que limitan el &#945;/2% de valores extremos, por arriba y por abajo. Este m&eacute;todo se ajusta bastante a la filosof&iacute;a frecuentista, ya que hace m&uacute;ltiples repeticiones, si bien la validez de la estimaci&oacute;n est&aacute; muy sujeta a que nuestra muestra inicial fuese realmente representativa de la poblaci&oacute;n.</font></p>     <p align="justify"><font face="verdana" size="2">Los intervalos de confianza contienen    mucha informaci&oacute;n. Tanta como los contrastes de hip&oacute;tesis con    o sin contenido y mucho m&aacute;s. Vamos a tratar de resumirlo mediante un    ejemplo. Digamos que estamos interesados en saber si una poblaci&oacute;n local    de sapos comunes pone m&aacute;s huevos que otra poblaci&oacute;n cercana de    la misma especie. A tal efecto contamos los huevos puestos en 20 charcas de    ambos sitios y obtenemos una media aritm&eacute;tica y el intervalo de confianza    de la diferencia de las medias (un par&aacute;metro que suele obtenerse por    defecto con los programas estad&iacute;sticos cl&aacute;sicos, aunque no le    prestemos mayor atenci&oacute;n normalmente). Digamos que ese intervalo del    95% de la diferencia de las medias tiene como l&iacute;mites inferior y superior    0.1 y 0.3. Esto nos informa de varias cosas, a) dado que el intervalo de la    diferencia no incluye el 0 las diferencias entre poblaciones son estad&iacute;sticamente    significativas b) si nuestra hip&oacute;tesis nula informada era, por ejemplo,    que la diferencia entre poblaciones es de un 40% podemos afirmar que las diferencias    no son tan grandes entre poblaciones ya que el l&iacute;mite superior es una    diferencia del 30% y finalmente c) podemos juzgar sobre el grado de precisi&oacute;n    de la estimaci&oacute;n, sobre su grado de incertidumbre; en este caso, ya que    las diferencias oscilan entre un 10 y un 30%, podemos decir que la estimaci&oacute;n    est&aacute; regularmente acotada, probablemente porque nuestra muestra es peque&ntilde;a    y presenta una gran variabilidad. Es importante tener en cuenta que el intervalo    de confianza (al igual que el error t&iacute;pico o est&aacute;ndar) proporciona    informaci&oacute;n sobre la distribuci&oacute;n al muestreo, es decir, de la    distribuci&oacute;n que obtendr&iacute;amos tras infinitas repeticiones de nuestro    muestreo dentro del paradigma frecuentista, al contrario la desviaci&oacute;n    t&iacute;pica (o est&aacute;ndar) que s&oacute;lo proporciona informaci&oacute;n    sobre variabilidad en nuestras muestras de datos. La amplitud del intervalo    de confianza del 95% es b&aacute;sicamente 2 veces el error t&iacute;pico (estrictamente    hablando es 1.96 veces el SE). Y el error t&iacute;pico es en realidad la desviaci&oacute;n    t&iacute;pica de la distribuci&oacute;n al muestreo. El intervalo de confianza    es una propiedad de los datos pero permite inferir sobre el posible valor del    par&aacute;metro porque es una propiedad de nuestros infinitos muestreos, que    se acercan supuestamente al valor real (y fijo) del par&aacute;metro, si hemos    muestreado sin sesgos de ning&uacute;n tipo.</font></p>     <p align="justify">&nbsp;</p>     <p align="justify"><strong><font face="verdana" size="2">HERRAMIENTAS ALTERNATIVAS    PARA RESOLVER CONTRASTES BIOL&Oacute;GICAMENTE INFORMADOS.</font></strong></p>     <p align="justify"><strong><font face="verdana" size="2">Criterios de informaci&oacute;n    te&oacute;rica.</font></strong></p>     <p align="justify"><font face="verdana" size="2">Con todos los problemas que acumula    la t&eacute;cnica del contraste de hip&oacute;tesis nulas, a&uacute;n es salvable,    especialmente en su formato "duro" (con prueba de potencia <i>a priori</i> especificando    el "effect size" de inter&eacute;s) si realmente podemos solventar nuestro problema    respondiendo una pregunta de manera dic&oacute;toma (s&iacute;/no). Pero esto    s&oacute;lo es aplicable a problemas sencillos. En cuanto aumentamos un poco    la complejidad y tenemos problemas de m&uacute;ltiple causalidad, el blanco    o negro queda apartado y se hace necesario tener en cuenta toda la escala de    grises. Es decir, se impone el uso de m&uacute;ltiples hip&oacute;tesis. As&iacute;,    en nuestra pregunta original de por qu&eacute; acaban estabiliz&aacute;ndose    las tortugas en una zona en particular, podr&iacute;amos formular diversas hip&oacute;tesis    complejas:</font></p>      <blockquote>     <p align="justify"><font face="verdana" size="2">1. Se estabilizan ah&iacute; porque    es donde la densidad de machos alcanza su mayor valor y adem&aacute;s porque    es donde m&aacute;s humedad encuentran.</font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">2. Se estabilizan ah&iacute; porque    es donde m&aacute;s densidad hay de alimento apropiado y adem&aacute;s porque    es donde huele m&aacute;s parecido al lugar de origen de las tortugas.</font></p>     <p align="justify"><font face="verdana" size="2">3. Se estabilizan ah&iacute; porque    est&aacute;n agotadas y su condici&oacute;n f&iacute;sica est&aacute; por debajo    de un determinado valor cr&iacute;tico.</font></p>     <p align="justify"><font face="verdana" size="2">4. Se estabilizan ah&iacute; porque    es el lugar en el que el sustrato es m&aacute;s adecuado para la excavaci&oacute;n    de los nidos, con densidades altas de machos.    <br>   </font></p> </blockquote>      <p align="justify"><font face="verdana" size="2">En fin, en funci&oacute;n de nuestro conocimiento previo de los requerimientos de la especie (de nuevo el subjetivismo informado en acci&oacute;n) podr&iacute;amos continuar planteando hip&oacute;tesis distintas. El objetivo del "juego" consiste en medir de alguna manera el grado de evidencia de cada una de ellas, con la &uacute;nica ayuda de los datos observados (sin que importen los datos extremos no observados, es decir, sin requerir las infinitas repeticiones frecuentistas). Para ello, tal y como hemos comentado antes, hace falta dominar el dif&iacute;cil arte de poner nuestras hip&oacute;tesis en forma de modelos matem&aacute;ticos. Desde esta perspectiva, nuestra sugerencia para un ec&oacute;logo medio, es recurrir a la ayuda de un estad&iacute;stico experto en modelaje. El estad&iacute;stico nos ayudar&aacute; a seleccionar entre todos los modelos estad&iacute;sticos disponibles en el mercado (Modelos Lineales Generales, Modelos Lineales Generalizados, Modelos Generalizados Aditivos, Modelos Lineares Mixtos, ZIP, Loess, Tree, AdaBoost, etc.) para expresar las hip&oacute;tesis en el formato adecuado. Una vez tengamos las hip&oacute;tesis en forma de modelos cient&iacute;ficos tendremos que tratar de medir de alguna manera el grado de "proximidad a la realidad". Desde el punto de vista de la estad&iacute;stica frecuentista (en el siguiente apartado veremos como aborda este problema la estad&iacute;stica Bayesiana), una de las estrategias disponibles es el empleo de criterios de informaci&oacute;n te&oacute;rica, un m&eacute;todo que combina la p&eacute;rdida de informaci&oacute;n te&oacute;rica con la verosimilitud cl&aacute;sica, la "likelihood" inglesa (L), que es una medida de la probabilidad de obtener nuestros datos dado el valor del par&aacute;metro (lo opuesto a lo que buscamos en realidad). En concreto se suele calcular el denominado AIC=&#45;2ln(L)+2K que es el Criterio de Informaci&oacute;n de Akaike, un estad&iacute;stico que sopesa el grado de ajuste del modelo &#91;medido por su deviance= &#45;2 ln (L)&#93; y su complejidad (medida por el n&uacute;mero de par&aacute;metros empleados, K, para reducir la falta de ajuste del modelo). El AIC relaciona la verosimilitud con la cantidad relativa de informaci&oacute;n de Kullback&#45;Leibler perdida al emplear cada modelo para aproximarse a la verdad. Es importante resaltar que si el n&uacute;mero de par&aacute;metros es grande en relaci&oacute;n al tama&ntilde;o de muestra (n/K&lt; aproximadamente 40) es m&aacute;s apropiado utilizar el llamado AIC corregido. El valor del AIC es relativo, no absoluto, es decir, s&oacute;lo es &uacute;til si se calcula para varios modelos (hip&oacute;tesis), permitiendo contrastar la p&eacute;rdida de informaci&oacute;n de cada uno. Cuando el AIC entre modelos es muy distinto no hay problema (escogemos siempre el que tenga menor AIC, porque representa menor p&eacute;rdida de informaci&oacute;n, o el mejor compromiso entre ajuste y complejidad) pero si los AIC de varios modelos son parecidos surge la duda de con cu&aacute;l quedarnos. Para ello podemos calcular el denominado peso de Akaike "w<sub>i</sub>" que sopesa la verosimilitud del modelo individual respecto al conjunto de modelos contemplados y re&#45;escala a 1, de modo que los valores de w<sub>i</sub> pueden considerarse absolutos, movi&eacute;ndose entre 0 y 1 como una probabilidad. La verosimilitud (L) se obtiene a partir de la diferencia en AIC de un modelo concreto respecto al modelo con el menor AIC (el m&aacute;s parsimonioso). Si se quiere contrastar entre s&iacute; solamente la fuerza relativa de la evidencia de dos hip&oacute;tesis es posible hacerlo mediante el denominado "Evidence Ratio" (E), que es b&aacute;sicamente el ratio entre los pesos de Akaike (w<sub>i</sub>) de ambos modelos. As&iacute; pues mediante el uso de los criterios te&oacute;ricos de informaci&oacute;n se pueden realizar contrastes entre pares de hip&oacute;tesis (entre pares muy distintos al formado por una nula y su alternativa) pero tambi&eacute;n entre un n&uacute;mero mayor de ellas. Es importante recalcar que el objetivo final es comparar diversos modelos, en funci&oacute;n del grado de apoyo de los datos al modelo. Y que los distintos modelos no tienen porqu&eacute; estar anidados (es decir, ser "subconjuntos" del modelo general). En la aproximaci&oacute;n cl&aacute;sica, por el contrario, pretend&iacute;amos obtener un &uacute;nico modelo mediante simplificaci&oacute;n por pasos a partir de un modelo general que contuviese todos los factores, covariables e interacciones de inter&eacute;s. Ahora retenemos el modelo con menor AIC (el m&aacute;s parsimonioso, es decir, el que ha conseguido un mejor ajuste del modelo con el menor n&uacute;mero de par&aacute;metros, o sea, el que se espera que pierda la menor cantidad de informaci&oacute;n te&oacute;rica) como referente, aunque recordando que no por m&aacute;s parsimonioso es m&aacute;s cierto. De este modo nos evitamos el problem&aacute;tico proceso de toma de decisiones dic&oacute;tomas en cadena, de la estad&iacute;stica cl&aacute;sica, para la selecci&oacute;n del "mejor" modelo, que en ning&uacute;n momento valora la evidencia disponible a favor de las hip&oacute;tesis (modelos) alternativas. Otra gran ventaja de los criterios de informaci&oacute;n es la posibilidad de realizar el denominado "model averaging" o "multi&#45;model inference". Con esta t&eacute;cnica sopesamos la magnitud del efecto estimado para cada modelo con su peso de Akaike (w<sub>i</sub>) y de este modo podemos obtener una estimaci&oacute;n ponderada de la magnitud del efecto de una variable y de su grado de incertidumbre.</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Estad&iacute;stica Bayesiana</b></font></p>  	     <p align="justify"><font face="verdana" size="2">Los criterios de informaci&oacute;n    te&oacute;rica son hasta ahora lo m&aacute;s parecido que tenemos a trabajar    con la probabilidad de la hip&oacute;tesis nula o del par&aacute;metro, dados    los datos, nuestro verdadero y &uacute;ltimo objetivo. En el caso de los contrastes    de hip&oacute;tesis nulas tradicionales nos ten&iacute;amos que conformar con    una estimaci&oacute;n de la probabilidad de obtener nuestros datos o datos m&aacute;s    extremos en el caso de que la nula fuese cierta (el p&#45;valor). Con los criterios    de informaci&oacute;n la situaci&oacute;n mejor&oacute; ostensiblemente ya que    la probabilidad de nuestros datos, y s&oacute;lo de nuestros datos, sin necesidad    de pensar en datos m&aacute;s extremos (dado el par&aacute;metro o la hip&oacute;tesis    nula) se contrasta con la verosimilitud de todos los dem&aacute;s modelos en    el c&aacute;lculo del AIC y los pesos de Akaike. La forma en la que la estad&iacute;stica    Bayesiana aborda la inferencia nos permite dar un paso adelante muy importante    en relaci&oacute;n con nuestra idea final de evaluar la relevancia biol&oacute;gica    en ecolog&iacute;a. La forma de hacerlo es sopesando la verosimilitud de cada    modelo con la informaci&oacute;n previa disponible sobre el par&aacute;metro    o la hip&oacute;tesis. Mediante la regla de Bayes (que escribimos abajo) se    combinan la probabilidad <i>a priori</i> del par&aacute;metro P(&#952,) y la    verosimilitud del modelo (obtenida a partir de nuestra &uacute;nica muestra    de datos, L(&#952;)=P(Datos&#124;&#952;)) para obtener la distribuci&oacute;n de    probabilidad posterior del par&aacute;metro dados los datos P(&#952;&#124;Datos).    Es decir, actualizamos la informaci&oacute;n previa de que muchas veces disponemos    con la informaci&oacute;n aportada por los datos espec&iacute;ficos de nuestra    muestra para obtener informaci&oacute;n sobre el par&aacute;metro.</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>La regla de Bayes</b></font></p> 	    <p align="center"><img src="/img/revistas/azm/v24n2/a13e1.jpg"></p> 	    <p align="justify"><font face="verdana" size="2">La estad&iacute;stica Bayesiana no es un invento moderno; es en realidad un modo de hacer inferencia m&aacute;s antiguo que el de la m&aacute;xima verosimilitud desarrollado por Fisher, pero qued&oacute; hist&oacute;ricamente apartada debido a la imposibilidad de resolver las complejas integrales que requiere el c&aacute;lculo de las probabilidades posteriores.</font></p> 	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">Recientemente, con el desarrollo de la computaci&oacute;n moderna, ha renacido de sus cenizas y est&aacute; viendo un creciente desarrollo que sin duda continuar&aacute; en a&ntilde;os venideros para acabar probablemente imponi&eacute;ndose a la aproximaci&oacute;n frecuentista cuando se desarrolle software m&aacute;s amigable. La gran ventaja de la estad&iacute;stica Bayesiana es que nos permite abordar de manera mucho m&aacute;s sencilla el problema de la inferencia. Esto se debe a que realizar inferencia se reduce a explicar con detalle la distribuci&oacute;n <i>a posteriori</i>. Esto antes pod&iacute;a llegar a ser un problema ya que en la mayor&iacute;a de las situaciones la distribuci&oacute;n <i>a posteriori</i> tiene una forma anal&iacute;tica intratable. Sin embargo ahora, gracias a las t&eacute;cnicas de simulaci&oacute;n por cadenas de Markov (MCMC) es relativamente sencillo poder obtener al menos una aproximaci&oacute;n simulada de la distribuci&oacute;n <i>a posteriori</i>. Hay varios procedimientos para obtener las cadenas de Markov, aunque el m&aacute;s habitual es Gibbs sampling que da nombre al software m&aacute;s com&uacute;nmente empleado hoy en d&iacute;a en estad&iacute;stica Bayesiana: WinBUGS (Bayesian inference Using Gibbs Sampling), disponible en <a href="http://www.mrc-bsu.cam.ac.uk/bugs/" target="_blank">http://www.mrc&#150;bsu.cam.ac.uk/bugs/</a>. Los modelos jer&aacute;rquicos bayesianos nos permiten abordar de manera muy sencilla modelos complicados (dise&ntilde;os anidados, dise&ntilde;os con componente espacial, etc.) debido a la propia estructura jer&aacute;rquica con la que relacionan los datos, los par&aacute;metros y los hiper&#45;par&aacute;metros. En el universo frecuentista hablar de probabilidades del par&aacute;metro carece de sentido ya que los par&aacute;metros son considerados desconocidos pero fijos, cosa que no ocurre en la estad&iacute;stica Bayesiana, donde son considerados como variables aleatorias. La forma en la que aparecen las distribuciones de probabilidad en el contexto frecuentista es a trav&eacute;s de las distribuciones que siguen los estimadores con los que aproximamos los par&aacute;metros (conocidas como distribuciones en el muestreo o "sampling distribution"). Cuando no se dispone de informaci&oacute;n previa la estad&iacute;stica Bayesiana nos permite utilizar las denominadas "prior planas o no informativas". En ese caso las estimaciones cl&aacute;sicas del par&aacute;metro, obtenidas haciendo inferencia por m&aacute;xima verosimilitud (es decir dando valores al par&aacute;metro hasta encontrar el valor que maximiza la probabilidad de haber obtenido nuestros datos), y las medias de la probabilidad posterior son muy parecidas, porque basamos la inferencia s&oacute;lo en la informaci&oacute;n aportada por los datos. Cuando se cuenta con informaci&oacute;n previa buena (que puede ser simplemente el resultado de nuestro trabajo anterior sobre el tema) los resultados de los an&aacute;lisis basados en criterios de informaci&oacute;n pueden diferir de manera importante en relaci&oacute;n a los bayesianos. En cualquier caso, a&uacute;n sin <i>priors</i> informativas, la aproximaci&oacute;n Bayesiana es siempre mejor que la cl&aacute;sica porque se basa s&oacute;lo en nuestro conjunto de datos y no en "nuestros datos m&aacute;s todos los valores m&aacute;s extremos no observados", como requiere el paradigma cl&aacute;sico de comprobaci&oacute;n de hip&oacute;tesis y adem&aacute;s nos permite interrogar a la distribuci&oacute;n <i>a posteriori</i> y contestar muchas preguntas acerca del par&aacute;metro que son impensables en el marco frecuentista. Por tanto, mediante la aproximaci&oacute;n Bayesiana extraemos el mayor provecho posible de nuestros datos ya que no partimos siempre de una situaci&oacute;n, muchas veces ficticia, de desconocimiento inicial del problema sino que aprovechamos el conocimiento que se ha ido acumulando antes de que nosotros nos interes&aacute;semos en esa cuesti&oacute;n, introduci&eacute;ndolo como probabilidad <i>a priori</i>.</font></p>  	     <p align="justify"><font face="verdana" size="2">Otra de las grandes ventajas    de la Bayesiana es la obtenci&oacute;n de "intervalos de credibilidad" en los    que se encuentra con seguridad el valor del par&aacute;metro con la probabilidad    deseada. Por ejemplo, si tenemos un intervalo de credibilidad del 95% con l&iacute;mites    (0.3&#45;0.5) podemos afirmar que el verdadero valor del par&aacute;metro est&aacute;    contenido entre dichos l&iacute;mites con una probabilidad del 95%. La estad&iacute;stica    Bayesiana es especialmente apropiada para problemas relacionados con la toma    de decisiones ya que contamos con una medida natural de incertidumbre cual es    la probabilidad del par&aacute;metro (o de la hip&oacute;tesis nula). Adem&aacute;s,    en lugar de dar una respuesta autom&aacute;tica, en cada caso hay que pensar    lo que esa probabilidad significa para nosotros, los expertos en el problema    en cuesti&oacute;n. No es lo mismo tener una probabilidad del 90% de ganar en    las carreras de caballos que tener un 90% de estrellarse en un avi&oacute;n.    En el primer caso apostar&iacute;amos ese d&iacute;a y en el segundo caso no    tomar&iacute;amos ning&uacute;n avi&oacute;n. Al igual que en el caso de los    criterios de informaci&oacute;n es posible la comparaci&oacute;n m&uacute;ltiple    de modelos y su selecci&oacute;n mediante el denominado DIC (Deviance Information    Criterion) o la comparaci&oacute;n entre pares de modelos mediante el BIC (Bayesian    Information Criterion), un equivalente del "Likelihood ratio test" frecuentista    y del "Evidence Ratio" de los criterios de informaci&oacute;n. En la pr&aacute;ctica    se pueden abordar mediante estad&iacute;stica Bayesiana tanto los an&aacute;lisis    m&aacute;s sencillos (medias, regresiones, correlaciones, an&aacute;lisis de    varianza, an&aacute;lisis de proporciones) como los muy complejos (an&aacute;lisis    de captura&#45;recaptura, an&aacute;lisis de viabilidad, series temporales,    etc.), ya que los modelos bayesianos son extremadamente flexibles. Tambi&eacute;n    se puede corregir por sobredispersi&oacute;n (la varianza observada de los datos    es mayor que la predicha) y pseudoreplicaci&oacute;n. El software disponible    no es todav&iacute;a tan amigable como el disponible para los an&aacute;lisis    frecuentistas, ya que requiere escribir los c&oacute;digos para el modelo pero    cada vez hay m&aacute;s obras disponibles en las que se facilitan dichos c&oacute;digos    de modo que tan s&oacute;lo hay que adaptarlos a nuestro caso particular. Aunque    quiz&aacute;s sea m&aacute;s pr&aacute;ctico reservar la estad&iacute;stica    Bayesiana para tratar con problemas complejos, si se dispone de informaci&oacute;n    previa vale la pena incluso abordar los problemas ecol&oacute;gicos sencillos    "a la Bayesiana", ya que los resultados pueden diferir en tal caso de manera    sustancial, sobre todo si se dispone de informaci&oacute;n previa fiable. (v&eacute;ase    <a href="#r3">recuadro 3</a>)</font></p>  	    <p align="justify"><font face="verdana" size="2">En definitiva las herramientas disponibles en nuestra caja de trabajo para contrastar hip&oacute;tesis ecol&oacute;gicas con contenido biol&oacute;gico han aumentado notablemente en los &uacute;ltimos a&ntilde;os. Que haya herramientas m&aacute;s complejas a nuestro alcance no significa que tengamos necesariamente que usarlas, ya que lo m&aacute;s importante es la pregunta y no el medio para responderla. Hay muchas preguntas de planteamiento simple (aunque de gran peso) que se pueden solucionar haciendo buen uso de las herramientas m&aacute;s tradicionales, incluso tan s&oacute;lo mediante estad&iacute;stica descriptiva. No obstante, la ecolog&iacute;a es una ciencia que trata directamente con la complejidad y a menudo es necesario recurrir al planteamiento de las m&uacute;ltiples hip&oacute;tesis para ver luz en un problema. En este sentido se podr&iacute;a decir que los criterios te&oacute;ricos de informaci&oacute;n y la estad&iacute;stica Bayesiana son las herramientas m&aacute;s adecuadas para analizar datos en ecolog&iacute;a, mientras que los contrastes cl&aacute;sicos de hip&oacute;tesis quedar&iacute;an para aquellos casos en los que los planteamientos dic&oacute;tomos son de inter&eacute;s. Cualquier desaf&iacute;o como el de dominar (aunque sea a nivel de usuario) las herramientas aqu&iacute; descritas supone un reto que impresiona especialmente cuando nos encontramos en el "campamento base", usando una met&aacute;fora alpinista: la simple mirada hacia la cumbre nos puede invadir con ciertas dosis de angustia y de dudas. Pero a&uacute;n siendo angustias y dudas fundamentadas (pues hay que hacer un gran esfuerzo para ello) el mejor consejo es proceder despacio, de campamento en campamento, y a ser posible con la inestimable ayuda de alguien que domine la materia y nos arroje la luz que necesitamos cuando esas dudas se repitan en la ascensi&oacute;n. Tambi&eacute;n es importante recordar que las t&eacute;cnicas modernas no est&aacute;n exentas de una mala utilizaci&oacute;n. Su uso no es suficiente. Si por algo se distinguen de las m&aacute;s tradicionales es por la necesidad de pensar cada paso del proceso de an&aacute;lisis. Pensar es la esencia de la ciencia y ese trabajo no se lo puede uno ahorrar en ninguna de las fases, incluida la delicada etapa del an&aacute;lisis de datos. Disponer de una buena cultura estad&iacute;stica es fundamental no s&oacute;lo para poder analizar tus datos sino, especialmente, para interpretar tus resultados correctamente. La literatura cient&iacute;fica est&aacute; plagada de interpretaciones err&oacute;neas de lo que significan los resultados obtenidos y &eacute;ste es un serio obst&aacute;culo que dificulta la acumulaci&oacute;n de conocimiento y el avance la ecolog&iacute;a como ciencia. Un buen consejo para concluir es tener claro el problema ecol&oacute;gico que uno tiene y escoger luego la herramienta que se lo resuelva de la manera m&aacute;s sencilla y no proceder nunca al contrario.</font></p>  	    <p align="justify"><font face="verdana" size="2"><b><a name="r3"></a>Recuadro 3:</b> An&aacute;lisis de proporciones: comparaci&oacute;n entre las distintas herramientas.</font></p> 	    <p align="center"><img src="/img/revistas/azm/v24n2/a13d1.jpg"></p> 	    <p align="justify"><font size="2" face="verdana">Supongamos que estoy interesado en saber si hay paridad en el sex&#45;ratio de los pollos de una poblaci&oacute;n de aves (los pollos se pueden sexar mediante el color del iris). Es decir, quiero averiguar si la proporci&oacute;n de machos de la poblaci&oacute;n es igual a la de hembras. Para ello tomo una muestra grande de pollos (n=810) y los sexo, encontrando que 404 de ellos son machos y 406 hembras. Para testar mi hip&oacute;tesis paridad en el sex ratio de la poblaci&oacute;n puedo seguir varias aproximaciones alternativas. Aqu&iacute; las presentamos y discutimos:</font></p> 	    <p align="justify"><font face="verdana" size="2"><b>1) Testado cl&aacute;sico de hip&oacute;tesis nulas sin contenido biol&oacute;gico.</b> </font></p> 	    <p align="justify"><font face="verdana" size="2">Mi H<sub>0</sub> = % de machos = % de hembras =0.5 en la poblaci&oacute;n y mi hip&oacute;tesis alternativa H<sub>1</sub> = n&uacute;mero de machos es distinto al n&uacute;mero de hembras.</font></p> 	     <p align="justify"><font face="verdana" size="2">Con los resultados de mi muestreo    planteo una prueba de bondad de ajuste en la que contrasto las frecuencias observadas    con las esperadas en el caso de que las proporciones entre sexos fuesen iguales.    El resultado de tal prueba es que &#967;<sup>2</sup><sub>c</sub>= 0.00, g.l.    = 1, p&#45;valor= 1.00. </font><font face="verdana" size="2">Es decir no puedo    rechazar la hip&oacute;tesis nula de igualdad. Pero no puedo concluir que sea    cierta. Simplemente podemos decir que no tenemos evidencia estad&iacute;stica    suficiente para decir que no sea cierta, lo cual es muy poco concluyente.</font></p>  	     <p align="justify"><font face="verdana" size="2"><b>2) Testado cl&aacute;sico    de hip&oacute;tesis nulas con contenido biol&oacute;gico.</b> </font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">En este caso, reconozco que una    proporci&oacute;n de sexos exactamente de 1:1 es muy improbable que se de y    establezco una magnitud del efecto (effect size) que para mi tenga sentido biol&oacute;gico.    Un effect size de 0.1 se considera bajo por convenio, as&iacute; que decido    hacer una prueba de potencia prospectiva con esa magnitud del efecto, para saber    que tama&ntilde;o de muestra necesito para tener una potencia del 80% (es decir    un error de Tipo II del 20%), estableciendo un error de Tipo I <i>a priori</i>    del 5%. Un sencillo c&aacute;lculo en GPower me indica que necesito una muestra    total de 785 pollos. Como trabajo con 810 pollos voy por buen camino. Ahora    llevo a cabo mi prueba de bondad de ajuste y obtengo los resultados expuestos    en el punto anterior, pero puedo aceptar mi hip&oacute;tesis nula informada:    que las proporciones de machos y hembras difieren en una magnitud peque&ntilde;a.</font></p>  	     <p align="justify"><font face="verdana" size="2"><b>3) Criterios de informaci&oacute;n    te&oacute;rica (Modificado de McCarthy 2007)</b> </font></p>     <p align="justify"><font face="verdana" size="2">La verosimilitud de la primera    hip&oacute;tesis es igual al n&uacute;mero de machos partido por el n&uacute;mero    total de pollos. La verosimilitud de la segunda hip&oacute;tesis es su complementario.    Dado que empleamos los datos para estimar el par&aacute;metro K=1.</font></p>     <p align="center"><img src="/img/revistas/azm/v24n2/a13t1.jpg"></p>     <p align="justify"><font size="2" face="verdana">El Evidence Ratio (E=1,00) sugiere    que ambas hip&oacute;tesis son igualmente probables, lo que sugiere paridad    entre sexos.</font></p>     <p align="justify"><font face="verdana" size="2"><b>4) Aproximaci&oacute;n Bayesiana    (modificado de McCarthy 2007)</b></font></p>     <p align="justify"><font face="verdana" size="2">Construimos un sencillo modelo    en el que nuestros datos sobre sex&#45;ratio proceden de muestrear al azar en    una distribuci&oacute;n binomial; definimos un prior plano por medio de una    distribuci&oacute;n uniforme que oscila entre 0 y 1 y especificamos que nuestros    datos son los 404 machos encontrados.</font></p>      <blockquote>     <p align="justify"><font face="verdana" size="2">model    <br>   </font><font face="verdana" size="2">&#123;x&#126;dbin(r,810) &#35;los datos    proceden de una distribuci&oacute;n binomial con n=810    ]]></body>
<body><![CDATA[<br>   r&#126;dunif(0,1) &#35;prior para el sex ratio     <br>   &#125;     <br>   list (x=404) &#35; se encuentran 404 machos</font></p> </blockquote>	     <p align="justify"><font face="verdana" size="2">Corremos 100.000 iteraciones    de la simulaci&oacute;n (con un "burn&#45;in" de 10,000) y obtenemos que la    media de la distribuci&oacute;n de la proporci&oacute;n de machos es de 0.4994,    con un credible interval del 95% que oscila entre 0.465 y 0.5339. Concluimos    que no es descartable que la proporci&oacute;n de sexos sea de 0.5 pero, ya    que hemos obtenido la distribuci&oacute;n de probabilidad del par&aacute;metro    (de la proporci&oacute;n de machos), podemos preguntarnos cual es la probabilidad    de que la proporci&oacute;n sea exactamente 0.5 o de que oscile entre 0.49 y    0.51. Esas probabilidades son respectivamente de 0 y 0.43, con lo cual podemos    concluir que la poblaci&oacute;n de pollos presenta un grado de paridad de sexos    importante, pero tambi&eacute;n se constata el absurdo de plantear una hip&oacute;tesis    nula de igualdad a 0.5 como se hace en el contexto frecuentista. En definitiva    obtenemos una conclusi&oacute;n mucho m&aacute;s s&oacute;lida que las anteriores    ya que podemos asignar a nuestras hip&oacute;tesis probabilidades concretas,    empleando una medida natural de su incertidumbre.</font></p>     <p align="center"><img src="/img/revistas/azm/v24n2/a13d1.jpg"></p>     <p align="justify">&nbsp;</p>  	     <p align="center"><font face="verdana" size="2"><b><a href="/img/revistas/azm/v24n2/html/a13anexoI.html" target="_blank">ANEXO I</a></b></font></p>   	     ]]></body>
</article>
