<?xml version="1.0" encoding="ISO-8859-1"?><article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance">
<front>
<journal-meta>
<journal-id>0036-3634</journal-id>
<journal-title><![CDATA[Salud Pública de México]]></journal-title>
<abbrev-journal-title><![CDATA[Salud pública Méx]]></abbrev-journal-title>
<issn>0036-3634</issn>
<publisher>
<publisher-name><![CDATA[Instituto Nacional de Salud Pública]]></publisher-name>
</publisher>
</journal-meta>
<article-meta>
<article-id>S0036-36342003000600011</article-id>
<title-group>
<article-title xml:lang="es"><![CDATA[Interpretando correctamente en salud pública estimaciones puntuales, intervalos de confianza y contrastes de hipótesis]]></article-title>
<article-title xml:lang="en"><![CDATA[Accurate interpretation of point estimates, confidence intervals, and hypothesis tests in public health]]></article-title>
</title-group>
<contrib-group>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Scotto]]></surname>
<given-names><![CDATA[Manuel G]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Tobías-Garcés]]></surname>
<given-names><![CDATA[Aurelio]]></given-names>
</name>
<xref ref-type="aff" rid="A02"/>
</contrib>
</contrib-group>
<aff id="A01">
<institution><![CDATA[,Universidade de Aveiro Departamento de Matemática ]]></institution>
<addr-line><![CDATA[Aveiro ]]></addr-line>
<country>Portugal</country>
</aff>
<aff id="A02">
<institution><![CDATA[,Universidad Carlos III de Madrid Departamento de Estadística y Econometría ]]></institution>
<addr-line><![CDATA[Getafe ]]></addr-line>
<country>España</country>
</aff>
<pub-date pub-type="pub">
<day>00</day>
<month>12</month>
<year>2003</year>
</pub-date>
<pub-date pub-type="epub">
<day>00</day>
<month>12</month>
<year>2003</year>
</pub-date>
<volume>45</volume>
<numero>6</numero>
<fpage>506</fpage>
<lpage>511</lpage>
<copyright-statement/>
<copyright-year/>
<self-uri xlink:href="http://www.scielo.org.mx/scielo.php?script=sci_arttext&amp;pid=S0036-36342003000600011&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.mx/scielo.php?script=sci_abstract&amp;pid=S0036-36342003000600011&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.mx/scielo.php?script=sci_pdf&amp;pid=S0036-36342003000600011&amp;lng=en&amp;nrm=iso"></self-uri><abstract abstract-type="short" xml:lang="es"><p><![CDATA[El presente ensayo trata de aclarar algunos conceptos utilizados habitualmente en el campo de investigación de la salud pública, que en numerosas situaciones son interpretados de manera incorrecta. Entre ellos encontramos la estimación puntual, los intervalos de confianza, y los contrastes de hipótesis. Estableciendo un paralelismo entre estos tres conceptos, podemos observar cuáles son sus diferencias más importantes a la hora de ser interpretados, tanto desde el punto de vista del enfoque clásico como desde la óptica bayesiana.]]></p></abstract>
<abstract abstract-type="short" xml:lang="en"><p><![CDATA[This essay reviews some statistical concepts frequently used in public health research that are commonly misinterpreted. These include point estimates, confidence intervals, and hypothesis tests. By comparing them using the classical and the Bayesian perspectives, their interpretation becomes clearer.]]></p></abstract>
<kwd-group>
<kwd lng="es"><![CDATA[estimación puntual]]></kwd>
<kwd lng="es"><![CDATA[prueba de hipótesis]]></kwd>
<kwd lng="es"><![CDATA[intervalo de confianza]]></kwd>
<kwd lng="es"><![CDATA[inferencia clásica]]></kwd>
<kwd lng="es"><![CDATA[inferencia bayesiana]]></kwd>
<kwd lng="en"><![CDATA[point estimate]]></kwd>
<kwd lng="en"><![CDATA[hypothesis test]]></kwd>
<kwd lng="en"><![CDATA[on the up and up interval]]></kwd>
<kwd lng="en"><![CDATA[classic inference]]></kwd>
<kwd lng="en"><![CDATA[Bayesian inference]]></kwd>
</kwd-group>
</article-meta>
</front><body><![CDATA[ <p align="right"><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="2"><b>ENSAYO</b></font></p>     <p>&nbsp;</p>     <p><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="4"><a name="top"></a><b>Interpretando    correctamente en salud p&uacute;blica estimaciones puntuales, intervalos de    confianza y contrastes de hip&oacute;tesis</b> </font></p>     <p>&nbsp;</p>     <p><b><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="3">Accurate    interpretation of point estimates, confidence intervals, and hypothesis tests    in public health</font></b></p>     <p>&nbsp;</p>     <p>&nbsp;</p>     <p><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="2"><b>Manuel    G Scotto, MSc, PhD<sup>I</sup>; Aurelio Tob&iacute;as-Garc&eacute;s, MSc, C    Stat<sup>II</sup></b></font></p>     <p><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="2"><sup>I</sup>Departamento    de Matem&aacute;tica, Universidade de Aveiro, Aveiro, Portugal    <br>   <sup>II</sup>Departamento de Estad&iacute;stica y Econometr&iacute;a, Universidad    Carlos III de Madrid, Getafe, Espa&ntilde;a</font></p>     ]]></body>
<body><![CDATA[<p><font face="Verdana, Arial, Helvetica, sans-serif" size="2"><a href="#back10">Direcci&oacute;n    para correspondencia</a></font></p>     <p>&nbsp;</p>     <p>&nbsp;</p> <hr size="1" noshade>     <p><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="2"><b>RESUMEN</b></font></p>     <p><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="2">El presente    ensayo trata de aclarar algunos conceptos utilizados habitualmente en el campo    de investigaci&oacute;n de la salud p&uacute;blica, que en numerosas situaciones    son interpretados de manera incorrecta. Entre ellos encontramos la estimaci&oacute;n    puntual, los intervalos de confianza, y los contrastes de hip&oacute;tesis.    Estableciendo un paralelismo entre estos tres conceptos, podemos observar cu&aacute;les    son sus diferencias m&aacute;s importantes a la hora de ser interpretados, tanto    desde el punto de vista del enfoque cl&aacute;sico como desde la &oacute;ptica    bayesiana. El texto completo en ingl&eacute;s de este art&iacute;culo est&aacute;    disponible en: <a href="http://www.insp.mx/salud/index.html">http://www.insp.mx/salud/index.html</a></font></p>     <p><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="2"><b>Palabras    clave:</b> estimaci&oacute;n puntual; prueba de hip&oacute;tesis; intervalo    de confianza; inferencia cl&aacute;sica; inferencia bayesiana</font></p> <hr size="1" noshade>     <p><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="2"><b>ABSTRACT</b></font></p>     <p><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="2">This essay    reviews some statistical concepts frequently used in public health research    that are commonly misinterpreted. These include point estimates, confidence    intervals, and hypothesis tests. By comparing them using the classical and the    Bayesian perspectives, their interpretation becomes clearer. The English version    of this paper is available at: <a href="http://www.insp.mx/salud/index.html">http://www.insp.mx/salud/index.html</a></font></p>     <p><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="2"><b>Key words:</b>    point estimate; hypothesis test; on the up and up interval; classic inference;    Bayesian inference</font></p> <hr size="1" noshade>     <p>&nbsp;</p>     ]]></body>
<body><![CDATA[<p>&nbsp;</p>     <p><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="2">En los &uacute;ltimos    a&ntilde;os, en el campo de la salud p&uacute;bli ca, se ha reabierto<sup>1-5</sup>    con creciente inter&eacute;s la controversia cl&aacute;sica<sup>6</sup> sobre    la combinaci&oacute;n o comparaci&oacute;n de las metodolog&iacute;as frecuentista    y bayesiana en el dise&ntilde;o y an&aacute;lisis de datos cl&iacute;nicos y    epidemiol&oacute;gicos. La incorporaci&oacute;n de los m&eacute;todos bayesianos    ha abierto nuevas perspectivas en este tipo de estudios, pero tambi&eacute;n    ha provocado que muchos resultados sean err&oacute;neamente interpretados, como    los intervalos de confianza y los valores de <i>p</i>. Esto ha provocado la    aparici&oacute;n de gran n&uacute;mero de trabajos<sup>4,7-12</sup> con el objetivo    de explicar la correcta utilizaci&oacute;n e interpretaci&oacute;n de los resultados,    dependiendo de cu&aacute;l metodolog&iacute;a, cl&aacute;sica o bayesiana, sea    utilizada.</font></p>     <p><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="2">El objetivo    de este ensayo es presentar de una manera formal los principios b&aacute;sicos    de las metodolog&iacute;as frecuentista o cl&aacute;sica, y la bayesiana, revisando    los conceptos te&oacute;ricos de la estimaci&oacute;n puntual, intervalos de    confianza, y contrastes de hip&oacute;tesis. Presentamos las diferencias fundamentales    entre ambas metodolog&iacute;as, mostrando sencillos ejemplos que ayuden a clarificar    las cuestiones m&aacute;s te&oacute;ricas.</font></p>     <p><b><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="2">Principios    de la inferencia cl&aacute;sica</font></b></p>     <p><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="2">En los problemas    de inferencia estad&iacute;stica se trabaja casi siempre en el marco de un modelo    probabil&iacute;stico. En particular, en la inferencia cl&aacute;sica este modelo    sirve para describir el proceso experimental o biol&oacute;gico a partir del    cual se han generado los datos. El modelo cl&aacute;sico comprende un espacio    de resultados, denominado espacio muestral, cuyos elementos resultan del conjunto    de todos los posibles valores que puede tomar una variable aleatoria <i>X</i>.    Las posibles funciones de probabilidad para <i>X</i> las designaremos por &#131;<sub><font face="Symbol">q</font></sub>(<i>x</i>),    siendo <font face="Symbol">q</font> el vector de par&aacute;metros que clasifica    dicha funci&oacute;n. Entonces podemos decir que <font face="Symbol">&Aacute;</font>={&#131;<sub><font face="Symbol">q</font></sub>(<i>x</i>):<font face="Symbol">q</font><font face="Symbol">&Icirc;Q</font>    } forma una familia de distribuciones de probabilidad y constituye la parte    central del modelo cl&aacute;sico. La inferencia cl&aacute;sica intenta responder    a las siguientes preguntas: a) &iquest;son los datos recogidos compatibles con    alg&uacute;n miembro de la familia <font face="Symbol">&Aacute;</font>?, y b)    admitiendo que el modelo es v&aacute;lido &iquest;qu&eacute; inferencias podemos    hacer sobre el verdadero valor del vector de par&aacute;metros <font face="Symbol">q</font>?    Es en este &uacute;ltimo punto donde se engloba la estimaci&oacute;n param&eacute;trica,    puntual, o por intervalo.</font></p>     <p><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="2">La caracterizaci&oacute;n    del modelo estad&iacute;stico cl&aacute;sico refleja diferentes aspectos. El    primero es que la informaci&oacute;n relevante que se utiliza para realizar    inferencia es la obtenida por muestreo; y segundo, dichos procedimientos deben    ser analizados a trav&eacute;s de su comportamiento en un gran n&uacute;mero    de repeticiones, hipot&eacute;ticas, efectuadas bajo las mismas condiciones.    Este procedimiento se conoce como 'principio de muestreo repetido'. Una de las    facetas de este principio es que cualquier inferencia ha de basarse en el concepto    'frecuentista' de la probabilidad. Este concepto se fundamenta en la observaci&oacute;n    de la frecuencia relativa en un conjunto numeroso de experiencias independientes    llevadas a cabo en las mismas condiciones. Otra de sus caracter&iacute;sticas    importantes reside en la interpretaci&oacute;n de los resultados con relaci&oacute;n    a la frecuencia con la que ocurren, es por ello que la distribuci&oacute;n muestral    de lo(s) estad&iacute;stico(s) que define(n) el comportamiento a largo plazo    del procedimiento inferencial juega un papel fundamental.</font></p>     <p><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="2"><i>Estimaci&oacute;n    puntual</i></font></p>     <p><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="2">Supongamos    que se quiere obtener una estimaci&oacute;n puntual del par&aacute;metro <font face="Symbol">q</font>.    Llamaremos <img src="/img/revistas/spm/v45n6/18745x01.gif" align="absmiddle">(<i>x</i>)    al estimador utilizado. Se puede considerar en t&eacute;rminos generales que    <img src="/img/revistas/spm/v45n6/18745x01.gif" align="absmiddle"> ser&aacute;    un buen estimador cuando tenga una probabilidad elevada de conducir a estimaciones    'muy cercanas' de <font face="Symbol">q</font>. Por ejemplo, cuando para alg&uacute;n    <font face="Symbol">e</font>&gt;<i>0</i> peque&ntilde;o <i>P</i>(|<img src="/img/revistas/spm/v45n6/18745x01.gif" align="absmiddle">(<i>x</i>)&#151;<font face="Symbol">q</font>&lt;<font face="Symbol">e</font>|)=0.99.    Es decir, cuando a partir de un conjunto de observaciones se obtiene una estimaci&oacute;n,    <img src="/img/revistas/spm/v45n6/18745x01.gif" align="absmiddle">(<i>x</i>),    lo &uacute;nico que se puede confirmar es una de estas dos aseveraciones:</font></p>     <p><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="2">1. Que |<img src="/img/revistas/spm/v45n6/18745x01.gif" align="absmiddle">(<i>x</i>)&#151;<font face="Symbol">q</font>|&lt;<font face="Symbol">e</font>    <br>   </font><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="2">2.    Que ha ocurrido un acontecimiento improbable (por ejemplo, en este caso con    <i>p</i>=0.01).</font></p>     ]]></body>
<body><![CDATA[<p><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="2">Como el    par&aacute;metro <font face="Symbol">q</font> es desconocido, no sabemos en    cu&aacute;l de las dos situaciones nos encontramos. Desde el punto de vista    de la inferencia cl&aacute;sica, recurrimos al principio de muestreo repetido,    y afirmamos que si repiti&eacute;semos el c&aacute;lculo de la estimaci&oacute;n    un gran n&uacute;mero de veces la proporci&oacute;n de dichas estimaciones que    verifican la primera condici&oacute;n estar&aacute; cerca de 0.99. En otras    palabras, el estimador <img src="/img/revistas/spm/v45n6/18745x01.gif" align="absmiddle">(<i>x</i>)    es bueno porque en 99% de los casos conduce a estimaciones que difieren poco    del verdadero valor del par&aacute;metro. Consideraciones an&aacute;logas pueden    hacerse en relaci&oacute;n, por ejemplo, con los intervalos de confianza y con    los contrastes de hip&oacute;tesis.</font></p>     <p><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="2"><i>Intervalos    de confianza</i></font></p>     <p><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="2">Un intervalo    de confianza se define mediante dos valores entre los cuales se encuentra el    valor del par&aacute;metro con un cierto grado de confianza. El grado de confianza    se refiere al procedimiento de construcci&oacute;n del intervalo, que se calcula    con los datos muestrales y sus valores cambian de una muestra a otra. El grado    de confianza no es la probabilidad de que un intervalo concreto incluya o no    el valor del par&aacute;metro, ya que al ser el par&aacute;metro un valor fijo    estar&aacute;, o no, dentro de un intervalo concreto. El grado de confianza    se refiere a la probabilidad de que, al aplicar repetidamente el procedimiento,    el intervalo contenga el par&aacute;metro, es decir, expresa la proporci&oacute;n    de intervalos que efectivamente incluyen el par&aacute;metro.</font></p>     <p><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="2">Por ejemplo,    Burton y colaboradores<sup>7</sup> proporcionan un ejemplo de la incorrecta    interpretaci&oacute;n que suele darse a los intervalos de confianza. Si el intervalo    de confianza de 95% para una raz&oacute;n de momios es [1.6-6.4], muchos investigadores    interpretar&iacute;an este resultado diciendo que hay una probabilidad de 95%    de que el verdadero valor de la raz&oacute;n de momios est&aacute; contenido    en ese intervalo, lo que es incorrecto considerando la definici&oacute;n de    intervalo de confianza descrita previamente.</font></p>     <p><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="2"><i>Contrastes    de hip&oacute;tesis</i></font></p>     <p><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="2">Por lo que    se refiere a los contrastes de hip&oacute;tesis, cuando queremos contrastar    una hip&oacute;tesis nula simple <i>H</i><sub>0</sub> contra una alternativa    <i>H</i><sub>1</sub> tambi&eacute;n simple, diciendo que una regi&oacute;n cr&iacute;tica    provoca un error de tipo I con probabilidad 0.05 y un error de tipo II con probabilidad    0.1, utilizando la interpretaci&oacute;n frecuentista de la probabilidad, lo    que se pretende decir es que si repiti&eacute;semos el contraste m&aacute;s    veces, &eacute;ste nos conducir&iacute;a a rechazar incorrectamente <i>H</i><sub>0</sub>    en 5% de los casos y a aceptar de forma incorrecta <i>H</i><sub>1</sub> en 10%    de los casos.</font></p>     <p><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="2">Todas las    probabilidades mencionadas hasta el momento (0.99, 0.1, y 0.05) hacen referencia    a la <i>probabilidad previa</i> del estimador considerado. La probabilidad previa    tambi&eacute;n recibe el nombre de pre-experimental, ya que se refiere a una    situaci&oacute;n anterior a la observaci&oacute;n de los datos. La probabilidad    previa es un importante criterio de evaluaci&oacute;n de los procedimientos    cl&aacute;sicos y no plantea problemas cuando se utilizan procedimientos que    se repiten un gran n&uacute;mero de veces. Lo que ciertamente es discutible    es el empleo de la probabilidad previa en aquellas situaciones que s&oacute;lo    ocurren una vez y no se repiten.</font></p>     <p><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="2">Para ilustrar    esta &uacute;ltima situaci&oacute;n, consideremos el siguiente ejemplo.<sup>13</sup>    Supongamos que a partir de una muestra queremos inferir sobre el par&aacute;metro    <font face="Symbol">l</font> de una distribuci&oacute;n de Poisson. Para ello,    utilizaremos el valor medio de los datos muestrales, <img src="/img/revistas/spm/v45n6/18745x02.gif">,    como estimador, sabiendo que bajo ciertas condiciones sigue una distribuci&oacute;n    normal, de valor medio <font face="Symbol">l</font> y varianza <font face="Symbol">l</font><i>/n</i>.    Con base en esta distribuci&oacute;n, podemos decir que <img src="/img/revistas/spm/v45n6/18745x04.gif">    con una probabilidad a doble cola de 95%. Cualquiera de estas afirmaciones se    refiere a la probabilidad previa, ya que est&aacute; en juego el conjunto de    valores posibles de <img src="/img/revistas/spm/v45n6/18745x02.gif">.    Lo que ahora nos preguntamos es &iquest;qu&eacute; podemos decir de <img src="/img/revistas/spm/v45n6/18745x03.gif">    como estimaci&oacute;n de <font face="Symbol">l</font>? Por ejemplo, si en una    muestra de tama&ntilde;o 16 obtenemos que <img src="/img/revistas/spm/v45n6/18745x03.gif">=16.8,    &iquest;qu&eacute; podemos decir sobre la proximidad de este valor en relaci&oacute;n    a <font face="Symbol">l</font>? La respuesta que un estad&iacute;stico cl&aacute;sico    dar&aacute; es que puesto que <img src="/img/revistas/spm/v45n6/18745x03.gif">    es un valor t&iacute;pico de <img src="/img/revistas/spm/v45n6/18745x02.gif">,    &eacute;ste hereda las propiedades de la distribuci&oacute;n muestral de <img src="/img/revistas/spm/v45n6/18745x02.gif">.    Esto nos revela que la metodolog&iacute;a cl&aacute;sica no consigue medir la    precisi&oacute;n efectivamente realizada, conocida como <i>probabilidad posterior</i>,    o sea la proximidad entre <img src="/img/revistas/spm/v45n6/18745x03.gif">    y <font face="Symbol">l</font> una vez observados los datos. Ejemplificando    una vez m&aacute;s, si <img src="/img/revistas/spm/v45n6/18745x03.gif"><i>=16.8</i>    es una media de una muestra concreta de tama&ntilde;o 16 de una poblaci&oacute;n    <i>N(&micro;,l)</i> lo que podemos decir es que el intervalo (<img src="/img/revistas/spm/v45n6/18745x02.gif"><i>&plusmn;0.49)</i>    contiene &micro; con probabilidad 0.95, es decir que en 95% de las muestras,    &micro; est&aacute; contenido en (<img src="/img/revistas/spm/v45n6/18745x03.gif">&plusmn;0.49).    Esto no significa que (16.8&plusmn;0.49) contenga &micro;, ya que podr&iacute;amos    haber obtenido una de 5% de las muestras para las cuales &micro; no est&aacute;    contenido en dicho intervalo. De este modo, no se consigue tener una idea de    la mayor o menor plausibilidad de &micro; estar contenido en (16.8&plusmn;0.49),    es decir, de la probabilidad posterior del proceso de estimaci&oacute;n por    intervalo.</font></p>     <p><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="2">El siguiente    ejemplo<sup>14</sup> muestra los problemas que pueden aparecer cuando se hace    un uso indiscriminado de la probabilidad previa. Consideremos que la variable    <i>X~N</i>(&micro;,<font face="Symbol">s</font><sup>2</sup>) es observada con    el objetivo de contrastar <i>H<sub>0</sub>:&micro;=0</i> contra <i>H<sub>1</sub>:&micro;=10</i>.    La observaci&oacute;n de <i>X</i> se puede hacer con dos instrumentos de medida:    el primero, <i>I</i><sub>1</sub> es poco preciso (<font face="Symbol">s</font><sup></sup>=10)    y el segundo, <i>I</i><sub>2</sub>, es m&aacute;s preciso (<font face="Symbol">s</font><sup></sup>=1).    El observador usa <i>I</i><sub>1</sub> o <i>I</i><sub>2</sub> con probabilidades    conocidas <i>p</i> y 1-<i>p</i>, respectivamente, sabiendo siempre cu&aacute;l    instrumento utiliza. Para realizar el contraste <i>H</i><sub>0</sub> contra    <i>H</i><sub>1</sub> podemos utilizar, entre otros, las siguientes pruebas,    ambas de tama&ntilde;o <font face="Symbol">a</font>:</font></p>     <p><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="2">Prueba 1.    Utilizando el instrumento <i>I</i><sub>1</sub> rechazamos <i>H</i><sub>0</sub>    cuando <i>X&gt;k</i><sub>0</sub><i>k</i><sub>0</sub>=10<font face="Symbol">f</font><sup>-1</sup>(1-<font face="Symbol">a</font>)    y utilizando el instrumento <i>I</i><sub>2</sub> rechazamos <i>H</i><sub>0</sub>    cuando <i>X&gt;k</i><sub>1</sub> <i>k</i><sub>1</sub>=<font face="Symbol">f</font><sup>-1</sup>(1-<font face="Symbol">a</font>)    donde <font face="Symbol">f</font>(<i>x</i>) es la funci&oacute;n de distribuci&oacute;n    de la normal est&aacute;ndar. Es f&aacute;cil verificar que la prueba 1 tiene    tama&ntilde;o <font face="Symbol">a</font>.</font></p>     ]]></body>
<body><![CDATA[<p><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="2">Ptueba 2.    Con el instrumento <i>I</i><sub>1</sub> rechazamos siempre <i>H</i><sub>0</sub>    y con el instrumento <i>I</i><sub>2</sub> rechazamos <i>H</i><sub>0</sub> cuando    <img src="/img/revistas/spm/v45n6/18745x05.gif">, <font face="Symbol">a</font>&gt;<i>p</i>.    El tama&ntilde;o de la prueba 2 tambi&eacute;n es <font face="Symbol">a</font>.</font></p>     <p><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="2">Se puede    demostrar que para varios valores de a y de <i>p</i>, la prueba 2 es m&aacute;s    potente que la prueba 1. Por lo tanto, la doctrina cl&aacute;sica dir&iacute;a    que la prueba 2 es mejor de las dos, si se tiene en cuenta la probabilidad previa.    Si el observador se propone realizar una larga serie de ensayos no tiene ning&uacute;n    motivo que lleve a rechazar la recomendaci&oacute;n de la doctrina cl&aacute;sica.    El problema es que si el observador puede realizar una sola vez la experiencia    (utilizando la prueba 2) a uno le extra&ntilde;a la idea de ignorar el resultado    de no considerar la observaci&oacute;n cuando utilizamos el instrumento <i>I</i><sub>1</sub>.    De hecho, es natural que al observador no le interese utilizar la probabilidad    previa sino la precisi&oacute;n que obtendr&aacute; cuando se utilice cualquiera    de los dos instrumentos de medida.</font></p>     <p><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="2">El papel    central de la probabilidad previa en los procedimientos cl&aacute;sicos es consecuencia    directa del principio de muestreo repetido. Este principio implica la transferencia,    para los procedimientos estad&iacute;sticos, mismo cuando se tenga la intenci&oacute;n    de aplicarlos s&oacute;lo una vez, de las propiedades que los mismos revelan    en un conjunto ilimitado de repeticiones. Este es uno de los puntos de discordia    entre cl&aacute;sicos y bayesianos, ya que puede haber ambig&uuml;edad a la    hora de considerar este conjunto hipot&eacute;tico de repeticiones ilimitadas,    pues uno puede imaginarse diferentes formas de repetir las experiencias y, en    tal caso, no est&aacute; claro cu&aacute;l de las formas es la m&aacute;s adecuada    para realizar inferencias sobre el par&aacute;metro.</font></p>     <p><b><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="2">Principios    de la inferencia bayesiana</font></b></p>     <p><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="2">La inferencia    bayesiana se fundamenta en el Teorema de Bayes sobre el c&aacute;lculo de probabilidades    condicionadas. La divergencia fundamental entre el modelo cl&aacute;sico y el    modelo bayesiano es que el par&aacute;metro <font face="Symbol">q&Icirc;Q</font>,    que en el modelo cl&aacute;sico es un escalar o vector desconocido pero fijo,    pasa en la metodolog&iacute;a bayesiana a ser considerado aleatorio. Para los    bayesianos, todo lo que es desconocido es incierto y toda incertidumbre tiene    que ser cuantificada en t&eacute;rminos probabil&iacute;sticos. Al mismo tiempo,    admiten que la informaci&oacute;n inicial o <i>a priori</i> (anterior a la experiencia    pero demasiado importante para ser ignorada) puede traducirse formalmente en    una distribuci&oacute;n de probabilidad para <font face="Symbol">q</font>, que    se conoce como distribuci&oacute;n <i>a priori</i> que designaremos como <i>p</i>(<font face="Symbol">q</font>).    Por lo tanto, <i>p</i>(<font face="Symbol">q</font><i></i>) proporciona el grado    de credibilidad que una persona atribuye a los posibles valores de <font face="Symbol">q</font><i></i>.    Este aspecto de la distribuci&oacute;n <i>a priori</i> es el m&aacute;s controvertido    del m&eacute;todo bayesiano, ya que mucha gente rechaza que la informaci&oacute;n    inicial, que puede incluir los prejuicios del investigador, se incluya en un    proceso de inferencia estad&iacute;stica. No obstante, este problema se soluciona    por los bayesianos utilizando distribuciones <i>a priori</i> que no aporten    informaci&oacute;n relevante sobre el par&aacute;metro.</font></p>     <p><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="2">Una vez    cuantificada esta informaci&oacute;n inicial acerca del par&aacute;metro, las    observaciones obtenidas por muestreo servir&aacute;n para actualizar la informaci&oacute;n    ya existente sobre el par&aacute;metro. De este modo, combinando la informaci&oacute;n    inicial y la informaci&oacute;n muestral, utilizando el Teorema de Bayes se    atribuyen nuevos grados de credibilidad a los valores del par&aacute;metro <font face="Symbol">q</font><i></i>,    que dan lugar a la distribuci&oacute;n <i>a posteriori</i> <i>p</i>(<font face="Symbol">q</font><i></i><font face="Symbol">|</font><i>x</i>).    De aqu&iacute; se deduce que todos los procedimientos de inferencia bayesiana    se basan en la distribuci&oacute;n <i>a posteriori</i>.</font></p>     <p><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="2"><i>Estimaci&oacute;n    puntual bayesiana</i></font></p>     <p><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="2">Veamos ahora    c&oacute;mo resuelven los bayesianos el problema de la estimaci&oacute;n puntual.    El estimador bayesiano que normalmente se utiliza para obtener una estimaci&oacute;n    puntual es la moda de la distribuci&oacute;n <i>a posteriori</i>, ya que es    el valor m&aacute;s probable que puede tomar <font face="Symbol">q</font>.    En algunas situaciones, las estimaciones de m&aacute;xima verosimilitud del    modelo cl&aacute;sico y bayesiano son pr&aacute;cticamente id&eacute;nticas.    Esto ocurre, por ejemplo, cuando se elige una distribuci&oacute;n <i>a priori</i>    poco informativa, lo que implicar&aacute; que la distribuci&oacute;n <i>a posteriori</i>    estar&aacute; basada en la informaci&oacute;n obtenida por muestreo y en este    caso las estimaciones para los dos modelos coincidir&aacute;n. A pesar de esta    circunstancia, la interpretaci&oacute;n de los resultados, dependiendo de la    metodolog&iacute;a utilizada, es completamente diferente.</font></p>     <p><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="2"><i>Intervalos    de credibilidad</i></font></p>     <p><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="2">Con relaci&oacute;n    a los intervalos de confianza cl&aacute;sicos, en el modelo bayesiano se utilizan    los llamados intervalos de credibilidad. Estos intervalos se construyen de la    siguiente manera. Observado <i>x</i>, se quiere encontrar dos valores [<i>a</i><sub>1</sub>,<i>a</i><sub>2</sub>]    de tal manera que <font face="Symbol">q</font><i></i><font face="Symbol">&Icirc;</font>[<i>a</i><sub>1</sub>,<i>a</i><sub>2</sub>    ] con una probabilidad elevada, o sea <i>P</i>(<i>a</i><sub>1</sub>&lt;<font face="Symbol">q</font><i></i>&lt;<i>a</i><sub>2</sub>)|<i>    x</i>)<font face="Symbol">&sup3;</font>1-<font face="Symbol">a</font>, siendo    1-<font face="Symbol">a</font> el nivel de credibilidad. Esta definici&oacute;n    de intervalos de credibilidad presenta un inconveniente: hay muchos valores    de <i>a</i><sub>1</sub> y <i>a</i><sub>2</sub> que cumplen esta propiedad. Se    plantea entonces el problema de c&oacute;mo elegir estos dos valores. Una buena    soluci&oacute;n es considerar el intervalo <i>C</i>={<font face="Symbol">q</font><i></i>:<i>p</i>(<font face="Symbol">q</font><i></i>|<i>x</i>)&gt;<font face="Symbol">g</font>    } donde g es el mayor n&uacute;mero real que satisface <i>p</i>(<font face="Symbol">q</font><i></i><font face="Symbol">&Icirc;</font><i>C|x</i>)<font face="Symbol">&sup3;</font>1-<font face="Symbol">a</font>.    Esta regla da origen a un intervalo de amplitud m&iacute;nima, de modo que cualquier    punto excluido del intervalo no tenga mayor credibilidad que cualquier punto    incluido en &eacute;l. Estos intervalos se conocen como intervalos HPD (highest    posterior density).</font></p>     ]]></body>
<body><![CDATA[<p><b><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="2">Diferencias    entre la inferencia cl&aacute;sica y la bayesiana</font></b></p>     <p><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="2">Como ya    vimos, la diferencia fundamental entre el modelo cl&aacute;sico y el bayesiano    es que en este &uacute;ltimo los par&aacute;metros son considerados aleatorios,    por lo que pueden ser cuantificados en t&eacute;rminos probabil&iacute;sticos.    Por otro lado, es importante resaltar que la inferencia bayesiana se basa en    probabilidades asociadas con diferentes valores del par&aacute;metro <font face="Symbol">q</font>    que podr&iacute;an haber dado lugar a la muestra <i>x</i> que se observ&oacute;.    Por el contrario, la inferencia cl&aacute;sica se basa en probabilidades asociadas    con las diferentes muestras <i>x</i> que se podr&iacute;an observar para alg&uacute;n    valor fijo, pero desconocido, del par&aacute;metro <font face="Symbol">q</font>.    En relaci&oacute;n con la obtenci&oacute;n de estimaciones puntuales para los    par&aacute;metros poblacionales, en el caso del modelo cl&aacute;sico, la estimaci&oacute;n    se interpreta como el valor de <font face="Symbol">q</font>, que hace    m&aacute;s plausible haber obtenido la muestra observada, mientras en el modelo    bayesiano, la estimaci&oacute;n ser&aacute; el valor de <font face="Symbol">q</font>    que, puesto que se ha observado <i>x</i>, sea m&aacute;s veros&iacute;mil o    m&aacute;s cre&iacute;ble.</font></p>     <p><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="2">Veamos cu&aacute;les    son las diferencias que existen entre los intervalos de confianza cl&aacute;sicos    y los intervalos de credibilidad bayesianos. En relaci&oacute;n con la elecci&oacute;n    del a, no hay ninguna diferencia, elegimos siempre un valor peque&ntilde;o.    En los restantes aspectos no hay ninguna coincidencia. Visto que la distribuci&oacute;n    <i>a posteriori</i> es la distribuci&oacute;n del par&aacute;metro, en el caso    bayesiano, podemos hablar de la probabilidad de que el par&aacute;metro est&eacute;    contenido en el intervalo de credibilidad. Esto contrasta con los intervalos    de confianza cl&aacute;sicos, los cuales s&oacute;lo pueden ser interpretados    en relaci&oacute;n con su probabilidad de cobertura, o sea, la probabilidad    de obtener una muestra de manera que la regi&oacute;n de confianza resultante    contenga <font face="Symbol">q</font>. Como se dijo, los intervalos cl&aacute;sicos    son una medida de la probabilidad previa, mientras que los intervalos de credibilidad    bayesianos son una medida de la probabilidad posterior. Esto se traduce en que    una vez que se observa <i>x</i>, los bayesianos saben que con probabilidad como    m&iacute;nimo de 1-<font face="Symbol">a</font>, el verdadero valor del par&aacute;metro    est&aacute; contenido en el intervalo de credibilidad. Por lo tanto, y de manera    contraria a lo que cabr&iacute;a esperar, la interpretaci&oacute;n de los intervalos    de confianza como se usa com&uacute;nmente es propia del m&eacute;todo bayesiano    y no del cl&aacute;sico, independientemente de la metodolog&iacute;a utilizada    para su c&aacute;lculo.</font></p>     <p><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="2">Veamos un    ejemplo. Supongamos que construimos el intervalo de manera que para las dos    metodolog&iacute;as se obtenga <i><img src="/img/revistas/spm/v45n6/18745x06.gif">.</i>    Mientras que para un bayesiano <img src="/img/revistas/spm/v45n6/18745x07.gif">    tiene una interpretaci&oacute;n directa como probabilidad, representando por    lo tanto la probabilidad posterior, para un cl&aacute;sico, antes de obtener    una muestra dicho intervalo representa la probabilidad de cobertura de <font face="Symbol">q</font><i></i>    por un intervalo aleatorio (probabilidad previa). Despu&eacute;s de recoger    la informaci&oacute;n por muestreo lo &uacute;nico que un cl&aacute;sico podr&aacute;    decir es que, o efectivamente el verdadero valor del par&aacute;metro est&aacute;    en ese intervalo, o bien, que ocurri&oacute; un suceso de probabilidad 0.05.</font></p>     <p><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="2">Finalmente,    veamos cu&aacute;les son las diferencias fundamentales con relaci&oacute;n a    los contrastes de hip&oacute;tesis. Supongamos que se quiere contrastar si <i>H</i><sub>0</sub>:<font face="Symbol">q</font><i></i><font face="Symbol">&Icirc;Q</font><sub>0</sub>    respecto <i>H</i><sub>1</sub>:<font face="Symbol">q</font><i></i><font face="Symbol">&Icirc;Q</font><sub>1</sub>.    Como ya se explic&oacute; anteriormente, siguiendo la metodolog&iacute;a cl&aacute;sica    este contraste se llevar&iacute;a a cabo delimitando una regi&oacute;n de rechazo    <i>V</i> en el espacio muestral, que ser&iacute;a evaluada a trav&eacute;s de    las probabilidades de los errores de tipo I (probabilidad de rechazar la hip&oacute;tesis    nula cuando es cierta) y de tipo II (probabilidad de no rechazar la hip&oacute;tesis    nula cuando es falsa). Estas probabilidades reflejan la probabilidad previa.    Desde el punto de vista bayesiano el problema del contraste de hip&oacute;tesis    es encarado de manera m&aacute;s directa, calculando las probabilidades <i>a    posteriori</i>, <i>P</i>(<font face="Symbol">Q</font><sub>0</sub>|<i>x</i>)    e <i>P</i>(<font face="Symbol">Q</font><sub>1</sub>|<i>x</i>) decidiendo despu&eacute;s    de compararlas. Por ejemplo, se puede optar por la hip&oacute;tesis nula si    <i>P</i>(<font face="Symbol">Q</font><sub>0</sub>|<i>x</i>)&gt;<i>P</i>(<font face="Symbol">Q</font><sub>1</sub>|<i>x</i>).    Estas probabilidades reflejan la probabilidad posterior del procedimiento. Por    lo tanto, en el contexto de los contrastes de hip&oacute;tesis, se puede afirmar    que el resultado de la inferencia bayesiana no es la aceptaci&oacute;n o rechazo    de las hip&oacute;tesis, pero s&iacute; la alteraci&oacute;n de la credibilidad    que es atribuida a cada una de ellas.</font></p>     <p><b><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="2">Conclusiones</font></b></p>     <p><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="2">En el presente    ensayo se ha ofrecido una visi&oacute;n global de los conceptos b&aacute;sicos    para hacer inferencia, estimaciones puntuales, intervalos de confianza, y pruebas    de hip&oacute;tesis, bajo el prisma de la metodolog&iacute;a cl&aacute;sica    y de la metodolog&iacute;a bayesiana. Aunque es importante recalcar que ni el    m&eacute;todo inferencial cl&aacute;sico ni el bayesiano prescinden de un abordaje    general que incluya los criterios de causalidad, el m&eacute;todo adecuado,    la calidad de los datos, y el contexto del problema de salud bajo investigaci&oacute;n.</font></p>     <p><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="2">Las inferencias    generadas a partir de la metodolog&iacute;a bayesiana son m&aacute;s informativas    y f&aacute;ciles de interpretar que las realizadas a partir de la metodolog&iacute;a    cl&aacute;sica, proporcionando respuestas m&aacute;s directas a muchas de las    cuestiones planteadas por los investigadores en el campo de la epidemiolog&iacute;a    y de la salud p&uacute;blica.<sup>4,8-10</sup> Pero encontramos que todav&iacute;a    es bastante habitual que, tanto epidemi&oacute;logos como cl&iacute;nicos interpreten    los intervalos de confianza calculados por m&eacute;todos cl&aacute;sicos utilizando    el concepto bayesiano de la probabilidad subjetiva.<sup>7</sup> Este hecho es    debido principalmente a dos motivos: en primer lugar, la escasa repercusi&oacute;n    que los m&eacute;todos bayesianos han tenido, tanto en los libros de texto m&aacute;s    populares en el &aacute;mbito de la bioestad&iacute;stica,<sup>15-18</sup> como    en la formaci&oacute;n de los investigadores. Por otro lado, la total inviabilidad    de los programas estad&iacute;sticos de car&aacute;cter general de mayor difusi&oacute;n    en el &aacute;mbito de la investigaci&oacute;n m&eacute;dica (como Stata, SAS,    o SPSS) respecto de la aplicaci&oacute;n de t&eacute;cnicas estad&iacute;sticas    bayesianas.</font></p>     <p><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="2">En este    sentido, ser&iacute;a deseable un cambio mucho m&aacute;s progresivo en la manera    de concebir y analizar los estudios epidemiol&oacute;gicos actuales, de tal    manera que la metodolog&iacute;a bayesiana se convierta en el modo natural de    concebir los an&aacute;lisis estad&iacute;sticos con fines inferenciales. Este    cambio de pensamiento ha coincidido con el desarrollo de los m&eacute;todos    avanzados de simulaci&oacute;n (Monte Carlo &#151;MC&#151; o Markov Chain Monte    Carlo &#151;MCMC&#151;)<sup>19</sup> y su implantaci&oacute;n en el <i>software</i>    estad&iacute;stico para an&aacute;lisis bayesiano, principalmente WinBugs,<sup>20</sup>    haciendo posible que la aplicaci&oacute;n de la metodolog&iacute;a bayesiana    sea cada vez m&aacute;s habitual en el campo de la salud p&uacute;blica.<sup>21,22</sup>    Pero mientras un progresivo cambio de mentalidad se va produciendo, coincidimos    en que conceptos de la metodolog&iacute;a cl&aacute;sica, tal como el valor    de <i>p</i>, no deben ser descartados radicalmente.<sup>22,23</sup> Por ello    compartimos con Bacallao<sup>2</sup> la recomendaci&oacute;n de que mientras    el pensamiento bayesiano va desplazando al cl&aacute;sico, conviene utilizar    las pruebas estad&iacute;sticas habituales &uacute;nicamente cuando se pueda    garantizar un alto grado de plausibilidad de la hip&oacute;tesis nula a contrastar.</font></p>     <p><b><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="2">Agradecimientos</font></b></p>     ]]></body>
<body><![CDATA[<p><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="2">Agradecemos    a los dos revisores an&oacute;nimos sus valiosos comentarios a versiones previas    del manuscrito, as&iacute; como a los editores por su gentileza a la hora de    considerar este manuscrito en formato de ensayo para su publicaci&oacute;n.</font></p>     <p>&nbsp;</p>     <p><b><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="3">Referencias</font></b></p>     <!-- ref --><p><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="2">1. Etzioni    RD, Kadane JB. Bayesian statistical methods in public health and medicine. Annu    Rev Public Health 1995;16:23-41.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9175347&pid=S0036-3634200300060001100001&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="2">2. Bacallao    J. La perspectiva exploratorio-confirmatoria en las aplicaciones biom&eacute;dicas    de la estadistica: dos di&aacute;logos (I). Bayesianismo frente a frecuencialismo:    sus respectivas implicaciones pr&aacute;cticas en relaci&oacute;n con el an&aacute;lisis    de datos. Med Clin 1996;107:467-471.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9175348&pid=S0036-3634200300060001100002&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="2">3. Bacallao    J. La perspectiva exploratorio-confirmatoria en las aplicaciones biom&eacute;dicas    de la estad&iacute;stica: dos di&aacute;logos (II). Consideraciones cr&iacute;ticas    acerca de las pruebas de significaci&oacute;n. Med Clin 1996;107:539-543.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9175349&pid=S0036-3634200300060001100003&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="2">4. Burton    PR, Gurrin LC, Campbell MJ. Clinical significance not statistical significance:    A simple Bayesian alternative to <i>p</i> values. J Epidemiol Community Health    1998;52:318-323.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9175350&pid=S0036-3634200300060001100004&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="2">5. Silva    LC, Mu&ntilde;oz A. Debate sobre m&eacute;todos frecuentistas <i>vs</i> m&eacute;todos    bayesianos. Gac Sanit 2000;14:482-494.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9175351&pid=S0036-3634200300060001100005&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="2">6. Rothman    KJ. A show of confidence. N Engl J Med 1978;299: 1362-1363.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9175352&pid=S0036-3634200300060001100006&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="2">7. Burton    PR. Helping doctors to draw appropiate inferences from the analysis of medical    studies. Stat Med 1994;13:1699-1713.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9175353&pid=S0036-3634200300060001100007&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="2">8. Goodman    SN. Of <i>p</i>-values and Bayes: A modest proposal. Epidemiol 2001; 12: 295-297.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9175354&pid=S0036-3634200300060001100008&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="2">9. Silva    LC, Benavides A. El enfoque bayesiano: otra manera de inferir. Gac Sanit 2001;15:341-346.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9175355&pid=S0036-3634200300060001100009&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="2">10. Bayarri    JM, Cobo E. Una oportunidad para Bayes. Med Clin 2002;119:252-253.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9175356&pid=S0036-3634200300060001100010&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="2">11. Alamo    F, V&aacute;zquez FJ, Rodr&iacute;guez JC. Herramientas para la investigaci&oacute;n    biom&eacute;dica: la perspectiva bayesiana (I). Med Clin 2002;119:265-268.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9175357&pid=S0036-3634200300060001100011&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="2">12. Alamo    F, V&aacute;zquez FJ, Rodr&iacute;guez JC. Herramientas para la investigaci&oacute;n    biom&eacute;dica: la perspectiva bayesiana (II). Med Clin 2002;119:269-272.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9175358&pid=S0036-3634200300060001100012&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="2">13. Murteira    JF. Estat&iacute;stica: Infer&ecirc;ncia e decis&atilde;o. Lisboa: Imprensa    Nacional, Casa da Moeda, 1988.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9175359&pid=S0036-3634200300060001100013&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="2">14. Cox    DR. Some problems connected with statistical inference. Ann Math Stat 1958;29:357-372.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9175360&pid=S0036-3634200300060001100014&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="2">15. Colton    T. Statistics in medicine. Boston: Little Brown, 1974.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9175361&pid=S0036-3634200300060001100015&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="2">16. Armitage    P, Berry G. Statistical methods in medical research. Oxford: Blackwell, 1987.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9175362&pid=S0036-3634200300060001100016&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="2">17. Bland    M. An introduction to medical statistics. Oxford: Oxford University Press, 1987.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9175363&pid=S0036-3634200300060001100017&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="2">18. Campbell    MJ, Machin D. Medical statistics: A commonsense approach. Chichester: John Wiley,    1993.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9175364&pid=S0036-3634200300060001100018&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="2">19. Casella    G, George EL. Explaining the Gibbs sampling. Am Stat 1992;46:167-174.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9175365&pid=S0036-3634200300060001100019&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="2">20. Spiegelhalter    D, Thomas A, Best N, Gilks W. BUGS Bayesian inference using Gibbs sampling version    0.50. Cambridge: MRC Biostatistics Unit, 1995.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9175366&pid=S0036-3634200300060001100020&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="2">21. Spiegelhalter    DJ, Myles JP, Jones DR, Abrams KR. Methods in health service research. An introduction    to Bayesian methods in health technology assessment. Br Med J 1999;319:508-512.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9175367&pid=S0036-3634200300060001100021&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="2">22. Spiegelhalter    DJ, Myles JP, Jones DR, Abrams KR. Bayesian methods in health technology assessment:    A review. Health Technol Assess 2000; 4:1-130.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9175368&pid=S0036-3634200300060001100022&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="2">23. Cobo    E, Campbell MJ. Interpreting results of observational research. <i>P</i> values    are still useful. Br Med J 1994;309:1439.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9175369&pid=S0036-3634200300060001100023&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="2">24. Weinberg    CR. It's time to rehabilitate the <i>p</i>-value. Epidemiol 2001;12:288-290.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9175370&pid=S0036-3634200300060001100024&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><p>&nbsp;</p>     <p>&nbsp;</p>     <p><font face="Verdana, Arial, Helvetica, sans-serif" size="2"><a name="back10"></a><a href="#top"><img src="/img/revistas/spm/v45n6/seta.gif" border="0"></a>    <b>Direcci&oacute;n para correspondencia</b>    ]]></body>
<body><![CDATA[<br>   Aurelio Tob&iacute;as Garc&eacute;s    <br>   Departamento de Estad&iacute;stica y Econometr&iacute;a    <br>   </font><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="2">Universidad    Carlos III de Madrid C/ Madrid 126, E-28903 Getafe (Espa&ntilde;a)    <br>   </font><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="2">Correo    electr&oacute;nico: <a href="mailto:atobias@est-econ.uc3m.es">atobias@est-econ.uc3m.es</a></font></p>     <p><font face="Verdana, Arial, Helvetica-Normal, sans-serif" size="2">Fecha de    recibido: 18 de septiembre de 2002    <br>   Fecha de aprobado: 15 de abril de 2003</font></p>      ]]></body><back>
<ref-list>
<ref id="B1">
<label>1</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Etzioni]]></surname>
<given-names><![CDATA[RD]]></given-names>
</name>
<name>
<surname><![CDATA[Kadane]]></surname>
<given-names><![CDATA[JB]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Bayesian statistical methods in public health and medicine]]></article-title>
<source><![CDATA[Annu Rev Public Health]]></source>
<year>1995</year>
<volume>16</volume>
<page-range>23-41</page-range></nlm-citation>
</ref>
<ref id="B2">
<label>2</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Bacallao]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[La perspectiva exploratorio-confirmatoria en las aplicaciones biomédicas de la estadistica: dos diálogos (I).: Bayesianismo frente a frecuencialismo: sus respectivas implicaciones prácticas en relación con el análisis de datos]]></article-title>
<source><![CDATA[Med Clin]]></source>
<year>1996</year>
<volume>107</volume>
<page-range>467-471</page-range></nlm-citation>
</ref>
<ref id="B3">
<label>3</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Bacallao]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[La perspectiva exploratorio-confirmatoria en las aplicaciones biomédicas de la estadística: dos diálogos (II).: Consideraciones críticas acerca de las pruebas de significación]]></article-title>
<source><![CDATA[Med Clin]]></source>
<year>1996</year>
<volume>107</volume>
<page-range>539-543</page-range></nlm-citation>
</ref>
<ref id="B4">
<label>4</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Burton]]></surname>
<given-names><![CDATA[PR]]></given-names>
</name>
<name>
<surname><![CDATA[Gurrin]]></surname>
<given-names><![CDATA[LC]]></given-names>
</name>
<name>
<surname><![CDATA[Campbell]]></surname>
<given-names><![CDATA[MJ]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Clinical significance not statistical significance: A simple Bayesian alternative to p values]]></article-title>
<source><![CDATA[J Epidemiol Community Health]]></source>
<year>1998</year>
<volume>52</volume>
<page-range>318-323</page-range></nlm-citation>
</ref>
<ref id="B5">
<label>5</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Silva]]></surname>
<given-names><![CDATA[LC]]></given-names>
</name>
<name>
<surname><![CDATA[Muñoz]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[Debate sobre métodos frecuentistas vs métodos bayesianos]]></article-title>
<source><![CDATA[Gac Sanit]]></source>
<year>2000</year>
<volume>14</volume>
<page-range>482-494</page-range></nlm-citation>
</ref>
<ref id="B6">
<label>6</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Rothman]]></surname>
<given-names><![CDATA[KJ]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A show of confidence]]></article-title>
<source><![CDATA[N Engl J Med]]></source>
<year>1978</year>
<volume>299</volume>
<page-range>1362-1363</page-range></nlm-citation>
</ref>
<ref id="B7">
<label>7</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Burton]]></surname>
<given-names><![CDATA[PR]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Helping doctors to draw appropiate inferences from the analysis of medical studies]]></article-title>
<source><![CDATA[Stat Med]]></source>
<year>1994</year>
<volume>13</volume>
<page-range>1699-1713</page-range></nlm-citation>
</ref>
<ref id="B8">
<label>8</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Goodman]]></surname>
<given-names><![CDATA[SN]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Of p-values and Bayes: A modest proposal]]></article-title>
<source><![CDATA[Epidemiol]]></source>
<year>2001</year>
<volume>12</volume>
<page-range>295-297</page-range></nlm-citation>
</ref>
<ref id="B9">
<label>9</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Silva]]></surname>
<given-names><![CDATA[LC]]></given-names>
</name>
<name>
<surname><![CDATA[Benavides]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[El enfoque bayesiano: otra manera de inferir]]></article-title>
<source><![CDATA[Gac Sanit]]></source>
<year>2001</year>
<volume>15</volume>
<page-range>341-346</page-range></nlm-citation>
</ref>
<ref id="B10">
<label>10</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Bayarri]]></surname>
<given-names><![CDATA[JM]]></given-names>
</name>
<name>
<surname><![CDATA[Cobo]]></surname>
<given-names><![CDATA[E]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[Una oportunidad para Bayes]]></article-title>
<source><![CDATA[Med Clin]]></source>
<year>2002</year>
<volume>119</volume>
<page-range>252-253</page-range></nlm-citation>
</ref>
<ref id="B11">
<label>11</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Alamo]]></surname>
<given-names><![CDATA[F]]></given-names>
</name>
<name>
<surname><![CDATA[Vázquez]]></surname>
<given-names><![CDATA[FJ]]></given-names>
</name>
<name>
<surname><![CDATA[Rodríguez]]></surname>
<given-names><![CDATA[JC]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[Herramientas para la investigación biomédica: la perspectiva bayesiana (I)]]></article-title>
<source><![CDATA[Med Clin]]></source>
<year>2002</year>
<volume>119</volume>
<page-range>265-268</page-range></nlm-citation>
</ref>
<ref id="B12">
<label>12</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Alamo]]></surname>
<given-names><![CDATA[F]]></given-names>
</name>
<name>
<surname><![CDATA[Vázquez]]></surname>
<given-names><![CDATA[FJ]]></given-names>
</name>
<name>
<surname><![CDATA[Rodríguez]]></surname>
<given-names><![CDATA[JC]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[Herramientas para la investigación biomédica: la perspectiva bayesiana (II)]]></article-title>
<source><![CDATA[Med Clin]]></source>
<year>2002</year>
<volume>119</volume>
<page-range>269-272</page-range></nlm-citation>
</ref>
<ref id="B13">
<label>13</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Murteira]]></surname>
<given-names><![CDATA[JF]]></given-names>
</name>
</person-group>
<source><![CDATA[Estatística: Inferência e decisão]]></source>
<year>1988</year>
<publisher-loc><![CDATA[Lisboa ]]></publisher-loc>
<publisher-name><![CDATA[Imprensa NacionalCasa da Moeda]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B14">
<label>14</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Cox]]></surname>
<given-names><![CDATA[DR]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Some problems connected with statistical inference]]></article-title>
<source><![CDATA[Ann Math Stat]]></source>
<year>1958</year>
<volume>29</volume>
<page-range>357-372</page-range></nlm-citation>
</ref>
<ref id="B15">
<label>15</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Colton]]></surname>
<given-names><![CDATA[T]]></given-names>
</name>
</person-group>
<source><![CDATA[Statistics in medicine]]></source>
<year>1974</year>
<publisher-loc><![CDATA[Boston ]]></publisher-loc>
<publisher-name><![CDATA[Little Brown]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B16">
<label>16</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Armitage]]></surname>
<given-names><![CDATA[P]]></given-names>
</name>
<name>
<surname><![CDATA[Berry]]></surname>
<given-names><![CDATA[G]]></given-names>
</name>
</person-group>
<source><![CDATA[Statistical methods in medical research]]></source>
<year>1987</year>
<publisher-loc><![CDATA[Oxford ]]></publisher-loc>
<publisher-name><![CDATA[Blackwell]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B17">
<label>17</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Bland]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
</person-group>
<source><![CDATA[An introduction to medical statistics]]></source>
<year>1987</year>
<publisher-loc><![CDATA[Oxford ]]></publisher-loc>
<publisher-name><![CDATA[Oxford University Press]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B18">
<label>18</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Campbell]]></surname>
<given-names><![CDATA[MJ]]></given-names>
</name>
<name>
<surname><![CDATA[Machin]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
</person-group>
<source><![CDATA[Medical statistics: A commonsense approach]]></source>
<year>1993</year>
<publisher-loc><![CDATA[Chichester ]]></publisher-loc>
<publisher-name><![CDATA[John Wiley]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B19">
<label>19</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Casella]]></surname>
<given-names><![CDATA[G]]></given-names>
</name>
<name>
<surname><![CDATA[George]]></surname>
<given-names><![CDATA[EL]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Explaining the Gibbs sampling]]></article-title>
<source><![CDATA[Am Stat]]></source>
<year>1992</year>
<volume>46</volume>
<page-range>167-174</page-range></nlm-citation>
</ref>
<ref id="B20">
<label>20</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Spiegelhalter]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
<name>
<surname><![CDATA[Thomas]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[Best]]></surname>
<given-names><![CDATA[N]]></given-names>
</name>
<name>
<surname><![CDATA[Gilks]]></surname>
<given-names><![CDATA[W]]></given-names>
</name>
</person-group>
<source><![CDATA[BUGS Bayesian inference using Gibbs sampling version 0.50]]></source>
<year>1995</year>
<publisher-loc><![CDATA[Cambridge ]]></publisher-loc>
<publisher-name><![CDATA[MRC Biostatistics Unit]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B21">
<label>21</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Spiegelhalter]]></surname>
<given-names><![CDATA[DJ]]></given-names>
</name>
<name>
<surname><![CDATA[Myles]]></surname>
<given-names><![CDATA[JP]]></given-names>
</name>
<name>
<surname><![CDATA[Jones]]></surname>
<given-names><![CDATA[DR]]></given-names>
</name>
<name>
<surname><![CDATA[Abrams]]></surname>
<given-names><![CDATA[KR.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Methods in health service research: An introduction to Bayesian methods in health technology assessment]]></article-title>
<source><![CDATA[Br Med J]]></source>
<year>1999</year>
<volume>319</volume>
<page-range>508-512</page-range></nlm-citation>
</ref>
<ref id="B22">
<label>22</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Spiegelhalter]]></surname>
<given-names><![CDATA[DJ]]></given-names>
</name>
<name>
<surname><![CDATA[Myles]]></surname>
<given-names><![CDATA[JP]]></given-names>
</name>
<name>
<surname><![CDATA[Jones]]></surname>
<given-names><![CDATA[DR]]></given-names>
</name>
<name>
<surname><![CDATA[Abrams]]></surname>
<given-names><![CDATA[KR]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Bayesian methods in health technology assessment: A review]]></article-title>
<source><![CDATA[Health Technol Assess]]></source>
<year>2000</year>
<volume>4</volume>
<page-range>1-130</page-range></nlm-citation>
</ref>
<ref id="B23">
<label>23</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Cobo]]></surname>
<given-names><![CDATA[E]]></given-names>
</name>
<name>
<surname><![CDATA[Campbell]]></surname>
<given-names><![CDATA[MJ.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Interpreting results of observational research: P values are still useful]]></article-title>
<source><![CDATA[Br Med J]]></source>
<year>1994</year>
<volume>309</volume>
<page-range>1439</page-range></nlm-citation>
</ref>
<ref id="B24">
<label>24</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Weinberg]]></surname>
<given-names><![CDATA[CR]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[It's time to rehabilitate the p-value]]></article-title>
<source><![CDATA[Epidemiol]]></source>
<year>2001</year>
<volume>12</volume>
<page-range>288-290</page-range></nlm-citation>
</ref>
</ref-list>
</back>
</article>
