SciELO - Scientific Electronic Library Online

 
vol.6 número21Exámenes de alto impacto: implicaciones educativasEducación médica basada en competencias: la nueva Torre de Babel índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Servicios Personalizados

Revista

Articulo

Indicadores

Links relacionados

  • No hay artículos similaresSimilares en SciELO

Compartir


Investigación en educación médica

versión On-line ISSN 2007-5057

Investigación educ. médica vol.6 no.21 Ciudad de México ene./mar. 2017

https://doi.org/10.1016/j.riem.2016.05.001 

Cartas al Editor

Magnitud de las diferencias: reanálisis de efectos de un tratamiento

Magnitude of differences: Reanalysis of effects of treatment

César Merino-Soto a   * 

Marisol Angulo-Ramos b  

aInstituto de Investigación de Psicología, Facultad de Ciencias de la Comunicación, Turismo y Psicología, Universidad de San Martín de Porres, Lima, Perú

bEscuela de Enfermería, Facultad de Ciencias de la Salud, Universidad Privada San Juan Bautista, Lima, Perú


Dr. Melchor Sánchez-Mendiola:

En una reciente evaluación del aprendizaje en entornos de simulación1, mediante un diseño pretest-postest, sus resultados respaldan el efecto adaptativo de la exposición a escenarios de simulación clínica. Sin embargo, su diseño analítico únicamente enfatizó la significación estadística como evidencia de sus conclusiones, y esta puede ponerse en cuestionamiento. Efectivamente, en diseños pretest-postest, la prueba t de Student para muestras dependientes es la opción más habitual2, pero su resultado solo se centra en la prueba de significación respecto a la hipótesis nula. Este resultado no es suficiente para comprender y describir apropiadamente el cambio de los puntajes, pues es más importante obtener una medida de la magnitud de la diferencia3 4 5. Esta es una medida directa del parámetro que se investiga (en este caso, la diferencia entre puntajes), mientras que la significación estadística (p < 0.05) se relaciona con la fortaleza de rechazar de la hipótesis nula3 5.

Para reanalizar los resultados de Fernández-Ayus1, se usaron dos indicadores: la diferencia estandarizada d av 6, definida como la diferencia entre las medias en el pretest y postest (Mpre y Mpost, respectivamente), y dividido sobre el promedio de la desviación estándar de cada grupo (DEpre y DEpost); y la respuesta media estandarizada (standardized mean response -SRM7-)2 7 8 9. La información para calcular este indicador se halla en la tabla 2 del artículo de Fernández-Ayus. Otros enfoques requieren la correlación entre los puntajes pretest y postest2 7 8 9 y pueden dar información más precisa; pero los resultados correlacionales no se reportan en Fernández-Ayus, y por lo tanto no pueden calcularse. Los resultados de este reanálisis aparecen en nuestra tabla 1.

Tabla 1 Magnitud del efecto en las diferencias pretest-postest 

  d av SRM
  Sin experiencia
(n = 63, tabla 1)
Con experiencia
(n = 44, tabla 1)
Sin experiencia
(n = 63, tabla 2)
Con experiencia
(n = 44, tabla 3)
Caso 1: antes-después 0.446 0.431 0.375 0.522
Caso 2: antes-después 0.196 0.185 0.178 0.282
Caso 1 antes-Caso 2 antes 0.311 -a 0.339 -a

a No fueron calculadas debido a información incompleta.

Se calcularon dos métodos (dav y SRM) pues sus estimaciones pueden discrepar de acuerdo a su formulación estadística2. Se observa que, en las diferencias identificadas como estadísticamente significativas (antes-después, caso 1 de su tabla 1 y 2; Fernández-Ayus), la magnitud de la diferencia entre ambos puede considerarse moderada10 11. Este grado de diferencia entre las dos condiciones no parecen impresionantes, si se compara con la idea que puede transmitir la afirmación que las diferencias son «significativas», y con la eficacia ideal de un tratamiento. En el contexto del estudio realizado, no obstante, la magnitud de las diferencias debe ser evaluada por la magnitud modal de estas diferencias que se reportan en similares diseños, objetivos y participantes de investigación. Es posible que esta diferencia hallada sea grande en este específico contexto, pero en cualquier situación, esta será mejor evaluada con la magnitud práctica de las diferencias y no con la significación estadística.

Responsabilidades éticas

Protección de personas y animales

Los autores declaran que para esta investigación no se han realizado experimentos en seres humanos ni en animales.

Confidencialidad de los datos

Los autores declaran que han seguido los protocolos de su centro de trabajo sobre la publicación de datos de pacientes.

Derecho a la privacidad y consentimiento informado

Los autores declaran que en este artículo no aparecen datos de pacientes.

Referencias

1. Fernández-Ayuso D, Campo-Cazallas C, Fernández-Ayuso R. Aprendizaje en entornos de simulación de alta fidelidad: evaluación del estrés en estudiantes de enfermería. Ed Med. 2016; 17:25-8 [ Links ]

2. Seidel J.A, Miller S.D, Chow D.L. Effect size calculations for the clinician: Methods and comparability. Psychot Res. 2013; 24:470-84 [ Links ]

3. Gliner J.A, Leech N.L, Morgan G.A. Significance testing (NHST): what do the textbooks say?. J Exp Edu. 2002; 71:83-92 [ Links ]

4. Merino C. Carta editorial. Avances en Psic Latin. 2011; 29:7-10 2011. Disponible en: http://www.scielo.org.co/scielo.php?script=sci_arttext&d=S1794-47242011000200001Links ]

5. Sterne J.A.C, Smith G.D. Sifting the evidence—what's wrong with significance test. BMJ. 2001; 322:226-31 [ Links ]

6. Cumming G. Understanding the new statistics: effect sizes, confidence intervals, and meta-analysis. New York: Routledge; 2012. [ Links ]

7. Guyatt G, Walter S, Norman G. Measuring change over time: Assessing the usefulness of evaluative instruments. J Chron Dis. 1987; 40:171-8 [ Links ]

8. Katz J, Larson M, Phillips C.H, Fossel A, Liang M. Comparative measurement sensitivity of short and longer health status instruments. Med Care. 1992; 30:917-25 [ Links ]

9. Liang M.H, Fossel A.H, Larson M.G. Comparisons of five health status instruments for orthopedic evaluation. Med Care. 1990; 28:632-42 [ Links ]

10. Cohen J. Statistical power analysis for the behavioral sciences. 2.nd ed.. Hillsdale, NJ: Lawrence Erlbaum Associates; 1988. [ Links ]

11. Cohen J. A power primer. Psychological bulletin. 1992; 112:155-9 [ Links ]

**La revisión por pares es responsabilidad de la Universidad Nacional Autónoma de México.

* Autor para correspondencia. Av. Tomás Marsano 242 (5to piso), Lima 34-Perú. cmerinos@usmp.pe sikayax@yahoo.com.ar

Creative Commons License Este es un artículo publicado en acceso abierto bajo una licencia Creative Commons