SciELO - Scientific Electronic Library Online

 
vol.10 número39Cambios y estrategias de la educación médica en respuesta a la pandemia por COVID-19Rol del aprendizaje activo en la educación médica durante la COVID-19 índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Servicios Personalizados

Revista

Articulo

Indicadores

Links relacionados

  • No hay artículos similaresSimilares en SciELO

Compartir


Investigación en educación médica

versión On-line ISSN 2007-5057

Investigación educ. médica vol.10 no.39 Ciudad de México jul./sep. 2021  Epub 31-Ene-2022

https://doi.org/10.22201/fm.20075057e.2021.39.21358 

Metodología de investigación en educación médica

Cómo construir un instrumento para evaluar la lectura crítica de investigación de informes médicos

How to construct an instrument to evaluate critical appraisal

Héctor Cobos-Aguilara  * 
http://orcid.org/0000-0002-6970-7536

a Dirección de Especialidades Médicas, Universidad de Monterrey, San Pedro Garza García, N.L., México.


Resumen

Introducción:

La investigación y la lectura crítica de informes médicos publicados (LCIM), cuando se ejercita, es el fundamento de una actividad clínica depurada. Las publicaciones médicas son exponenciales y una LCIM mejora la selección de artículos con metodología robusta. A pesar de su importancia, los currículos universitarios no enfatizan su aprendizaje. Para medir el grado de LCIM los reportes que utilizan instrumentos adolecen, en su mayoría, de validez y consistencia, lo que dificulta la toma de decisiones educativas en esta área.

Objetivo:

Compartir el proceso de construcción de un instrumento de evaluación de LCIM inmerso en una educación participativa.

Métodos:

Se presentan los pasos para construir un instrumento para evaluar la LCIM. Se define la lectura crítica como la confrontación del lector con el texto que comprende la interpretación (lo implícito del texto, el reconocimiento de los componentes metodológicos), el juicio (ponderación de los componentes del artículo consultado) y las propuestas (idear componentes que superen a los presentados por el autor) desde la experiencia del lector y en su contexto. Se enuncian los diferentes diseños y apartados que se considera debe contener un instrumento de esta naturaleza. Se propone cómo elaborar un resumen de un artículo, así como los tallos de los que se derivan los reactivos que exploran los tres indicadores citados antes, la técnica Delphi y sugerencias para determinar la consistencia.

Resultados:

Se elaboró un resumen de casos y controles, como ejemplo, así como un listado de los tres indicadores, una tabla que los identifica y la secuencia de pasos indispensables en un reporte como este.

Conclusiones:

Los instrumentos para medir la LCIM deben seguir un proceso riguroso en su elaboración, lo que permitirá tomar mejores decisiones educativas.

Palabras clave: Instrumentos de medición de lectura crítica; diseños de investigación; metodología de la investigación; aprendizaje lectura crítica

Abstract

Introduction:

Research and critical appraisal of published medical reports (CAPMR), when conducted, is pivotal to refine clinical activity. Medical publications grow exponentially, and a superior CAPMR improves the selection of articles that follow a robust methodology. Despite its relevance, university programs do not emphasize learning of the necessary techniques. Most studies designed to measure the degree of CAPMR lack validity and consistency, leading to difficulties in the educational decisionmaking process in this area.

Objective:

To share the construction process of a CAPMR evaluation instrument in the setting of participative education.

Methods:

We present the required steps to construct an instrument to appraise CAPMR. Critical reading/appraisal is defined as the reader´s confrontation of the text, and includes interpretation (what is implicit in the text, recognition of the methodology components), judgment (pondering of the consulted article´s components), and proposals (conceiving components that are superior to those presented by the author), all based on the reader´s experience and context. The different designs and headings that an instrument of this nature must include are presented. We propose how to draft the summary of an article, as well as the roots from which items are derived and that explore the three previously mentioned indicators, the Delphi technique as well as suggestions to determine the study´s consistency.

Results:

We compiled a summary of Case Control Study, as an example, and a listing of the three indicators, a table that identifies them and the sequence of the indispensable steps to be followed in a report such as this.

Conclusions:

Instruments to measure CAPMR must follow a rigorous construction process and will lead to better educational decisions.

Keywords: Measuring instruments in critical appraisal; research designs; methodology in research; learning critical reading

Introducción

La investigación se considera el fundamento para una buena práctica médica a través de la medicina basada en evidencias1. Por ello, la formación en investigación se constituye como una herramienta fundamental que debe estimularse desde los primeros grados de la carrera de medicina. Este objetivo es difícil de lograr en las universidades a nivel global2. Los estudios para evaluarla, así como los obstáculos para la misma, muestran aún la insuficiencia en su desarrollo3.

Para incentivar la investigación y la publicación de sus resultados en artículos científicos, se han introducido cambios en los currículos de las universidades interesadas en estos aspectos4. También se han llevado a cabo estrategias educativas para tal fin y, más recientemente, actividades educativas de participación y de Peer-Assisted Learning (PAL)5.

Los cambios curriculares se relacionan con la idea que las autoridades tengan del conocimiento y su consecuente respuesta para el desarrollo de la investigación como un medio para mejorar la atención médica.

Cuando la idea del conocimiento se relaciona con la construcción del aprendizaje, la experiencia vivencial de los alumnos, bajo la conducción de profesores que estimulen su participación, la conducen a resultados más satisfactorios y permanentes, cuando se utiliza la lectura crítica de artículos de investigación médica (LCIM). Esta se resume como una confrontación entre el lector y el texto, en este caso el artículo, para penetrar más allá de lo explícito en sus tres componentes: interpretación, juicio y propuestas.

La LCIM es fundamental para realizar la selección de los mejores trabajos asequibles al médico en el entorno en que se desempeña profesionalmente, y se encuentra entre las habilidades primordiales en una educación que se ha denominado participativa, en la que el alumno construye paulatinamente su aprendizaje para mejorar su conocimiento médico en una actividad interminable y cada vez más depurada6.

Por ello es importante identificar el desarrollo de esta habilidad compleja en los alumnos a través de la aplicación de instrumentos válidos y consistentes7 para una toma adecuada de decisiones en el proceso educativo. Sin embargo, varios metaanálisis muestran que los instrumentos de LCIM utilizados no aportan los datos suficientes para evaluar su validez y consistencia8-10.

La LCIM se ha generalizado después de las publicaciones iniciales de la Universidad de Mc Master, en la que se identificaban los aspectos más fuertes de un diseño, sus posibles sesgos y las pruebas estadísticas más adecuadas en los cuatro diseños que consideraban como más importantes para el médico en ese momento: casos y controles, pruebas diagnósticas, cohortes y ensayo clínico aleatorizado11-15. Posteriormente se ampliaron los conceptos con las publicaciones de Riegelman16, quien profundiza aún más en los aspectos fuertes y débiles de los distintos diseños. Con Sackett y su obra Epidemiología Clínica17 se desarrolla la Medicina Basada en Evidencias18 y se establecen así los elementos más importantes para evaluar o criticar un artículo médico. En los últimos años, las guías correspondientes a la lectura crítica en diferentes diseños emitidos en Inglaterra, Critical Appraisal Skills Programme (CASP) muestran el esfuerzo que existe para que los lectores identifiquen los aspectos más fuertes y débiles de un artículo médico publicado19-23.

En México, Leonardo Viniegra inicia con la LCIM y a partir de sus primeros trabajos se desarrolla una línea de investigación muy profusa24-26.

En esta línea se considera a la LCIM como una herramienta compleja e indispensable en la formación del personal de salud y comprende la interpretación, juicio y propuestas (tabla 1, ver concepto).

Tabla 1 Ejemplo de indicadores* para un estudio de casos y controles 

Indicador Concepto Tallo Reactivo
Interpretar General. Explora lo implícito del artículo revelando la postura de los autores, las lógicas e ideas, la relevancia de las teorías explicativas, la aplicabilidad. El contexto en el que se desarrolla: dominación, desigualdad, pasividad ante el conocimiento, conformismo, sumisión, burocratismo, mercantilismo, cultura. Metodológico. Reconocimiento del tipo de estudio y diseño, tipo de variables y su manipulación. Población estudiada, integración de grupos comparativos. Desciframiento de tablas, gráficos, códigos, signos. Identificación de las características del instrumento de medición (escala, precisión, exactitud, adecuación empírica).
  • B)

  • E)

  • 3

  • 11,12,

  • 13, 14,

Enjuiciar General. Evalúa la credibilidad de la información, la relevancia de las ideas. La aplicabilidad. Metodológico. Evalúa la fortaleza del estudio (fuerte vs. débil), la validez extrínseca, las circunstancias de la observación, la integración de grupos, la asignación, la representatividad muestral, la adecuación del texto, la originalidad, la relevancia, la prioridad, la trascendencia.
  • A)

  • B)

  • C)

  • D)

  • 1

  • 2,

  • 4, 5, 6, 7

  • 8, 9, 10

Proponer General. Aporta credibilidad, relevancia, aplicabilidad. Metodológico. Idea mejores proyectos, propone indagaciones superiores a las planteadas, o diferentes que le otorgan más sentido al lector en su contexto cultural, económico y social. F) 15-20

* Viniegra-Velázquez L. Las aptitudes para leer críticamente la información, prioridades ignoradas en la formación de los médicos. Inv ed Med. 2012;1(4):199-209.

Es importante aclarar este punto porque a continuación se desarrolla un diseño para un instrumento de acuerdo a esta visión, y el componente metodológico es el único aspecto que comparte con las CASP, ya que va más allá, al considerar el entorno en el que lleva a cabo la investigación y los beneficios de su implementación.

Los instrumentos así elaborados son parte esencial de la evaluación de un proceso educativo e indispensables para tomar decisiones curriculares, de estrategias educativas y aún de formación docente. No se utilizan como instrumentos únicos para asignar una calificación, más aún, sin implementar una estrategia para el desarrollo de la LCIM.

El objetivo del presente estudio es compartir el desarrollo de un instrumento para medir la lectura crítica de investigación de artículos médicos publicados.

¿Para qué elaborar un instrumento de lectura crítica de investigación?

En general para indagar el grado de esta aptitud en los alumnos27. Aunque se considera indispensable para evaluar avances después de un curso de investigación que desarrolle esta habilidad28. Además, para comparar con otros grupos en diferentes escenarios o en estudios de seguimiento con el fin de determinar su validez extrínseca (concurrente y predictiva)29.

Una vez resueltas estas interrogantes, el docente deberá preguntarse si está preparado para contestar todas las dudas que los alumnos manifestarán en caso de dirigir estrategias de participación, en las que la crítica es el aspecto central. El instrumento que construya estará a la altura de sus propios avances en la LCIM.

¿Qué estudios o diseños se recomiendan en un instrumento de lcim?

Es aconsejable incluir ocho diseños:

  1. Construcción de instrumentos

  2. Encuestas descriptivas

  3. Casos y controles

  4. Pruebas diagnósticas

  5. Ensayos clínicos aleatorizados (ECA)

  6. Estudios de cohorte

  7. Sobrevida

  8. Metaanálisis

¿Qué artículos incluir?

En una etapa previa a la elaboración del instrumento se realiza una búsqueda en las bases de datos más populares (MEDLINE, MedicLatina, etc.) para seleccionar los ocho diseños recomendados. En inglés pueden encontrarse todos los artículos, descargarlos y leerlos críticamente para evaluar la construcción y lo adecuado del diseño, resultados y discusión (ver abajo, elaboración de reactivos). No es una tarea sencilla, pues muchos artículos carecen de los aspectos que se amerita explorar. Se recomienda seleccionar aquellos relacionados con el quehacer médico en su entorno. En español existen menos estudios de cohortes, pruebas diagnósticas, seguimiento y metaanálisis. En general, se pueden revisar hasta 100 artículos de los cuales solamente se incluirán ocho. La decisión para su selección puede ser personal o de los jueces, aunque es preferible no abrumarlos con trabajo excesivo.

Ya con los artículos seleccionados, ¿qué sigue?

Por cada artículo se elabora un resumen, no más de media cuartilla, que incluya solamente los aspectos a explorar. Se redacta sin faltas de ortografía, con buena sintaxis, con claridad, con uso adecuado del Sistema Internacional de Unidades y, si se incluyen gráficas o cuadros, asegurar su correcta visualización. Para orientar la elaboración de un resumen, los tallos y los reactivos, se hizo el resumen de un artículo publicado de casos y controles, como ejemplo30(anexo 1). Se podrá observar la mirada de quien confeccionó el instrumento, que está implícita en el resumen y los indicadores elaborados.

Elaboración de tallos

Del resumen se elaboran tallos, que agrupan aspectos relacionados para grupos de reactivos que exploren interpretación, juicio y propuestas, que son referidos más ampliamente en la tabla 1 con letras mayúsculas.

Los tallos pueden indagar: aspectos como ideas o posturas ante la investigación o sobre cualquier tema que el docente considere indagar, cultura de género, violencia simbólica, dependencia económica, colonialismo, etc., que generalmente se encuentran implícitas en la introducción o aspectos metodológicos que se refieren enseguida.

Las guías CASP pasan por alto estos aspectos, cruciales para el desarrollo de un juicio crítico y aún epistemológico de la investigación, y se enfocan más en áreas metodológicas.

Elaboración de reactivos

Cuando se inicia esta experiencia los reactivos son más frecuentes para indagar aspectos metodológicos del diseño o su correcta identificación, ya que en muchos artículos está implícito u omitido, o no corresponde al presentado. Asimismo, ponderar si fue el más adecuado de acuerdo al objetivo planteado. Posteriormente se procede a la crítica de la selección muestral con sus variantes (aleatoria, no aleatoria) y la indagación sobre las características generales de una población. La correcta determinación del tamaño muestral se evalúa en el contexto del diseño. Se puede profundizar en la definición operacional de las variables y su clasificación (dependiente, independiente, controladas) y la escala de medición de la variable dependiente. Además, si será uno o más evaluadores, qué se mide, con qué, cuándo, cómo, para qué, cuántas veces, etc., y la referencia a la consistencia de las mediciones, lo que ofrece muchas posibilidades de indagación.

Si se diseñó una encuesta, la referencia a su validación y consistencia son evaluadas. Si se realiza un ECA la ceguedad de los evaluadores es imprescindible, así como en los demás diseños. Es crucial identificar si se revisan expedientes o individuos. La pertinencia de las pruebas estadísticas a utilizar y su significancia clínica son evaluadas también. La sección de resultados ofrece un caudal de información para indagar: la medición inicial y final de las variables en dos o más grupos de intervención, el sustento de los estadísticos utilizados, con sus intervalos de confianza, ausentes en muchos reportes. Además, descifrar los datos en los cuadros o tablas, con los valores de significancia estadística, es primordial para la crítica.

En la discusión se pondera la adecuada interpretación de los resultados y su adaptación al entorno del lector, la serendipia, el costo beneficio de alguna implementación diagnóstica, etc.

Las posibilidades de indagación son muy diversas y se relacionan con los alcances de quien elabora el instrumento (anexo 2).

Si existen dudas en estos tallos se pueden consultar los diferentes documentos que apoyan los aspectos básicos para la publicación de un artículo como STROBE, PRISMA, CONSORT, etc.31-34. Para orientarse más se puede utilizar una tabla de especificaciones con cada uno de los aspectos referidos arriba.

Conformación del instrumento

Se elaborarán todos los reactivos posibles, para seleccionar los más adecuados que estarán en el instrumento final.

Se recomienda, para cada diseño, elaborar 18 reactivos o un poco más (seis por indicador) que deben equilibrarse con respuestas correctas, falsas o verdaderas. Es aconsejable equilibrar el número de reactivos por cada diseño para que el instrumento final contenga 72 o 96 reactivos o múltiplos de ellos y facilitar la interpretación de los resultados. En nuestra experiencia utilizamos las respuestas tipo falso, verdadero o no sé, que permiten, a nuestro juicio, una aproximación más cercana al desarrollo de la LCIM35. La redacción y ortografía adecuadas son esenciales para proceder a la siguiente etapa.

El resumen aquí propuesto de casos y controles, los tallos y reactivos conforman un diseño que se agregarán a los otros siete seleccionados por quien construya el instrumento global. Este resumen y los reactivos elaborados están abiertos a todas las posibilidades de indagación. Los jueces los evaluarán y realizarán las observaciones pertinentes.

Una vez elaborados los resúmenes, tallos y reactivos, ¿Qué sigue?

Se procede a realizar la técnica Delphi36-37 o el juicio de los expertos. Para ello se invita, por lo menos, a cinco expertos en investigación y lectura crítica para que revisen lo elaborado. Parece sencillo, pero en nuestro medio no existen muchos investigadores con ambas habilidades. Lo más adecuado es recurrir a expertos con actividad docente, que publiquen o sean miembros de algún comité de investigación, pues se espera que estén más actualizados en los aspectos metodológicos de la investigación. Una vez aceptada la invitación se les envía un documento en el que se explica el motivo de la revisión, qué se pretende que realicen y cómo se deben responder los reactivos.

En la técnica Delphi se busca que los jueces emitan una evaluación ciega e independiente de los resúmenes, los tallos y los reactivos, tanto en redacción o sintaxis y de acuerdo a la mirada teórica de la construcción del instrumento, así como las respuestas (falsas o verdaderas) a los reactivos que consideren adecuados en una primera ronda.

Actualmente, la invitación y envío del primer borrador puede realizarse por medios electrónicos. Es necesario asegurar que los jueces ignoran quiénes son los otros evaluadores. Después del primer envío hay que esperar las recomendaciones y respuestas de todos. Si se eligen bien, los expertos responden, en general en tres semanas. Una vez con las observaciones de los cinco expertos, se revisan las recomendaciones tanto en el manejo de la redacción, sintaxis del resumen, la adecuación de los tallos y de los reactivos a explorar, como en la respuesta a estos últimos, cuando cumplen adecuadamente con su construcción.

Enseguida se seleccionan las respuestas que otorgaron los jueces a los reactivos correctamente elaborados con un acuerdo en las respuestas de 4/5 o 5/5. Casi 70% de los reactivos pasan esta primera ronda si se construyen con cuidado.

Para el envío de la segunda ronda se realizan las adecuaciones a las observaciones de los jueces en el resumen, tallo y reactivos respectivos. Los reactivos con acuerdo igual o menor a 3 se reelaboran si están mal construidos, así como los reactivos bien construidos (sin observaciones), pero con acuerdo 3/5. Se envían los resúmenes con las adecuaciones, si las hubo, y solo con los reactivos referidos antes. Después de este segundo envío se esperan las respuestas y observaciones de todos los expertos.

Una vez recibidos los documentos, se seleccionan los reactivos en los que hubo un acuerdo de 4/5 o 5/5. Serán menos, pero se agregan a los que ya se tenían de la primera ronda.

Algunos autores recomiendan hacer tres rondas, sin embargo, si se seleccionaron bien los jueces, no es necesaria pues el acuerdo no varía mucho y evitamos el retraso en el resultado final y la fatiga de los jueces.

Ya con las dos rondas, ¿Qué sigue?

Ahora hay que equilibrar el instrumento. Por eso se incluyeron más reactivos de los necesarios. El equilibrio es importante porque facilita la interpretación de los resultados.

Se sugiere equilibrar el número de reactivos por diseño, por indicador y respuesta (falsas y verdaderas). Por ejemplo, 12 por diseño y 32 por indicador o 9 por diseño y 24 por indicador. Al contar con más reactivos es posible seleccionar aquellos con acuerdo 5/5 o 4/5 en la segunda. Ya con todos los reactivos y con la respuesta correcta para la calificación y una vez equilibrado el instrumento, se procederá a la siguiente etapa.

La prueba piloto

Para ello se selecciona un grupo de alumnos (mayor a 30) semejante al que se va a aplicar el instrumento definitivo. Se elabora una página frontal con las instrucciones de resolución y fines del instrumento. Los alumnos no están acostumbrados a este tipo de evaluaciones por lo que las instrucciones sobre su resolución y cómo responder como verdadero, falso o no sé, deben ser muy claras. De la misma manera, cómo se va a calificar, sumar un punto si la respuesta al reactivo es correcta, restar un punto si la respuesta es incorrecta, y sin adicionar o sustraer puntos si la respuesta es no sé. Asimismo, se solicita realizar observaciones a las instrucciones del instrumento, la comprensión del texto, etc.

Si el instrumento está bien construido y las instrucciones son claras, los alumnos realizan pocas observaciones. Se les pide también contestar el instrumento y cuantificar el tiempo de resolución, que para un instrumento de 96 reactivos, promedia 40 minutos aproximadamente (rango: 30 a 65).

Consistencia del instrumento

Para determinar la consistencia, se pueden usar los resultados de la prueba piloto, si no hubo observaciones o aplicar en otro grupo semejante al que se pretende evaluar. Las respuestas se transforman en correctas e incorrectas, de acuerdo a la plantilla de referencia. Es decir, las respuestas no sé, se transforman en incorrectas y las correctas se dejan como tales. Se construye una tabla Excel con las hileras que corresponden a los alumnos y las columnas a las respuestas por diseño e indicador. Se determina entonces la consistencia por la fórmula 20 de KudderRichardson38 cuyo resultado (coeficiente de consistencia) también se calcula en SPSS para facilitar su resolución por diseño, indicador y pregunta. Para fortalecer los resultados de la consistencia se pueden comparar los valores de los percentiles extremos (25 vs. 75) para buscar una diferencia significativa.

Asimismo, se concentran las calificaciones de cada alumno para reportarlas como medianas (al sumar o restar un punto o dejar en cero cada una de las 96 respuestas, en su caso) así como para cada diseño, indicador y reactivo, para su análisis en un programa estadístico SPSS.

El análisis de los datos se facilita al construir el instrumento en medios electrónicos (Google Docs, por ejemplo) que además concentran los resultados en una matriz de Excel. Si se elabora en papel se aconseja desarrollar un método electrónico para su captura y calificación ya que ahorra horas de trabajo en la emisión de los resultados.

¿Y ahora ya con el instrumento, qué sigue?

Aplicarlo en el o los grupos para los que se construyó. Si se busca un diagnóstico solamente se aplica una vez, aunque con todo el trabajo invertido en su elaboración, es recomendable realizar estrategias educativas y aplicarlo una segunda vez después de un curso de LCIM. Posteriormente aplicar en otros grupos para determinar la validez extrínseca, compararla con otros instrumentos para determinar su validez concurrente y aún la validez predictiva.

Es muy importante que el instrumento no pierda validez y que no haya copia en su resolución o que se difunda de manera inadecuada porque esto limitaría su validez y consistencia, con la pérdida del esfuerzo elaborado por tantas personas. En la figura 1 se muestran los pasos del proceso detallado.

Figura. 1 Pasos en la elaboración de un instrumento de lectura crítica de informes de investigación publicados. 

Es recomendable publicarlo como un artículo pues el proceso de validación y su consistencia apoyan su validez extrínseca.

Conclusión

Los instrumentos de evaluación de habilidades complejas como la LCIM, y en general los utilizados en investigación educativa, deben construirse con rigor metodológico para tomar decisiones en el proceso educativo, que impactan el aprendizaje de los alumnos. Este artículo pretende apoyar a los docentes para disminuir este sesgo.

Referencias

1. Kang H. How to understand and conduct evidence-based medicine. Korean J Anesthesiol. 2016;69(5):435-45. [ Links ]

2. Kharraz R, Hamadah R, Alfawaz D, Attasi J, Obeidat AS, Alkattan W, et al. Perceived barriers towards participation in undergraduate research activities among medical students at Alfaisal University - College of Medicine: A Saudi Arabian perspective. Med Teach. 2016;38:S12-S18. [ Links ]

3. Aguirre-Raya KA, Castilla-Peón MF, Barajas-Nava LA, Torres-Rodríguez V, Muñoz-Hernández O, Garduño-Espinosa J. Self-perception and knowledge of evidence based medicine by physicians. [Internet] BMC Med Educ; 2016 [Citado 2020 Diciembre 25]. Disponible en: http://dx.doi.org/10.1186/ s12909-016-0681-6. [ Links ]

4. Stone C, Dogbey GY, Klenzak S, Van Fossen K, Tan B, Brannan GD. Contemporary global perspectives of medical students on research during undergraduate medical education: a systematic literature review. [Internet] Med Educ Online; 2018 [Citado 2020 Diciembre 25] Disponible en: https://doi. org/10.1080/10872981.2018.1537430. [ Links ]

5. Sammaraiee Y, Mistry RD, Lim J, Wittner L, Deepak S, Lim G. Peer-assisted learning: filling the gaps in basic science education for preclinical medical students. Adv Physiol Educ. 2016;40(3):297-303. [ Links ]

6. Viniegra-Velázquez L. Las aptitudes para leer críticamente la información, prioridades ignoradas en la formación de los médicos. Inv ed Med. 2012;1(4):199-209. [ Links ]

7. Cobos Aguilar H. Lectura crítica de investigación en educación médica. Inv ed Med . 2016;5(18):115-20. [ Links ]

8. Katrak P, Bialocerkowski AE, Massy-Westropp N, Kumar VSS, Grimmer KA. A systematic review of the content of critical appraisal tools. BMC Med Res Methodol. 2004;4:1-11. [ Links ]

9. Crowe M, Sheppard L. A review of critical appraisal tools show they lack rigor: Alternative tool structure is proposed. J Clin Epidemiol. 2011;64(1):79-89. [ Links ]

10. Munthe-Kaas HM, Glenton C, Booth A, Noyes J, Lewin S. Systematic mapping of existing tools to appraise methodological strengths and limitations of qualitative research: First stage in the development of the CAMELOT tool. BMC Med Res Methodol . 2019;19(1):1-14. [ Links ]

11. Departament of Clinical Epidemiology and Biostatistic MMUHSC. How to read clinical journals: I. Why to read them and how to start reading them critically. Can Med Assoc J. 1981;124(5):555-8. [ Links ]

12. Departament of Clinical Epidemiology and Biostatistic MMUHSC. How to read clinical journals: II. To learn about a diagnostic test. Can Med Assoc J . 1981;124(6):703-10. [ Links ]

13. Departament of Clinical Epidemiology and Biostatistic MMUHSC. How to read clinical journals: III. To learn the clinical course and prognosis of disease. Can Med Assoc J . 1981;124(7):869-72. [ Links ]

14. Departament of Clinical Epidemiology and Biostatistic MMUHSC. How to read clinical journals: IV. To determine etiology or causation. Can Med Assoc J . 1981;124(8):985-90. [ Links ]

15. Departament of Clinical Epidemiology and Biostatistic MMUHSC. How to read clinical journals: V. To distinguish useful from useles or even harmful therapy. Can Med Assoc J . 1981;124(9):1156-62. [ Links ]

16. Riegelman RK, Hirsch RP. Cómo estudiar un estudio y probar una prueba: lectura crítica de la literatura médica. 2ª ed. Washinton, D.C.: OPS,1992 (Publicación científica; 531). [ Links ]

17. Sackett D, Haynes B, Guyatt G, Tugwell P. Clinical Epidemiology: A basic science for clinical medicine. 2nd Ed. Boston: Little, Brown and Company;1991. [ Links ]

18. Sackett DL, Straus SE, Richardson WS, Rosenberg W, Haynes RB. Evidence-based Medicine: How to Practice and Teach EBM. 2nd ed. Edinbourgh. Churchill Livingstone; 2000. [ Links ]

19. Critical Appraisal Skills Programme. CASP. Qualitative Checklist. [Internet] 2018 [citado 2020 Diciembre 25]. Disponible en:Disponible en: https://casp-uk.net/wp-content/uploads/2018/03/CASPQualitative-Checklist-2018_fillable_form.pdfLinks ]

20. Critical Appraisal Skills Programme. CASP. Case Control Study Checklist. [Internet] 2018 [citado 2020 Diciembre 25]. Disponible en: Disponible en: https://casp-uk.net/wp-content/uploads/2018/03/ CASP-Case-Control-Study-Checklist-2018_fillable_form.pdfLinks ]

21. Critical Appraisal Skills Programme. CASP. Cohort Study Checklist. [Internet] 2018 [citado 2020 Diciembre 25]. Disponible en: https://casp-uk.net/wp-content/uploads/2018/03/ CASP-Cohort-Study-Checklist-2018_fillable_form.pdf [ Links ]

22. Critical Appraisal Skills Programme. CASP. Diagnostic Checklist. [Internet] 2018 [citado 2020 Diciembre 25]. Disponible en:Disponible en: https://casp-uk.net/wp-content/uploads/2018/03/ CASP-Diagnostic-Checklist-2018_fillable_form.pdfLinks ]

23. Critical Appraisal Skills Programme. CASP. Randomised Controlled Trial Checklist. [Internet] 2020 [citado 2020 Diciembre 25]. Disponible en: Disponible en: https://casp-uk.net/wp-content/uploads/2020/10/CASP_RCT_Checklist_PDF_Fillable_Form.pdfLinks ]

24. Cobos-Aguilar H, Viniegra-Velázquez L, Pérez-Cortés P. Papel de la discusión creadora en el aprendizaje de la lectura crítica de artículos científicos. Rev Invest Clin. 2011;63(3):268-78. [ Links ]

25. Cobos-Aguilar H, Espinosa-Alarcón P, Viniegra-Velázquez L. Comparación de dos estrategias educativas en la lectura crítica de médicos residentes. Rev Investig Clin. 1996; 48(6)431-6. [ Links ]

26. Lira SC, Varela A. Aptitud para la lectura crítica de estudios de investigación clínica en médicos especialistas en adiestramiento. Ginecol Obstet Mex. 2007;75(11):678-81. [ Links ]

27. Cabrera-Pivaral CE, González-Pérez GJ, Vega-López MG, Recinos-Girón JJ, Zavala-González MA, Alonso-Álvarez MA. Intervención educativa en médicos residentes para el dominio de lectura crítica de reportes de investigación. Inv ed Med . 2015;4(15):119-25. [ Links ]

28. Cobos-Aguilar H, Pérez-Cortés P, Ramírez-Munguía M, TapiaOrozco JA. Lectura crítica de investigación en estudiantes de medicina. Efectos a un año. Rev Med Inst Mex Seguro Soc. 2006;44(Supl 3):S85-S91. [ Links ]

29. Tsai YS, Fang TP, Chi CC. A scale for measuring evidencesearching capability: A development and validation study. J Eval Clin Pract. 2019;25(4):676-81. [ Links ]

30. Checya-Segura J, Moquillaza-Alcántara VH. Factores asociados con preeclampsia severa en pacientes atendidas en dos hopsitales en Huánuco, Perú. Ginecol Obstet Mex . 2019; 87(5):295-301. [ Links ]

31. Von Elm E, Altman DG, Egger M, Pocock SJ, Gøtzsche PC, Vandenbroucke JP. The Strengthening the Reporting of Observational Studies in Epidemiology (STROBE) Statement: guidelines for reporting observational studies. Int J Surg. 2014 Dec;12(12):1495-9. [ Links ]

32. Montgomery P, Grant S, Mayo-Wilson E, Macdonald G, Michie S, Hopewell S, et al. Reporting randomised trials of social and psychological interventions: the CONSORT-SPI 2018 extension. Trials. 2018;19(1):1-14. [ Links ]

33. Linares-Espinós E, Hernández V, Domínguez-Escrig JL, Fernández-Pello S, Hevia V, Mayor J, et al. Metodología de una revisión sistemática. Actas Urol Esp. 2018;42(8):499-506. [ Links ]

34. Zeng X, Zhang Y, Kwong JSW, Zhang C, Li S, Sun F, et al. The methodological quality assessment tools for preclinical and clinical studies, systematic review and meta-analysis, and clinical practice guideline: A systematic review. J Evid Based Med. 2015;8(1):2-10. [ Links ]

35. Viniegra-Velázquez L. Algunas consideraciones comparativas entre los exámenes de opción múltiple tipo “una de cinco” y Falso/Verdadero/No Sé. Rev Invest Clínica. 1979;(31):413-20. [ Links ]

36. Sadi J, Torchia E, Faber KJ, Macdermid J, Lalonde C, Watson L, et al. Posterior shoulder instability classification, assessment, and management: An international Delphi study. J Orthop Sports Phys Ther. 2020;50(7):373-80. [ Links ]

37. Valdés MG, Marín MS. El método Delphi para la consulta a expertos en la investigación científica. Rev Cuba Salud Pública. 2013;39(2):253-67. [ Links ]

38. Campo-Arias A, Oviedo HC. Propiedades Psicométricas de una Escala: la Consistencia Interna. [Internet] Revista de Salud Pública 2008 [citado 2020 Diciembre 26]. Disponible en: Disponible en: https://www.redalyc.org/articulo.oa?id=42210515Links ]

Financiamiento

Ninguno.

ANEXO 1

Resumen de casos y controles para instrumento de evaluación de la LCRIM

Resumen 1

En Perú, la preeclampsia severa (PEES) es la causante de 12.7% de las muertes maternas, por lo que se busca identificar sus factores predisponentes. Se realizó un estudio de casos y controles en dos hospitales. Los casos fueron las embarazadas hospitalizadas con criterios diagnósticos de PEES con tensión arterial arriba de 160-110 mmHg. Los controles fueron las embarazadas sin este diagnóstico. Se estudiaron varios factores como edad (<20 o >35 años), preeclampsia previa y diabetes mellitus, primigravidez, 5 o menos controles prenatales, estrés y ansiedad (reportes de psicología) entre otros. Todos los datos se obtuvieron de los registros médicos. El tamaño muestral se determinó con α = 95%, ß = 80%, proporción de casos expuestos de 35% y proporción de controles expuestos de 21%, con dos controles por caso (128 casos y 255 controles). Se realizó un muestreo probabilístico, aleatorio, simple. El instrumento de recolección de datos se conformó con preguntas cerradas dicotómicas y politómicas. Se usó razón de momios (RM) e intervalo de confianza del 95% para medir la asociación y el análisis multivariado. Resultados: Se incluyeron 408 participantes: 136 casos y 272 controles. Los resultados de algunos factores PEES se muestran en la tabla 1. Discusión: El cuidado prenatal deficiente (consultas prenatales 5 o menos) fue un cercano factor de riesgo. Algunos reportes refieren que la contaminación ambiental, la ansiedad y el tráfico vehicular son factores para la aparición de preeclampsia. Se encontró poca evidencia de PEES y pudo haber sobreestimación de casos. Conclusiones: Entre otros factores la diabetes mellitus se encuentra como factor protector.

Tabla 1 Algunas variables estudiadas en asociación con la preeclampsia severa 

Preeclampsia severa
Variables Con (n = 136) Sin (n = 272)
n (%) n (%) p* OR ** IC 95%
Edad < 20 años (22.8) (30.2) 0.008 0.49 0.29-0.84
Edad > 35 años (37.5) (25.4) 0.001 3.9 2.2-7.2
Primigravidez (16.9) (18.8) 0.44 0.79 0.43-1.5
Diabetes mellitus (6.6) (3.3) 0.002 0.93 0.89-0.88
consultas o menos (22.1) (17.7) 0.06 1.86 0.98-3.5
Antecedente de PEE (14.7) (7.7) 0.001 13.3 3.1-176.1

*Análisis multivariado. ** Odds Ratio. IC: Intervalo de confianza. PEE: preeclampsia.

ANEXO 2

Tallos y reactivos para casos y controles

Conteste, de acuerdo a su experiencia y una vez leído el resumen, si las respuestas son ciertas o falsas.

A) En relación con el tema abordado

  • 1. _____ Se trata de un problema relevante. (JUI)

B) En relación con el diseño

  • 2. _____ De acuerdo al objetivo, es el más adecuado. (JUI)

  • 3. _____ Se trata de un estudio de efecto a causa. (INT)

C) Son aspectos metodológicos que le confieren validez al estudio

  • 4. _____ La definición operacional de los casos. (JUI)

  • 5. _____ Los controles sin PEES. (JUI)

  • 6. _____Los factores estudiados. (JUI)

  • 7. _____ El instrumento utilizado. (JUI)

D) En relación con la muestra, son características que le confieren fortaleza al estudio

  • 8. _____ La fórmula usada para determinar el tamaño muestral. (JUI)

  • 9. _____ El número de controles por caso. (JUI)

  • 10. _____ La técnica de aleatorización utilizada. (JUI)

E) De acuerdo a los resultados de la tabla 1

  • 11. _____ Los límites de edad referidos pueden considerarse como factores de riesgo o protectores. (INT)

  • 12. _____La primigravidez puede considerarse un factor protector. (INT)

  • 13. _____ De acuerdo al análisis multivariado, las cinco consultas o menos son un factor de riesgo. (INT)

  • 14. _____De acuerdo a los IC 95% considerar el antecedente de PEES como un factor de riesgo. (INT)

F) Son propuestas al autor

  • 15. _____Realizar una encuesta comparativa por la poca evidencia de PEES.

  • 16. _____Replantear en la discusión el comentario sobre consultas prenatales 5 o menos.

  • 17. _____ Incluir los resultados de ansiedad.

  • 18. _____Discutir el papel de la diabetes mellitus como factor protector.

  • 19. _____Referir los procedimientos para disminuir el sesgo de información.

  • 20. _____Referir la consistencia de los evaluadores de la información.

Recibido: 03 de Enero de 2021; Aprobado: 04 de Marzo de 2021

* Autor para correspondencia: Héctor Cobos Aguilar. Calle 8 No. 430. Col. Villa Azul, C.P. 66421.San Nicolás de los Garza, N. L. Tel: 81 8376 8504 Correo electrónico: cobos.hector@gmail.com

Contribución individual

HCA: Redacción del manuscrito.

Conflicto de intereses

El presente estudio no presenta conflicto de intereses por los autores.

Creative Commons License Este es un artículo publicado en acceso abierto bajo una licencia Creative Commons