SciELO - Scientific Electronic Library Online

 
vol.161 número3Salud mental y manifestaciones psicosomáticas en estudiantes de medicina de pregrado índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Servicios Personalizados

Revista

Articulo

Indicadores

Links relacionados

  • No hay artículos similaresSimilares en SciELO

Compartir


Gaceta médica de México

versión On-line ISSN 2696-1288versión impresa ISSN 0016-3813

Gac. Méd. Méx vol.161 no.3 Ciudad de México may./jun. 2025  Epub 29-Ago-2025

https://doi.org/10.24875/gmm.25000091 

Cartas al editor

ChatGPT al servicio de la medicina

ChatGPT at the service of medicine

Mónica Regalado-Chamorro1  * 

Aldo Medina Gamero2 

1Departamento de Letras, Universidad San Ignacio de Loyola

2Facultad de Humanidades, Universidad Tecnológica del Perú. Lima, Perú


El aumento del uso de la tecnología en el campo de la salud promueve una interacción más efectiva de los pacientes y el personal médico. Hemos visto avances interesantes en inteligencia artificial, como ChatGPT, que no solo maneja datos, sino que también se relaciona con nosotros de una manera más humana.

El artículo «ChatGPT: oportunidades y riesgos en la asistencia, docencia e investigación médica»1 señala que dicho sistema de IA tiene el potencial de aumentar la precisión del diagnóstico y de los tratamientos médicos, lo que es válido. Por ello, consideramos que la investigación es de gran aporte, sabiendo que ChatGPT actúa como un motor de búsqueda. No obstante, es necesario preguntarse si la información que ofrece es fiable.

Tras la crisis de la COVID-19 se ha notado un aumento en el uso de la telemedicina. En este contexto, ChatGPT viene contribuyendo en la transición hacia la atención médica remota al crear asistentes virtuales que gestionan los datos de salud y dan asistencia para recibir los tratamientos.2 Sin embargo, el uso irresponsable por parte de los pacientes podría llevar a malentendidos y aceptar como ciertas algunas respuestas que podrían ser incorrectas. Por ejemplo, ante la pregunta «Tengo dolor de cabeza, ¿qué me recomiendas tomar?", ChatGPT brindó la siguiente respuesta: «Lo primero que puedes hacer es beber agua, especialmente si crees que es por deshidratación. También puedes probar con un té de menta o manzanilla, ya que tienen propiedades relajantes. Si el dolor es causado por la falta de cafeína, una bebida con cafeína, como café o té, podría ayudarte. En caso de que el dolor sea más intenso, un analgésico de venta libre, como paracetamol o ibuprofeno, puede aliviarlo, pero siempre siguiendo las instrucciones del envase». Por lo tanto, algunas de estas respuestas pueden ser consideradas correctas por muchas personas, lo que podría hacer que «el remedio sea peor que la enfermedad».

Es importante recordar que esta tecnología está en una etapa temprana de su desarrollo, lo que puede resultar en errores o información incompleta. Además, podría provocar problemas legales o violar derechos de autor al ayudar en la elaboración de documentos académicos.3

En conclusión, ChatGPT puede ser útil para los médicos, aunque su avance, al igual que el de otras tecnologías de inteligencia artificial, todavía está en sus etapas iniciales, y su uso siempre debe ser supervisado. También es importante entender que la IA es una herramienta útil, pero que no debería sustituir el análisis crítico de las personas.

Bibliografía

1. Gutiérrez-Cirlos C, Carrillo-Pérez DL, Bermúdez-González JL, Hidrogo-Montemayor I, Carrillo-Esper R, Sánchez-Mendiola M. ChatGPT:oportunidades y riesgos en la asistencia, docencia e investigación médica. Gac Med Mex. 2023;159(5):382-9. [ Links ]

2. Medinacelli KI, Silva MM. Impacto y regulación de la inteligencia artificial en el ámbito sanitario. Revista IUS. 2023;15(48):77-113. [ Links ]

3. Regalado M, Medina A. La inteligencia artificial al servicio de la medicina. Aten Prim Prac. 2022;4(3):100143. [ Links ]

FinanciamientoNinguno.

Consideraciones éticas

Protección de personas y animales. Los autores declaran que para esta investigación no se han realizado experimentos en seres humanos ni en animales.

Confidencialidad, consentimiento informado y aprobación ética. El estudio no involucra datos personales de pacientes ni requiere aprobación ética. No se aplican las guías SAGER.

Declaración sobre el uso de inteligencia artificial. Los autores declaran que no utilizaron ningún tipo de inteligencia artificial generativa para la redacción de este manuscrito.

Recibido: 03 de Marzo de 2025; Aprobado: 10 de Marzo de 2025

* Correspondencia: Mónica Regalado-Chamorro E-mail: regaladomonica26@gmail.com

Conflicto de intereses

Ninguno.

Creative Commons License Instituto Nacional de Cardiología Ignacio Chávez. Published by Permanyer. This is an open ccess article under the CC BY-NC-ND license