El aumento del uso de la tecnología en el campo de la salud promueve una interacción más efectiva de los pacientes y el personal médico. Hemos visto avances interesantes en inteligencia artificial, como ChatGPT, que no solo maneja datos, sino que también se relaciona con nosotros de una manera más humana.
El artículo «ChatGPT: oportunidades y riesgos en la asistencia, docencia e investigación médica»1 señala que dicho sistema de IA tiene el potencial de aumentar la precisión del diagnóstico y de los tratamientos médicos, lo que es válido. Por ello, consideramos que la investigación es de gran aporte, sabiendo que ChatGPT actúa como un motor de búsqueda. No obstante, es necesario preguntarse si la información que ofrece es fiable.
Tras la crisis de la COVID-19 se ha notado un aumento en el uso de la telemedicina. En este contexto, ChatGPT viene contribuyendo en la transición hacia la atención médica remota al crear asistentes virtuales que gestionan los datos de salud y dan asistencia para recibir los tratamientos.2 Sin embargo, el uso irresponsable por parte de los pacientes podría llevar a malentendidos y aceptar como ciertas algunas respuestas que podrían ser incorrectas. Por ejemplo, ante la pregunta «Tengo dolor de cabeza, ¿qué me recomiendas tomar?", ChatGPT brindó la siguiente respuesta: «Lo primero que puedes hacer es beber agua, especialmente si crees que es por deshidratación. También puedes probar con un té de menta o manzanilla, ya que tienen propiedades relajantes. Si el dolor es causado por la falta de cafeína, una bebida con cafeína, como café o té, podría ayudarte. En caso de que el dolor sea más intenso, un analgésico de venta libre, como paracetamol o ibuprofeno, puede aliviarlo, pero siempre siguiendo las instrucciones del envase». Por lo tanto, algunas de estas respuestas pueden ser consideradas correctas por muchas personas, lo que podría hacer que «el remedio sea peor que la enfermedad».
Es importante recordar que esta tecnología está en una etapa temprana de su desarrollo, lo que puede resultar en errores o información incompleta. Además, podría provocar problemas legales o violar derechos de autor al ayudar en la elaboración de documentos académicos.3
En conclusión, ChatGPT puede ser útil para los médicos, aunque su avance, al igual que el de otras tecnologías de inteligencia artificial, todavía está en sus etapas iniciales, y su uso siempre debe ser supervisado. También es importante entender que la IA es una herramienta útil, pero que no debería sustituir el análisis crítico de las personas.









nueva página del texto (beta)


