Sr. Editor:
Hemos leído con atención el interesante artículo publicado recientemente por el equipo del Dr. Carbajal-Degante1 en el que se analiza el potencial de herramientas basadas en Procesamiento de Lenguaje Natural (NLP) tradicional y la nueva generación Grandes Modelos de Lenguaje (LLMs) para asistir en la revisión bibliográfica a los investigadores.
Las capacidades asombrosas de redacción de los LLMs pueden llegar a confundirse con el halo de ilusión de una falsa capacidad de razonamiento. Hemos de ser cautos pues, en el momento actual, esta tecnología está lejos de tener la capacidad cognitiva y el razonamiento crítico similares a los de un ser humano2. Ni siquiera para tareas sistemáticas y bien definidas como la selección y el resumen de literatura de interés.
El texto generado en sus respuestas es muy dependiente de los artículos científicos incluidos en su conjunto de datos de entrenamiento, que solo suponen un pequeño subconjunto del acervo existente. Por un lado, favorecerá la aparición de esos documentos en las revisiones. Dada la problemática de la propiedad intelectual, cabe esperar que buena parte de estos sean accesibles libremente, como los artículos publicados en esta revista bajo la licencia CC BY-NC-ND; dando menor relevancia a los que quedan escondidos tras los paywalls de revistas que no tienen acceso abierto. Por otro lado, los LLMs se han alimentado de todo tipo de información que se recopila en internet, lo que incluye fake news y páginas web con contenido negacionista, lejos del método científico y los criterios de la comunidad médica, lo que puede dar lugar a respuestas equívocas, debido a la contaminación con este tipo de fuentes de datos.
Finalmente, cabe destacar el riesgo de las llamadas “alucinaciones”, pues la falta de mecanismos de verificación hace que estos sistemas no puedan distinguir los límites de su conocimiento, por lo que se inventan la respuesta1,2 cuando no han sido suficientemente entrenados en el subcampo de interés. Esto es, se inventan las citas2,3y el contenido de las revisiones bibliográficas sin advertir al usuario, lo que resulta especialmente grave en campos como el médico, donde los LLMs accesibles al público general no han sido entrenados específicamente, y puede llevar a médicos y pacientes a tomar decisiones erróneas.
Recomendamos que estas herramientas, con un futuro muy prometedor2, sean utilizadas como un complemento y siempre se verifiquen sus respuestas a partir de fuentes fiables, el sentido crítico y la experiencia de cada médico.










nueva página del texto (beta)



