SciELO - Scientific Electronic Library Online

 
vol.45 número2Propuesta académica de la Asociación Mexicana de Cirugía General para establecer un programa de referencia para la formación del cirujano general en México índice de autoresíndice de assuntospesquisa de artigos
Home Pagelista alfabética de periódicos  

Serviços Personalizados

Journal

Artigo

Indicadores

Links relacionados

  • Não possue artigos similaresSimilares em SciELO

Compartilhar


Cirujano general

versão impressa ISSN 1405-0099

Cir. gen vol.45 no.2 Ciudad de México Abr./Jun. 2023  Epub 05-Fev-2024

https://doi.org/10.35366/111506 

Editorial

Uso de ChatGPT en los manuscritos científicos

Use of ChatGPT in scientific manuscripts

Abilene Cirenia Escamilla Ortiz1  * 
http://orcid.org/0000-0001-5635-5845

1 Editora, Cirujano General, Asociación Mexicana de Cirugía General. México. orcid.org/0000-0001-5635-5845


El GPT es un tipo de inteligencia artificial desarrollada por la compañía OpenAI en noviembre de 2022 y está diseñado para generar texto similar al humano. Es un modelo de lenguaje y se usa frecuentemente en chatbots que son programas de computadora capaces de sostener una conversación por texto o voz con un humano.1,2

El uso de chatbot y de procesamiento del lenguaje natural, incluido el ChatGPT, tienen el potencial de revolucionar el campo de las publicaciones médicas al automatizar algunas tareas y hacer más eficiente el proceso de escribir. Se ha mencionado que pueden ayudar a extraer información de expedientes electrónicos, asistir en búsquedas de la literatura médica o ser una guía en el estilo y formato de escribir.

Varios expertos y revistas médicas rechazan el uso de ChatGPT, ya que no tiene pensamiento crítico y presenta información redundante e irracional; su uso hace que no se tengan ideas originales y no se pueden argumentar los puntos, en el caso de utilizarlo en un manuscrito científico el contenido será del bot, con esto vienen problemas médico-legales y de propiedad intelectual o autoría.2

El ChatGPT no tiene acceso a PubMed ni a Cochrane, por lo tanto, hay carencias en la información que da, además de que no es capaz de elaborar una discusión estructurada.2 Se puede utilizar para revisar material, hacer un escrito constructivo, pero no para hacer un anteproyecto original. Se requiere de una mente intelectual humana, así como de políticas que verifiquen los datos que se generan por los sistemas de inteligencia artificial.

El ChatGPT ya se ha enlistado como autor en algunos artículos científicos, algunos editores piensan que no es una buena decisión. La autoría de un artículo le confiere: créditos por la contribución y responsabilidad por el contenido del trabajo, como lo dice el Comité en Ética y Publicaciones (COPE) y el Comité Internacional de Editores de Revistas Médicas (ICMJE), este último recomienda que para que alguien pueda ser autor debe tener contribución sustancial, diseño del trabajo, interpretación de los datos, al hacer el borrador o la revisión crítica, además de tener la aprobación final de la versión que saldrá a publicación; de acuerdo a esto un chatbot no debería aparecer como autor, sino únicamente tener un reconocimiento en el artículo.3

Las empresas editoriales quieren crear políticas para el uso de chatbots, pero todavía es un tema controversial que no está claro. Podría ser una herramienta para detectar plagio, se haría cargo del lenguaje y la sintaxis en los artículos, la verificación de la estadística sería fácil. El ChatGPT debería ser capaz de saber si el manuscrito fue hecho por un humano o por un programa de computo.4

Se debe sugerir a las revistas que el autor declare si utilizó inteligencia artificial para complementar el manuscrito, esto logrará una mejor transparencia.5 La Asociación Mundial de Editores (WAME), ha sacado recomendaciones respecto del ChatGPT.

Los chatbots no pueden ser autores, los autores deben ser claros y expresar cómo usaron los chatbots, los autores son responsables del uso de chatbots en su manuscrito, los editores van a necesitar de herramientas para detectar contenido generado por inteligencia artificial.

Mientras no existan reglas claras, las revistas médicas no deben autorizar el uso de chatbots o inteligencia artificial para la elaboración de manuscritos y, sobre todo, se debe aclarar todo lo relacionado a la autoría.

Referencias bibliográficas

1. Biswas S. ChatGPT and the future of medical writing. Radiology. 2023; 307: e223312. [ Links ]

2. Arif TB, Munaf U, UI-Haque. The future of medical education and research: is ChatGPT a blessing or blight in disguise? Med Educ Online. 2023; 28: 2181052. [ Links ]

3. Siegerink B, Pet LA, Rosendaal FR, Schoones JW. ChatGPT as an author of academic papers is wrong and highlights the concepts of accountability and contributorship. Nurse Educ Pract. 2023; 68: 103599. [ Links ]

4. Bhattacharya K, Bhattacharya AS, Bhattacharya N, Yagnik VD, Garg P, Kumar S. ChatGPT in surgical practice-a new kid on the block. Indian J Surg. 2023. [ Links ]

5. Gaggioli A. Ethics: disclose use of AI in scientific manuscripts. Nature. 2023; 614: 413. [ Links ]

*Autor para correspondencia: Abilene Cirenia Escamilla Ortiz. E-mail: escamillaoa@amcg.org.mx

Creative Commons License Este es un artículo publicado en acceso abierto bajo una licencia Creative Commons