Herramientas

HTML

PDF

Metadatos de indexación

Cómo citar un elemento

Imprimir este artículo

Política de revisión

Envía por correo este artículo (Se requiere entrar)
Enviar un correo electrónico al autor/a (Se requiere entrar)

REVISIÓN BIBLIOGRÁFICA

Aspectos éticos sobre el uso de ChatGPT en publicaciones científicas

Ethical Aspects of ChatGPT use in Scientific Publications

1 Clínica Estomatológica Docente de Especialidades Dr. José Manuel García Díaz, Cienfuegos, Cienfuegos, Cuba
2 Universidad de Ciencias Medicas de Cienfuegos, Cuba


RESUMEN
El surgimiento de herramientas de inteligencia artificial como ChatGPT ha revolucionado la forma en que se genera contenido, incluyendo textos académicos y científicos. Sin embargo, su uso indiscriminado en este ámbito plantea serias preocupaciones éticas que deben ser abordadas con urgencia. Esta investigación tiene como objetivo analizar los aspectos éticos sobre el uso del ChatGPT en publicaciones científicas. Para ello se realizó una búsqueda en diversas bases de datos científicas como Scielo, PubMed, Scopus, Dialnet, Latindex y ScienceDirect en el período comprendido de enero a mayo del 2025, se revisaron artículos en español e inglés. El uso de operadores booleanos AND, OR, NOT según correspondía para búsquedas más precisas y direccionadas a las variables de estudio mejoró los procesos de búsqueda de información relevante. Se analizaron un total de 181 documentos, se excluyeron los que no trataban adecuadamente los temas de interés y fueron seleccionados 30. Se constató que una inteligencia artificial es incapaz de asumir responsabilidad por el contenido que produce, el cual puede, en muchos casos, contener textos incorrectos, sesgados, plagiados y carentes de lógica, por lo que ChatGPT no puede ser autor o coautor de artículos científicos, también se debe considerar el alcance temporal de las bases de datos utilizadas para entrenar esta herramienta. Su uso como herramienta debe de ser declarado por el investigador, garantizando así la transparencia en la investigación.

Palabras clave: inteligencia artificial, sistemas inteligentes, inteligencia artificial generativa, publicaciones científicas y técnicas, ética en investigación

ABSTRACT
The emergence of artificial intelligence tools such as ChatGPT has revolutionized the way content is generated, including academic and scientific texts. However, its indiscriminate use in this field raises serious ethical concerns that urgently need to be addressed. This research aims to analyze the ethical aspects of the ChatGPT use in scientific publications. A search was conducted in various scientific databases such as Scielo, PubMed, Scopus, Dialnet, Latindex, and ScienceDirect from January to May 2025, and articles in Spanish and English were reviewed. The use of boolean operators AND, OR, and NOT, as appropriate, for more precise searches targeted to the study variables, improved the search process for relevant information. A total of 181 documents were analyzed, excluding those that did not adequately address the topics of interest, and selecting 30. It was found that artificial intelligence is incapable of assuming responsibility for the content it produces, which can, in many cases, contain incorrect, slanted, plagiarized, and illogical texts. Therefore, ChatGPT cannot be the author or co-author of scientific articles. The temporal scope of the databases used to train this tool must also be considered. Its use as a tool must be declared by the researcher, thus ensuring transparency in the research.

Keywords: artificial intelligence, intelligent systems, generative artificial intelligence, scientific and technical publications, ethics, research

INTRODUCCIÓN

La inteligencia artificial (IA) es una disciplina de las ciencias de la computación, encargada del desarrollo de sistemas informáticos con la capacidad de realizar tareas que normalmente requerirían características asociadas a la inteligencia y conductas humanas. Se sustenta principalmente en el aprendizaje automático y el procesamiento del lenguaje natural (Natural Language Processing, NLP) para la creación de algoritmos que permitan a las máquinas interpretar, interaccionar y resolver problemas con lenguaje humano, así como en el aprendizaje automático (Machine Learning), dedicado a crear algoritmos y modelos con capacidad de aprender de manera autónoma a partir de datos que se le suministren.(1)

Dada su capacidad para automatizar tareas, procesar grandes volúmenes de información, identificar patrones y personalizar servicios, esta tecnología ha tenido un uso creciente en diferentes ámbitos y su impacto a escala global es innegable. Influyendo en los modelos tradicionales, los procesos y resultados de las organizaciones. En el ámbito de la medicina, las tecnologías con base en IA son utilizadas en la predicción y detección de algunas patologías.(2)

ChatGPT (Generative Pre-trained Transformer) es un modelo de IA generativa desarrollado por la empresa OpenAI, utiliza el procesamiento del lenguaje natural y está basado en la arquitectura de redes neuronales artificiales (Generative Pre-trained Transformer, GPT) entrenada a partir de un conjunto de datos masivos. Está diseñada para generar texto de forma coherente y relevante a partir de las entradas de texto del usuario, también llamadas prompts. Esta herramienta se puede considerar como un modelo probabilista, que proporciona información plausible de acuerdo a la cantidad de datos que ha utilizado para entrenarse. Para su funcionamiento necesita una gran infraestructura (granjas de servidores).(3)

El surgimiento de herramientas como ChatGPT ha revolucionado la forma en que se genera contenido, incluyendo textos académicos y científicos. Sin embargo, el uso indiscriminado en este ámbito plantea serias preocupaciones éticas que deben ser abordadas con urgencia. Esta investigación es crucial para actualizar los conocimientos y fomentar una mirada crítica sobre el uso de estas tecnologías en entornos científicos.

Su utilización en la redacción de artículos científicos es un tema complejo que requiere un enfoque equilibrado entre la innovación y la ética. Los autores de esta investigación tienen la oportunidad de contribuir significativamente a este debate, promoviendo un uso responsable y consciente de estas herramientas en el ámbito científico; ya que la misma tiene como objetivo analizar los aspectos éticos sobre el uso del ChatGPT en publicaciones científicas.

MÉTODOS

Se realizó una revisión bibliográfica con la utilización de bases de datos científicas como Scielo, PubMed, Scopus, Dialnet, Latindex y ScienceDirect en el período comprendido de 2020 al 2025, en idiomas español e inglés. El uso de operadores booleanos AND, OR, NOT según correspondía para búsquedas más precisas y direccionada a las variables de estudio mejoró los procesos de búsqueda de información relevante.

Para la selección de los artículos se siguieron los siguientes criterios:

Criterios de exclusión: artículos incompletos, con metodologías no adecuadas y los que no aportaban nada relevante sobre el tema estudiado.

Criterios de inclusión: publicaciones que abordaron la temática en inglés o español, revisadas por pares e identificadas en las referencias de las bases de datos, artículos de revistas indexadas y acceso libre. Se encontraron un total de 181 artículos y se seleccionaron 30 artículos, los que cumplen con los criterios de inclusión.

DESARROLLO

A partir de marzo de 2023, se introdujo una nueva versión de ChatGPT donde se utiliza el último modelo de lenguaje desarrollado hasta ese momento, el GPT-4, que es multimodal, o sea, puede trabajar con datos de entrada que sean tanto texto como imágenes para lograr mejores resultados, el volumen de datos con que fue entrenado también es significativamente mayor, se estima que alrededor de 100 billones de parámetros. Tiene una memoria mucho más larga y capacidades multilingües superiores.(1)

A pesar de la utilidad evidente de estos modelos y sus potencialidades futuras en el apoyo a determinados sectores, su desarrollo debe superar muchas limitaciones y deficiencias todavía. Es necesario implementar varios sistemas, incluida la ética, antes de que eso suceda.(4) En su página, Open AI señala que la inteligencia artificial y el aprendizaje automático son campos en evolución y el uso de estos servicios no están exentos de errores y limitaciones, por lo que el modelo no está preparado para ser utilizado como fuente de información fiable sin una cuidadosa revisión y supervisión humana.(5)

Algunas de las principales las limitaciones de estos modelos son las siguientes: 

·Información sesgada o poco veraz, pues los conjuntos de datos que alimentan y orientan a los sistemas de IA pueden ser deficientes, discriminatorios, obsoletos o poco pertinentes, además de formas adicionales que surgen del propio sistema.(1,5,6,7)

·No son conscientes, sólo pueden generar contenido basado en la cantidad de datos con los que fueron entrenados  y, por lo tanto, no tienen ideas nuevas y originales.(4,8)

·Resultados limitados acerca de hechos y eventos posteriores al desarrollo de la IA, también puede proporcionar datos incorrectos sobre personas, lugares o hechos reales.(1,5)

·Falta de sentido lógico, debido a la posibilidad de que estas herramientas sistemas generen respuestas que parecen creíbles, pero incorrectas, ya que no comprenden su significado ni el contexto en que se deben usar.(1,8)

·Pueden favorecer el plagio, ya que muchos sistemas de IA utilizan datos protegidos por las leyes de propiedad intelectual y por derechos de autor sin el debido consentimiento.(6,9,10)

·Tienen el potencial de responder a instrucciones dañinas.(4,11)

·Pueden ser utilizadas en fábricas de artículos o revistas depredadoras a través de la generación de información automatizada no verificada y posiblemente inexacta.(6)

·Uso de información personal sin consentimiento, debido a que las bases de datos utilizadas para entrenar los sistemas de IA contienen información personal compilada, intercambiada, combinada y analizada a través de varios métodos, a veces poco transparentes, que aprovechan los vacíos legales que existen en las normativas sobre este campo.(6,7)

Debido a la complejidad de estos sistemas, a los intereses de los diferentes sectores  que participan en la creación e implementación de productos de IA y al potencial de aprendizaje dinámico de la tecnología, es muy difícil asignar responsabilidades y hacer que las partes rindan cuentas por los efectos perjudiciales.(12)

Entre las prácticas que comprometen la integridad científica, el plagio destaca por su frecuencia y por la sofisticación creciente de sus formas. Según la Oficina de Integridad en la Investigación, este incluye el hurto de propiedad intelectual y la reproducción sustancial de textos sin citar la fuente original, aunque excluye disputas sobre autoría u otros reconocimientos.(9)

Los textos generados por ChatGPT podrían constituir un plagio, ya que utiliza textos existentes para generar nuevos sin citar fuentes, esto, unido a que los chatbots tienen la tendencia a formular contenido incorrecto y que tanto los modernos detectores automatizados de plagio como experimentados revisores en ocasiones no puedan detectar textos académicos generados por chatbots, incrementa el riesgo de errores en los textos publicados.(13,14)

Para Kwon: “los LLM están entrenados para generar texto analizando grandes cantidades de escritos previamente publicados. Como resultado, su uso podría resultar en algo similar al plagio: si un investigador hace pasar el trabajo de una máquina como propio, por ejemplo, o si una máquina genera un texto muy similar al de una persona sin atribuir la fuente. Estas herramientas también pueden utilizarse para ocultar texto plagiado deliberadamente, y cualquier uso de ellas es difícil de detectar”.(14)

El material académico generado o modificado por IA podría conservarse y reaparecer en futuras interacciones, incrementando el riesgo de plagio no intencional tanto para el usuario como para quienes empleen esta tecnología después. Por ello, es crucial que quienes manejen documentos confidenciales (autores, editores, revisores) conozcan este riesgo antes de utilizar chatbots para generar o modificar textos.(15,16) Teniendo en cuenta que hay poco consenso a nivel mundial sobre protección de los derechos de autor y la información personal vinculadas a la IA, es fundamental para las partes interesadas mantener la sistematicidad y transparencia a través de estándares comunes que aborden los desafíos éticos y legales de la IA.(8,17)

Un marco legal más universal facilitaría la cooperación entre diferentes países y áreas geográficas; sin embargo, dista mucho de ser una realidad, el problema de la jurisdicción y la aplicación de leyes internacionales constituye un desafío; la IA, al ser una tecnología global, puede ser desarrollada en un país y utilizada en otro, lo que complica la supervisión y aplicación de regulaciones.

La velocidad a la que evoluciona la tecnología es un reto, al igual que el equilibrio entre innovación y protección, una regulación demasiado estricta o mal diseñada puede limitar la innovación y convertirse en una carga para las empresas.(17)

Al utilizar ChatGPT se obtienen buenos resultados para gestionar textos extensos. Sin embargo, al intentar emplear la herramienta para realizar revisiones de literatura sobre temas específicos, han surgido dificultades. Estas incluyen la citación de referencias bibliográficas inexistentes o la omisión de fuentes, lo que compromete la fiabilidad del contenido generado.

La incorporación de la IA por parte de educadores e investigadores es inevitable y la utilización de ChatGPT  se ha ido popularizando en la comunidad académica por su empleo en la redacción y edición de textos, procesamiento de grandes volúmenes de información, entre otras. No obstante, un uso irresponsable del mismo puede tener efectos negativos, ya sean éticos, legales o en cuanto a la calidad de la investigación y su comunicación. Por lo que se insiste en el establecimiento de pautas para minimizar estos riesgos.(13)

El plagio, la desinformación y el fraude pueden ser consecuencias cuando investigadores y estudiantes pretenden pasar engañosamente textos escritos por IA, como propios y es uno de los principales retos que enfrentan los editores y las editoriales de revistas a la hora de identificar este contenido dentro del cúmulo de documentos que reciben. Aunque existen y se desarrollan nuevas herramientas de software que pueden detectar el texto generado por IA, la verificación humana sigue siendo imprescindible.(4)

A medida que la tecnología avanza, la comunidad científica insiste en la necesidad de la discusión acerca de las cuestiones éticas y morales relacionadas con las herramientas IA y el establecimiento de pautas que contribuyan al uso ético de las mismas.(10)

Ante este escenario, múltiples editoriales académicas destacan la urgente necesidad de que investigadores y editores establezcan lineamientos claros para el uso ético de los Modelos de Lenguaje a Gran Escala (LLM, por sus siglas en inglés). Desde 2023 Nature y Springer Nature no aceptan ninguna herramienta LLM como autor acreditado en un trabajo de investigación, y establece que los investigadores que utilizan herramientas LLM deben documentar este uso en las secciones de métodos o agradecimientos, en caso de no contar con ellas, lo reflejarán en la introducción.(13)

La citación de ChatGPT como autor o coautor en múltiples artículos y preprints en revistas científicas, ha sido una de las mayores controversias entre editores, investigadores y directores. Entre los primeros ejemplos se encuentra su inclusión como uno de los 12 coautores en una preimpresión sobre su aplicación en educación médica, otro fue en la revista Nurse Education in Practice, pero estuvo seguido por la aclaración de su editor principal acerca de que fue un error  debido a discrepancias entre los sistemas administrativos de las editoriales y los procesos de revisión de los artículos de investigación.(18,19)

En la revista Oncoscience fue publicado un artículo de perspectiva, donde también se atribuyó autoría a un sistema de IA y el CEO de Insilico Medicine, Alex Zhavoronkov, refirió que su organización ha publicado más de 80 artículos utilizando esta herramienta en la redacción de los mismos.(18,19)

ChatGPT no cumple con los criterios establecidos por el Comité Internacional de Editores de Revistas Médicas (ICMJE), con los cuales deben cumplir todos los autores y colaboradores de una publicación científica: realizar contribuciones sustanciales al  estudio; participar activamente en la redacción del manuscrito o en su revisión crítica; aprobar formalmente la versión definitiva del trabajo previo a su publicación y asumir  la responsabilidad integral por todos los aspectos presentados en la investigación.(15)

El Comité de Ética en las Publicaciones (COPE, por sus siglas en inglés) establece que son los autores y no la IA, los responsables del contenido de su manuscrito y de cualquier incumplimiento de la ética editorial en esos procesos, incluidos la producción de imágenes o elementos gráficos y la recopilación y el análisis de datos producidas por IA, indicando que su uso debe ser explicado en la sección de Materiales y Métodos o sección similar. También recomienda precaución en la automatización de las revisiones, e insiste en la  responsabilidad y supervisión humanas, manteniendo la transparencia en cada etapa.(10)

Matt Hodgkinson, de la Oficina de Integridad de la Investigación del Reino Unido (UKRIO), explica que “se llegó a un consenso respecto a que no se permite otorgar la autoría a dichas herramientas, según lo acordado por COPE, WAME y el ICMJE, ya que ni las herramientas ni sus proveedores pueden responsabilizarse del resultado”(20)

SciELO también plantea que sólo los seres humanos pueden ser considerados autores. También establece que en el proceso de revisión, debe observarse que el uso de IA cumpla con las normas y buenas prácticas éticas, lo cual debe ser documentado en los informes de revisión, sin embargo, excluye el envío de los manuscritos en revisión a herramientas de IA, no debe someterlo a servicios que puedan divulgar identidades y contenidos de manera indebida. También indica que los  editores deben ser capacitados y contar con acceso a herramientas y recursos actualizados que faciliten la detección de contenido generado o modificado por IA.(16)

En Cuba, las editoriales científicas han incorporado algunas de las principales regulaciones establecidas por la ICMJE y la WAME, SciELO, entre otros, tales como la prohibición de autoría y la elaboración de artículos por parte de estos modelos. Actualmente se está trabajando por parte del MINSAP para el establecimiento de pautas en el uso de IA en el grupo de revistas médicas cubanas.

Gupta, refiere que entre los desafíos actuales para la integridad académica, dados por el avance de la IA, se encuentran el plagio y problemas de veracidad en los resultados de la investigación, pues  a veces resulta difícil distinguir si fue escrito por un humano o una máquina. También existe el caso donde los investigadores utilizan la IA en revisiones bibliográficas o incluso análisis de datos sin comprender realmente qué hacen las herramientas por ellos, pudiendo resultar en investigaciones incompletas o incorrectas que comprometan por completo la calidad e integridad de los resultados académicos.(21)

Gao et al., evaluaron la capacidad de los editores para identificar resúmenes creados por ChatGPT a partir de los títulos de artículos médicos publicados en revistas de alto impacto; sorprendentemente, solo detectaron 68 % de los resúmenes creados por esta IA.(22) Así como la tecnología avanza, las políticas editoriales de las revistas también tendrán que evolucionar, incluyendo mejores herramientas de detección de IA en los manuscritos enviados para publicación.(13) Los editores necesitan herramientas apropiadas que les ayuden a detectar contenido generado o alterado por IA, las cuales deben ponerse a su disposición, independientemente de su capacidad de pago.(16)

Entre los resultados de una encuesta realizada en 2024 a más de 3.000 académicos por IOP Publishing, la rama editorial del Instituto de Física del Reino Unido, se puede apreciar que existen opiniones divididas en cuanto a si la  IA generativa tendría un impacto negativo en la revisión por pares o no, aunque la mayoría de los participantes coincidió en la necesidad de verificación y edición por parte de los expertos antes de utilizar texto generado por IA durante el proceso. Cabe señalar que dicha entidad no permite el uso de herramientas de IA generativa para redactar o aumentar los informes de revisión por pares, ni que aparezcan como autores de manuscritos.(23)

Las editoriales deben contar con políticas adecuadas frente a los desafíos que supone el uso de la IA en la creación de artículos científicos en el ámbito académico; sin embargo, también es necesario que los editores cuenten con la tecnología necesaria para un adecuado desempeño, así como preparación en los temas relacionados con las capacidades y limitaciones de la IA en la creación de contenido científico, identificación de  contenido generado por IA, fomentando  la discusión sobre los aspectos éticos y prácticos del uso de IA en la investigación.

Vega Jiménez et al., plantean que  en un mundo donde se puede acceder fácilmente a chatbots más evolucionados y amigables para el usuario, es necesaria la educación y concientización de las personas sobre la importancia del comportamiento ético al usar estas tecnologías.(24)

Varias instituciones académicas han establecido acciones para mantener la integridad académica en la enseñanza y la investigación, entre ellas la Red Europea para la Integridad Académica (ENAI) y el Grupo Russell de universidades británicas recomiendan acciones para el uso ético de la IA en la educación, que incluyen la instrucción sobre los principios y límites de la IA, a través de la preparación y familiarización del profesorado y los estudiantes con estas nuevas herramientas, adecuando la docencia y la evaluación para el uso ético de las mismas e impulsar la colaboración acerca de las mejores prácticas a medida que la tecnología y su aplicación en la educación evolucionen.(25)

Entre las propuestas de la Comisión Nacional de Bioética de México acerca del uso de la inteligencia artificial en salud, se incluyen la protección y el respecto a la salud y la investigación, los derechos de propiedad, integridad y privacidad de la información personal, la responsabilidad individual de cada profesional, considerar principios éticos y estándares de derechos en la configuración de los algoritmos de procesamiento en el desarrollo de tecnologías relacionadas con la IA, incluyendo la participación de los comités de ética en investigación a lo largo de su implementación.(26)

Castellanos Serra plantea que  los problemas asociados a la IA no deben justificar su limitado uso en nuestro país (Cuba), en cambio se debe enseñar a utilizarla éticamente y mantener una actualización constante sobre el tema,  cómo se manifiestan en cada especialidad y las respuestas de la comunidad internacional, difundir su uso en el quehacer científico desde el nivel universitario, siempre como una ayuda, pero nunca como sustituto del investigador.(27)

Velasteguí López et al., proponen una estrategia para el uso de ChatGPT en la investigación científica como herramienta que contribuya a la recolección de información y agilizar la obtención de resultados, que facilite el trabajo a estudiantes e investigadores; sin embargo, enfatiza el respeto a la ética profesional, evitar el uso excesivo de esta herramienta, así como la combinación del juicio humano con estas herramientas para la obtención de resultados pertinentes.(28)

Reyna, refiere que la inteligencia artificial es una herramienta transformadora para el procesamiento de datos, siempre teniendo en cuenta la ética en su aplicación.(29) Desde 2021 la UNESCO ha señalado la importancia de abordar los desafíos éticos y sociales de la IA en todas las esferas de la sociedad, estableciendo principios fundamentales, como la transparencia y la responsabilidad.(30)

Conviene reevaluar el modelo educativo tradicional, que prioriza la memorización sobre la creatividad,  y su posible vinculación con prácticas plagiarias; de confirmarse esta relación, deberían implementarse ajustes curriculares desde la educación básica. En cuanto la formación ética de estudiantes de posgrado e investigadores, expertos coinciden en la combinación de cursos estructurados sobre la redacción académica basada en principios éticos que incluyan la gestión adecuada de fuentes bibliográficas, citación y referencia; técnicas de redacción académica; dominio de idiomas, entre otros. Para la prevención del plagio, es imprescindible cultivar el hábito de reconocer sistemáticamente las contribuciones ajenas con rigurosidad metodológica.(9)

En nuestro entorno también resulta vital la preparación del personal docente e investigadores acerca del funcionamiento y utilización de los Chatbots, cómo  detectar el uso indebido de los mismos, familiarizarlos con las herramientas antiplagios y cómo interpretar sus resultados, proporcionando los recursos tecnológicos necesarios para el monitoreo del uso de IA en la docencia y las investigaciones.

Ante esta realidad, las universidades deben incluir en el currículo de estudio, asignaturas o talleres que aborden temas como el uso responsable de la IA, el plagio digital y las implicaciones éticas de la tecnología. Promover debates y conversatorios sobre cómo la IA puede afectar la integridad académica y profesional

La formación temprana de los estudiantes en métodos científicos de investigación, basados siempre en fuentes confiables, su capacitación en el dominio de las normas de citación. Fomentando que la IA no es más que una herramienta de apoyo que nunca podrá reemplazar sus pensamientos originales, son acciones que pueden contribuir en la formación del pensamiento crítico en los estudiantes o futuros investigadores, estando conscientes de que los chatbots pueden presentar sesgos y comprometer los resultados de cualquier investigación.

CONCLUSIONES

ChatGPT no puede ser considerado como autor o coautor de artículos científicos porque una inteligencia artificial no puede asumir la responsabilidad por el contenido que produce, el cual puede ser, en muchos casos, erróneo,  inadecuado o plagiado, también es importante considerar el alcance temporal de las bases de datos utilizadas en su entrenamiento. No obstante, usarla  como herramienta de apoyo en determinados procesos que no interfieran con la calidad y veracidad de la investigación puede facilitar el trabajo a los autores, que deberán declarar su utilización en la sección correspondiente del artículo, mostrando transparencia y compromiso con el contenido a publicar.

A pesar de la controversia que genera esta innovación, no se debe prohibir su utilización, en su lugar, se debe fomentar la ética e instruir en el uso correcto de la inteligencia artificial en escuelas y universidades; por ello es necesario reevaluar los currículos de formación de las entidades académicas en aras de preparar a los estudiantes como futuros investigadores. También es fundamental mantener y actualizar políticas institucionales que promuevan la originalidad académica y definan consecuencias claras para las malas prácticas, garantizando así la integridad en el ámbito investigativo.

 

Conflicto de intereses

Los autores  declaran que no existe conflicto de intereses.

Contribuciones de los autores

Conceptualización: Mabel Rodríguez Moya, Tomás Ramón de la Paz Suárez.

Investigación: Mabel Rodríguez Moya, Tomás Ramón de la Paz Suárez, Yuleydi Alcaide Guardado.

Metodología: Mabel Rodríguez Moya, Tomás Ramón de la Paz Suárez, Yuleydi Alcaide Guardado.

Redacción borrador original: Mabel Rodríguez Moya, Tomás Ramón de la Paz Suárez, Yuleydi Alcaide Guardado.

Redacción, revisión y edición: Mabel Rodríguez Moya, Tomás Ramón de la Paz Suárez, Yuleydi Alcaide Guardado.

Financiación

Clínica Estomatológica Docente de Especialidades Dr. José Manuel García Díaz. Cienfuegos. Cuba.

REFERENCIAS BIBLIOGRÁFICAS

1.Ribera M, Díaz Montesdeoca O. ChatGPT y educación universitaria Posibilidades y límites de ChatGPT como herramienta docente[Internet]. Barcelona: Editorial Octaedro; 2024[citado 07/01/2025]. Disponible en: https://diposit.ub.edu/dspace/bitstream/2445/206141/1/9788410054011.pdf

2.Lugo CA, Rivarola MI, Ferreira PA. Impacto de la IA en la predicción y detección oportuna de enfermedades: Una revisión sistemática. Lat Am J Appl Eng[Internet]. 2024[citado 07/01/2025];7(1):25-35. Disponible en: https://lajae.uabc.mx/index.php/home/article/view/35

3.Organización de las Naciones Unidas para la Educación la Ciencia y la Cultura. ChatGPT e inteligencia artificial en la educación superior : guía de inicio rápido [Internet]. Paris: UNESCO; 2023[citado 22/07/2025]. Disponible en: https://unesdoc.unesco.org/ark:/48223/pf0000385146_spa

4.Ali MJ, Djalilian A. Readership Awareness Series - Paper 4: Chatbots and ChatGPT - Ethical Considerations in Scientific Publications. Semin Ophthalmol[Internet]. 2023 [citado 09/01/2025];38(5):403-4. Disponible en: https://www.tandfonline.com/doi/abs/10.1080/08820538.2023.2193444

5.OpenAI. Condiciones de uso [Internet]. Delaware: OpenAI; 2024[citado 23/01/2025]. Disponible en: https://openai.com/es-US/policies/row-terms-of-use/

6.Science Advice for Policy by European Academies. Successful and timely uptake of artificial intelligence in science in the EU: Evidence review report[Internet]. Berlin: SAPEA; 2024[citado 30/01/2025]. Disponible en: https://scientificadvice.eu/advice/artificial-intelligence-in-science/

7.Human Rights Council. The right to privacy in the digital age: Annual report of the United Nations High Commissioner for Human Rights and reports of the Office of the High Commissioner and the Secretary-General. Report No. 48[Internet]. Ginebra: United Nations Human Rights Council; 2021[citado 30/01/2025]. Disponible en: https://www.ohchr.org/sites/default/files/HRBodies/HRC/RegularSessions/Session48/Documents/A_HRC_48_31_AdvanceEditedVersion.docx

8.Loos E, Gröpler J, Goudeau ML. Using ChatGPT in Education: Human Reflection on ChatGPT’s Self-Reflection. Societies[Internet]. 2023[citado 30/01/2025];13(8):196. Disponible en: https://www.mdpi.com/2075-4698/13/8/196

9.Rivera H. La integridad científica ante los plagios fabricados con el ChatGPT. Rev Médica Inst Mex Seguro Soc[Internet]. 2023[citado 10/06/2025];61(6):857-62. Disponible en: https://www.ncbi.nlm.nih.gov/pmc/articles/PMC10723832/

10.Committee on Publication Ethics. Artificial intelligence and authorship[Internet]. Londres: COPE; 2023[citado 07/02/2025]. Disponible en: https://publicationethics.org/news-opinion/artificial-intelligence-and-authorship

11.Rivera FJ. Estrategia Nacional de Inteligencia Artificial de la República Dominicana: desafíos y regulación en protección de datos. Rev Iberoam Derecho Informático [Internet]. 2024[citado 09/04/2025];1(15):165-76. Disponible en: https://revistas.fcu.edu.uy/index.php/informaticayderecho/article/view/4742

12.Carnegie Council for Ethics in International Affairs. Responsabilidad de la IA [Internet]. Nueva York: Carnege Council; 2024 [citado 9/04/2025]. Disponible en: https://es.carnegiecouncil.org/explore-engage/key-terms/ai-accountability

13.Tools such as ChatGPT threaten transparent science; here are our ground rules for their use. Nature[Internet]. 2023[citado 23/05/2025];613(7945):612. Disponible en: https://www.nature.com/articles/d41586-023-00191-1

14.Kwon D. AI is complicating plagiarism. How should scientists respond? Nature [Internet]. 2024[19/06/2025]. doi: 10.1038/d41586-024-02371-z. Disponible en: https://pubmed.ncbi.nlm.nih.gov/39080398/

15.International Committee of Medical Journal Editors. Recommendations for the conduct, reporting, editing, and publication of scholarly work in medical journals [Internet]. Bethesda: US National Library of Medicine. World Association of Biomedical Journal Editors; 2025[citado 25/03/2025]. Disponible en: https://www.icmje.org/recommendations/

16.Scientific Electronic Library Online. Guide to the use of artificial intelligence tools and resources in research communication[Internet]. Sao Paulo: Bireme; 2023[citado 20/06/2025]. Disponible en: https://25.scielo.org/wp-content/uploads/2023/09/2-Susan-Guide-to-the-Use-of-AI-tools-and-resources-20230914-EN.pdf

17.Parlamento Europeo. Ley de IA de la UE: primera normativa sobre inteligencia artificial[Internet]. Estrasburgo: Parlamento Europeo; 2025[citado 23/05/2025]. Disponible en: https://www.europarl.europa.eu/topics/es/article/20230601STO93804/ley-de-ia-de-la-ue-primera-normativa-sobre-inteligencia-artificial

18.Lendvai GF. ChatGPT in Academic Writing: A Scientometric Analysis of Literature Published Between 2022 and 2023. J Empir Res Hum Res Ethics[Internet]. 2025[citado 08/06/2025];20(3):131-48. Disponible en: https://journals.sagepub.com/doi/10.1177/15562646251350203

19.Stokel-Walker C. ChatGPT listed as author on research papers: many scientists disapprove. Nature[Internet]. 2023[citado 23/05/2025];613(7945):620-1. Disponible en: https://www.nature.com/articles/d41586-023-00107-z

20.UK Research Integrity Office. AI in research[Internet]. London: UKRIO; 2023 [citado 20/05/2025]. Disponible en: https://ukrio.org/ukrio-resources/ai-in-research/

21.Gupta L. Unmasking artificial intelligence (AI): Identifying articles written by AI models. Indian J Clin Anaesth[Internet]. 2025[citado 18/06/2025];11(2):[aprox. 6 p.].  Disponible en: https://ipindexing.com/article/52640

22.Gao CA, Howard FM, Markov NS, Dyer EC, Ramesh S, Luo Y, et al. Comparing scientific abstracts generated by ChatGPT to real abstracts with detectors and blinded human reviewers. NPJ Digit Med[Internet]. 2023[citado 23/05/2025];6(1):75. Disponible en: https://www.nature.com/articles/s41746-023-00819-6

23.Boletín SciELO-México. ¡Quemadlo con fuego!: El uso de ChatGPT polariza a los revisores [Internet]. México, DF: Boletín SciELO-México; 2025[citado 23/01/2025]. Disponible en: https://boletinscielomx.blogspot.com/2025/01/quemadlo-con-fuego-el-uso-de-chatgpt.html

24.Jiménez JV, Leyva LL, Leon AM. ChatGPT e inteligencia artificial, señal de alerta para el proceso editorial de revistas médicas. Rev Cuba Inf En Cienc Salud[Internet]. 2023[citado 25/03/2025];34:{aprox. 8 p.]. Disponible en: https://acimed.sld.cu/index.php/acimed/article/view/2515

25.Russell Group. Principles on the use of generative AI tools in education[Internet]. Londres: Rusell Group; 2023[citado 20/05/2025]. Disponible en: https://www.russellgroup.ac.uk/policy/policy-briefings/principles-use-generative-ai-tools-education

26.Comisión Nacional de Bioética. Bioética de la inteligencia artificial en salud: pronunciamiento[Internet]. México, DF: Ministerio de Salud; 2023[citado 20/05/2025]. Disponible en: https://www.gob.mx/cms/uploads/attachment/file/832082/Bio_tica_de_la_inteligencia_artificial_Junio2023.pdf

27.Castellanos Serra L. La ética en la comunicación del conocimiento en la era de la inteligencia artificial: ¿qué debemos hacer? Anal ACC[Internet]. 2024[citado 19/06/ 2025];14(4):e2870. Disponible en: https://revistaccuba.sld.cu/index.php/revacc/article/view/2870

28.Velasteguí López E, Cabezas M del RP, García CR, Bones SA. La Inteligencia Artificial en la investigación científica. Ser Científica Univ Las Cienc Informáticas [Internet]. 2025[citado 19/06/2025];18(2):109-24. Disponible en: https://publicaciones.uci.cu/index.php/serie/article/view/1830

29.Reyna Martínez LA, Campos Rivera M. Desarrollo de un marco de referencia para la alfabetización digital de estudiantes de ciencias de la salud en México. Latam Rev Latinoam Cienc Soc Humanidades[Internet]. 2023[citado 19/06/2025];4(6):116. Disponible en: https://dialnet.unirioja.es/servlet/articulo?codigo=9586666

30.Organización de las Naciones Unidas para la Educación la Ciencia y la Cultura. Recomendación sobre la ética de la inteligencia artificial[Internet]. Paris: UNESCO; 2022[citado 19/06/2025]. Disponible en: https://unesdoc.unesco.org/ark:/48223/pf0000381137_spa

REFERENCIAS BIBLIOGRÁFICAS

Enlaces refback

  • No hay ningún enlace refback.


Editada en la Universidad de las Ciencias Médicas de Cienfuegos. Directora: Dr.C Dunia María Chavez Amaro