Revista Electrónica Educare EISSN: 1409-4258 Vol. 28, Suplemento Especial, 2024
doi: https://doi.org/10.15359/ree.28-S.19967
https://www.revistas.una.ac.cr/index.php/educare
[Cierre de edición: 31 diciembre 2024]
Introducción. La Declaración de Heredia propone, desde la perspectiva de la edición científica, una serie de consideraciones para el uso responsable de la inteligencia artificial (IA) en los procesos de investigación que llevan a la publicación científica. Se reconoce a la IA como una herramienta cuyo uso se debe evidenciar y transparentar para un ejercicio claro, trazable y reproducible del conocimiento. Se llama la atención sobre los retos que supone la incorporación de la IA a la edición científica en cuanto a la diversidad de opciones, el evitar la propagación de sesgos y desinformación, y el respeto a la propiedad intelectual. Principios. Están organizados en cuatro grupos: general, para los roles de autoría, revisión por pares y edición. Resaltan la importancia de utilizar la IA como una herramienta cuyos resultados son filtrados por seres humanos que, desde una perspectiva ética y responsable, reportan, de forma transparente, a qué modelo, qué se consultó y cuándo se hizo la consulta. Reflexión final. Pone de manifiesto que se trata de un escenario en constante evolución cuyo fin último debe ser el bienestar humano y la calidad de vida.
Palabras Claves: Edición científica; gestión editorial; inteligencia artificial; ética; comunicación científica.
Introduction. From the perspective of scientific publishing, the Heredia Declaration proposes a series of considerations for the responsible use of Artificial Intelligence (AI) in the research processes that lead to scientific publication. AI is recognized as a tool whose use must be evident and transparent for a clear, traceable, and reproducible communication of knowledge. Attention is drawn to the challenges posed by the inclusion of AI into scientific publishing regarding the diversity of options, avoiding the spread of bias and misinformation, and respect for intellectual property. Principles. They are organized into four groups: general, for authorship, peer review, and editing roles. These principles highlight the importance of using AI as a tool, its results must be filtered by human beings and from an ethical and responsible perspective, transparently reporting which model was used, what was consulted, and when the consultation was made. Final reflection. It shows that it is a constantly evolving scenario whose goal must be human well-being and quality of life.
Keywords: Scientific edition; editorial management; artificial intelligence; ethics; scientific communication.
Introdução. A Declaração de Heredia propõe, na perspectiva da publicação científica, uma série de considerações para o uso responsável da Inteligência Artificial (IA) nos processos de pesquisa que levam à publicação científica. A IA é reconhecida como uma ferramenta cujo uso deve ser evidente e transparente para um exercício de conhecimento claro, rastreável e reprodutível. Chama-se a atenção para os desafios colocados pela incorporação da IA na publicação científica em termos de diversidade de opções, de evitar a propagação de preconceitos e desinformação e de respeito pela propriedade intelectual. Princípios. Estão organizados em quatro grupos: gerais e para as funções de autoria, revisão por pares e edição. Destacam a importância da utilização da IA como ferramenta, seus resultados são filtrados por seres humanos numa perspectiva ética e responsável, reportando de forma transparente qual modelo foi utilizado, o que foi consultado e quando foi feita a consulta. Reflexão final. Mostra que se trata de um cenário em constante evolução, cujo objetivo final deve ser o bem-estar humano e a qualidade de vida.
Palavras-chave: Publicação científica; gestão editorial; inteligência artificial; ética; comunicação científica.
Se considera que la inteligencia artificial proporciona las siguientes condiciones:
Herramienta: La inteligencia artificial (IA) se ha posicionado como una herramienta útil, versátil y aplicable a todas las acciones humanas.
Beneficios y riesgos: Las experiencias existentes sobre el uso de IA en el campo de la publicación científica ponen en evidencia los beneficios que se pueden obtener, pero también los riesgos que supone la adopción extensiva de modelos que aún permanecen en evolución y mejora.
Entrenamiento y precisión: El uso de la IA como herramienta de apoyo para los procesos de investigación y de publicación científica implica la interacción con modelos que, solo mediante entrenamiento, se calibran y se vuelven más precisos.
Trazabilidad y reproducibilidad: La transparencia es un principio de la comunicación científica; así, transparentar el uso de IA en la escritura de textos científicos permite darle trazabilidad, comprender las interacciones con la herramienta y dejar rutas para reproducir o replicar las buenas prácticas y las estrategias de aprovechamiento.
Diversidad y propiedad intelectual: Es necesario tener conciencia de que, ante la diversidad de opciones de modelos de IA y aplicaciones disponibles, se debe procurar hacer combinaciones no solo de las más útiles o eficientes, sino de las más responsables en el uso de material con propiedad intelectual. Esto abarca diversas manifestaciones de la protección de las creaciones humanas, por ejemplo: patentes, imágenes o material sonoro, entre otros. En consecuencia, también debe existir claridad sobre la posibilidad de derivación y transformación del material con el que un modelo de IA proporciona respuestas a las consultas de quienes lo utilizan.
Mitigar el sesgo y la desinformación: La creación y programación de modelos de IA es humana, también es humana la obra intelectual que compone las bases de datos usadas por la IA; por ello, tienen implícito el sesgo que proviene de la condición humana. Las personas deben tener conciencia de ello para que, al interactuar con la IA, no magnifiquen, prolonguen o propaguen sesgos y, a partir de ellos, desinformación.
Bienestar humano. Desde el espíritu más altruista –así como desde los principios bioéticos– el bienestar humano debe ser el eje que encauce la toma de decisiones relacionadas con la incorporación de herramientas de IA a los procesos de investigación y a su posterior publicación.
Dimensionar el alcance. Apenas empezamos a dimensionar los alcances e impacto de la incorporación de la IA a la gestión del conocimiento. Estamos ante un escenario en evolución donde hay debates abiertos a los que se les debe prestar atención, para canalizar, estratégicamente, las acciones que orienten el uso ético y responsable de esta herramienta.
Estos principios hacen referencia al segmento de la comunicación del conocimiento relacionada con la gestión editorial, donde interactúan los roles de edición, revisión (o arbitraje) y autoría. Quien tome el rol de edición, tiene la responsabilidad de conducir y mediar el proceso que lleva a la publicación, de forma que el uso de IA –tema central de esta declaración– quede claramente explicado. Si bien se parte de la perspectiva de personas en el rol de edición, se espera que las ideas expresadas sirvan como sustento a otras partes del proceso de generación de conocimiento y a otras actividades relacionadas con el proceso de publicación científica, como traducciones o revisiones de estilo y redacción.
1. Los roles de edición, revisión y autoría están a cargo de seres humanos que pueden mediar el proceso de publicación de documentos científicos. En el ejercicio de dichos roles, las personas deben formarse para adoptar y alfabetizar en prácticas responsables alrededor de la comunicación científica y de inteligencia artificial.
2. La IA no debe sustituir las responsabilidades o rendición de cuentas de las personas que ejercen estos roles. Tampoco el proceso editorial debe depender exclusivamente de acciones relacionadas con IA.
3. Son seres humanos quienes ejercen el rol de autoría, a estas personas se les puede reconocer la capacidad de –en ejercicio de su intelecto– crear, tomar decisiones y asumir las responsabilidades por las obras generadas. Así, los modelos de lenguaje, chatbots o la IA generativa no pueden ser considerados autores, pues no pueden asumir de manera integral estas tres condiciones.
4. Declarar explícitamente el uso de IA en los procesos de investigación y de elaboración de textos científicos –durante cualquier etapa del proceso de publicación científica– es una muestra de transparencia que suma a las buenas prácticas para garantizar la reproducibilidad de la ciencia. Al respecto, es necesario considerar una explicación solvente que mencione, al menos:
5. Se espera que las personas autoras hayan filtrado la información sobre los contenidos aportados como respuesta un modelo de IA y que a partir de estos insumos generen nuevo conocimiento. Validar la veracidad de la información obtenida resulta aún más relevante en el contexto actual. No se pueden asumir como verdaderas o absolutas las respuestas que ofrece la IA. Evitar el plagio, la desinformación, la propagación de sesgos u otro fraude académico es parte de las acciones que las personas autoras deben realizar al momento de interactuar con los modelos de IA. Procurar que se usen insumos de manera legítima debe ser un interés permanente de quienes ejerzan el rol de autoría.
6. Se deben proteger los datos personales, confidenciales, sensibles o de terceros cuando no se cuente con una autorización explícita para utilizarlos como parte de consultas a un modelo de IA.
7. Se debe mencionar, también, si se ha contado con el financiamiento de un tercero para la implementación o uso de modelos de IA en el proceso de investigación o de publicación.
8. La responsabilidad del criterio emitido para recomendar, o no, la publicación de un texto científico –o para proponer correcciones y mejoras– es de la persona en el rol de revisión. La interacción con la IA no reemplaza su criterio experto o su rendición de cuentas.
9. Cuando se haya incorporado el uso de IA como complemento de la revisión, es necesario indicarlo al equipo editorial y, a través de ellos, a las personas autoras. Indicar, al menos, el nombre del modelo, la versión, la fecha de uso, así como el enunciado como instrucción de evaluación es parte de un ejercicio transparente y trazable de la evaluación de contenidos.
10. Las personas revisoras deben estar en capacidad de explicar la interacción que han tenido con la IA, qué insumos han recibido y cuánto de dichos insumos han sido considerados en las observaciones, comentarios, recomendaciones y solicitudes de corrección que hayan emitido como criterios de evaluación de un texto científico.
11. La responsabilidad del proceso de edición es de la persona editora y del equipo editorial que le acompaña. El uso de IA no debe reemplazar la responsabilidad de los seres humanos o su rendición de cuentas al ejercer tareas de edición o seguimiento a las acciones de personas revisoras y autoras. La labor de edición de textos científicos no debe depender del uso de IA.
12. Las personas editoras evidenciarán cuando hayan utilizado IA en alguna parte del proceso editorial. Se reportará el nombre del modelo, la versión, la fecha de uso, así como el enunciado de trabajo asignado.
13. Se establecerán estrategias de prevención para evitar la propagación de sesgo, la desinformación o cuando no se pueda garantizar el respeto o el abordaje ético de los datos personales. Además, se promoverá el uso de datos abiertos, de calidad, fiables y respaldados por el consentimiento o autorizaciones que permitan a la IA hacer un uso legítimo de dicha información.
14. Se comunicará a las personas autoras y lectoras, cuando, en atención a la transparencia, las tareas editoriales o las de revisión se hayan apoyado en el uso de IA.
El proceso de investigación y la comunicación de resultados aún es una tarea esencialmente humana. No se debe perder de vista que el uso de la IA debe estar al servicio de la humanidad, de la generación del bien común y de la posibilidad de mejorar la calidad de vida de las personas. Ante la realidad de que cada vez se utilizan más modelos, y con más frecuencia, se debe potenciar el debate académico: no sustituirlo con los resultados o productos de la interacción de seres humanos con los modelos de IA.
Adquiere especial relevancia tener conciencia de que los sesgos están presentes tanto en las diferentes etapas o fases de construcción de los modelos y algoritmos, como en los momentos de interacción con ellos. Comprender que estos sesgos se pueden manifestar de formas diversas y que es necesario identificarlos lleva a la elaboración de estrategias que conduzcan a su mitigación, al entrenamiento efectivo de modelos y a su calibración.
Tener presente que la interacción de los seres humanos con la IA es un fenómeno que está en evolución y transformación pone de manifiesto la necesidad de mantener una visión crítica, de prospección y que actualice, constantemente, las condiciones que guían el uso de esta herramienta.
Academia de Propiedad Intelectual. (2023, diciembre 5 y 6). I Congreso Internacional de Propiedad Intelectual y Nuevas Tecnologías Digitales. Registro Nacional de Costa Rica.
Appel, G., Neelbauer, J., & Schweidel, D. A. (2023, abril 07). Generative AI Has an Intellectual Property Problem. Harvard Business Review. https://hbr.org/2023/04/generative-ai-has-an-intellectual-property-problem
Bhosale, U. & Kapadia, A. (2023, september 29). AI Integration can Future-Proof Peer Review – But only if we define and drive the right principles. Enago Academy. https://www.enago.com/academy/ai-integration-in-peer-review/
Cardoso Sampaio, R. (2024, febrero 07). Recomendações iniciais para editores de periódicos científicos sobre o uso de Inteligência Artificial generativa. Dados [Blog]. http://dados.iesp.uerj.br/recomendacoes-iniciais-para-editores-de-periodicos-cientificos-sobre-o-uso-de-inteligencia-artificial-generativa/
Comisión Europea. (2021). Propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial (ley de inteligencia artificial) y se modifican determinados actos legislativos de la unión 2121/0106. https://eur-lex.europa.eu/legal-content/ES/TXT/?uri=celex%3A52021PC0206
COPE. (2023, febrero 13). Authorship and AI tools. https://publicationethics.org/cope-position-statements/ai-author
Future of Life Institute. (2017). Asilomar AI Principles. https://futureoflife.org/open-letter/ai-principles/
Estevez, C. (2023, noviembre 02). Taller Scopus para Editores: Gestión Editorial. Scopus; Conare.
International Committee of Medical Journal Editors (ICMJE). (2024). Recommendations for the Conduct, Reporting, Editing, and Publication of Scholarly Work in Medical Journals. https://www.icmje.org/icmje-recommendations.pdf
International Committee of Medical Journal Editors (ICMJE). (2024, febrero 6). Who Is an Author? Defining the Role of Authors and Contributors. https://www.icmje.org/recommendations/browse/roles-and-responsibilities/defining-the-role-of-authors-and-contributors.html.
International Committee of Medical Journal Editors (ICMJE). (2024, febrero 6). Artificial Intelligence (AI)-Assisted Technology. https://www.icmje.org/recommendations/browse/roles-and-responsibilities/defining-the-role-of-authors-and-contributors.html.
Kaebnick, G. E., Magnus, D. C., Kao, A., Hosseini, M., Resnik, D., Dubljević, V., Rentmeester, C., Gordijn, B., & Cherry, M. J. (2023). Editors’ Statement on the Responsible Use of Generative AI Technologies in Scholarly Journal Publishing. The Hastings Center Report, 53(5), 3–6. https://doi.org/10.1002/hast.1507
Levene, A. (2023, febrero 23). Artificial intelligence and authorship. COPE. https://publicationethics.org/news/artificial-intelligence-and-authorship
Nazer, L. H., Zatarah, R., Waldrip, S., Chen Ke, J. X., Moukheiber, M., Khanna, A. K., Hicklen, R. S., Moukheiber, L., Moukheiber, D., Ma, H., & Mathur, P. (2023). Bias in artificial intelligence algorithms and recommendations for mitigation. Plos Digital Health, 2(6), e0000278. https://doi.org/10.1371/journal.pdig,0000278
Organization for Economic Co-operation and Development (OECD). (2023). Recommendation of the Council on Artificial Intelligence, OECD/LEGAL/0449. https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449
Organización Mundial de la Propiedad Intelectual (OMPI). (2020). Diálogo de la OMPI sobre propiedad intelectual (PI) e Inteligencia artificia (IA). https://www.wipo.int/meetings/es/details.jsp?meeting_id=55309
ReviewersCredits. (2024, febrero 22). AI in Peer Review: Reviewer Credits Discussion Webinar [Video]. YouTube. https://www.youtube.com/watch?v=DWrrbwHLU8Q
Spinak, E. (2023, agosto 30). Inteligencia Artificial y comunicación de investigaciones. Scielo Blog [Blog]. https://blog.scielo.org/es/2023/08/30/inteligencia-artificial-y-comunicacion-de-investigaciones/
Tavira, R. (2023). Política editorial de revistas con relación a la IA: casos Elsevier, Springer Nature y Taylor/Francis. Boletín SciELO-México. https://boletinscielomx.blogspot.com/2023/08/revistas-frente-la-ia-casos-elsevier.html?spref=tw
The University of Utah. (2023, julio 13). Guidance in the use of AI in research. https://attheu.utah.edu/facultystaff/vpr-statement-on-the-use-of-ai-in-research/
Unesco. (2019, mayo 16 a 18). Consenso de Beijing sobre la inteligencia artificial y la educación. https://unesdoc.unesco.org/ark:/48223/pf0000368303
Unesco. (2022). Recomendación sobre la ética de la inteligencia artificial. https://unesdoc.unesco.org/ark:/48223/pf0000381137_spa
Watson, R. & Štiglic, G. (2023, febrero 23). Guest editorial: The challenge of AI chatbots for journal editors. COPE. https://publicationethics.org/news/challenge-ai-chatbots-journal-editors
Zielinski, C., Winker, M. A., Aggarwal, R., Ferris, L. E., Heinemann, M., Lapeña, J. F., Pai, S. A., Ing, E., Citrome, L., Alam, M., Voigh,t M., Habibzadeh, F., & WAME Board. (2023, mayo 31). Chatbots, Generative AI, and Scholarly Manuscripts. WAME Recommendations on Chatbots and Generative Artificial Intelligence in Relation to Scholarly Publications. WAME. https://wame.org/page3.php?id=106
Liana Penabad-Camacho
Editora, Revista Electrónica Educare, Universidad Nacional
https://orcid.org/0000-0001-9381-182X
María Amalia Penabad-Camacho
Editora, Revista Géneros, Feminismos y Diversidades, Universidad Nacional
https://orcid.org/0000-0002-5095-577
Andrea Mora-Campos
Asesora académica, Vicerrectoría de Investigación, Universidad Nacional
https://orcid.org/0000-0001-9813-2674
Gerardo Cerdas-Vega
Director Editorial Revista Perspectivas Rurales, Universidad Nacional
https://orcid.org/0000-0003-3912-4193
Yuri Morales-López
Editor en jefe, Uniciencia, Universidad Naciona
https://orcid.org/0000-0002-2973-4038
Mónica Ulate-Segura
Editora, Perspectivas Rurales, Universidad Nacional
https://orcid.org/0009-0005-7740-4980
Andrea Méndez-Solano
Editora, Revista de Historia, Universidad Nacional
https://orcid.org/0000-0001-5326-2088
Nidya Nova-Bustos
Editora en jefe, Revista Ciencias Marinas y Costeras, Universidad Nacional
https://orcid.org/0000-0003-1966-0415
María Fernanda Vega-Solano
Editora, Revista Economía y Sociedad, Universidad Nacional
https://orcid.org/ 0000-0002-8104-8596
María Milagro Castro-Solano
Editora, Revista Abra y Revista Economía y Sociedad, Universidad Nacional
https://orcid.org/0000-0002-0516-5352
Si usted quiere suscribir esta declaración llene el siguiente formulario:
https://docs.google.com/forms/d/e/1FAIpQLSdtuGwcc3VDW3YUNaE5zVWQiFKptTRX81apm0_l3Xr6Tw60vw/viewform
Contacto:
Escriba a educare@una.ac.cr
Incluya en el asunto: Declaración de Heredia
Imagen se reproduce con autorización del equipo PIEG-UNA.
Regresar al inicio