Revista Electrónica Educare EISSN: 1409-4258 Vol. 28, Suplemento Especial, 2024
doi: https://doi.org/10.15359/ree.28-2.19830
https://www.revistas.una.ac.cr/index.php/educare
[Cierre de edición: 31 diciembre 2024]
Liana Penabad-Camacho
Universidad Nacional
Centro de Investigación y Docencia en Educación
Heredia, Costa Rica
liana.penabad.camacho@una.ac.cr
https://orcid.org/0000-0001-9381-182X
María Morera-Castro
Universidad Nacional
Escuela de Ciencias del Movimiento Humano y Calidad de Vida
Heredia, Costa Rica
https://orcid.org/0000-0003-2218-179X
María Amalia Penabad-Camacho
Universidad Nacional
Instituto de Estudios de la Mujer
Heredia, Costa Rica
maria.penabad.camacho@una.ac.cr
https://orcid.org/0000-0002-5095-5775
Recibido • Received • Recebido: 24 / 04 / 2024
Corregido • Revised • Revisado: 23 / 06 / 2024
Aceptado • Accepted • Aprovado: 20 / 08 / 2024
Introducción. La Inteligencia artificial (IA) propone una reestructuración de la forma tradicional de hacer y publicar ciencia, ya que aporta herramientas que complementan, reaprenden y simplifican procesos complejos propios de la investigación realizada por seres humanos. La diversidad de mecanismos que la IA provee, demandan transparencia al reportar su uso y garantía de que son congruentes con la rigurosidad de la comunicación científica y su ecosistema de gestión editorial (en el que participan personas editoras, revisoras y autoras). Objetivo. El objetivo de este documento es facilitar elementos orientadores para el reporte de uso de la IA en las actividades que integran el proceso de publicación científica. Para ello se aportan conceptos, principios y recomendaciones para los tres roles ya mencionados que alfabetizan y proponen mecanismos de aprendizaje para las personas que se involucran en las actividades de comunicación del conocimiento. Guía. Se proponen cuatro partes en la guía. La primera aporta el grupo de conceptos necesario para comprender las dinámicas propuestas en los principios y recomendaciones. En especial, se propone la definición de los prompts (primario, secundarios y complementarios); de la red de prompts (o prompt net) y se proponen los diagramas que conceptualizan su uso. La segunda cubre a las personas editoras y equipos editoriales y les propone recomendaciones para implementar políticas relacionadas con IA en sus revistas. La tercera le propone a las personas revisoras buenas prácticas para el uso de IA como apoyo al proceso de evaluar una unidad de comunicación científica. La cuarta le ofrece un marco ético y herramientas concretas a las personas autoras para usar IA en sus trabajos y reportarlo en sus escritos. Reflexión final. El fin último del uso de IA debe ser el bien común y la mejora de la calidad de vida de las personas. Un ejercicio ético, que mitigue la introducción de sesgos o la desinformación, debe ser un eje medular para el uso de esta herramienta. Tener presente que se trata de un fenómeno en evolución es relevante para futuras actualizaciones de la guía y sus conceptos.
Palabras claves: Publicación científica; inteligencia artificial generativa; modelo de lenguaje de gran escala; prompt net; sesgo; ciencia abierta; ética.
ODS: ODS 4; Educación de calidad.
Introduction. Artificial Intelligence (AI) proposes a restructuring of the traditional way of doing and publishing science, since it provides tools that complement, relearn and simplify complex processes typical of research carried out by human beings. The diversity of mechanisms that AI provides demands transparency when reporting its use, and the guarantee that they are consistent with the rigor of scientific communication and its editorial management ecosystem (in which editors, reviewers and authors participate). Aim. This document aims to provide guiding elements for reporting the use of AI in the activities that make up the scientific publication process. Concepts, principles, and recommendations are provided for the three aforementioned roles. They provide literacy and propose learning mechanisms for people who are involved in knowledge communication activities. Guide. Four parts are proposed in the guide. The first one considers a group of concepts necessary to understand the dynamics proposed in the principles and recommendations provided. In particular, the definition of prompts (primary, secondary, and complementary); of the prompt network (or prompt net), and the diagrams that conceptualize its use are proposed. The second part covers editors and editorial teams and offers recommendations for implementing AI-related policies in their journals. The third part gives reviewers good practices for the use of AI to support the process of evaluating a scientific communication unit. The fourth presents an ethical framework and concrete tools, to authors, to use AI in their work and report it in their manuscripts. Final reflection. The goal of using AI must be the common good and improving people’s quality of life. An ethical exercise, which mitigates the introduction of bias or misinformation, must be a core axis for the use of this tool. Keeping in mind that this is an evolving phenomenon is relevant for future updates of the guide and its concepts.
Keywords: Scientific publication; Generative Artificial Intelligence; large language model; prompt net; bias; open science; ethics.
SDG: SDG 4; Quality education.
Introdução. A Inteligência Artificial (IA) propõe uma reestruturação da forma tradicional de fazer e publicar ciência, pois fornece ferramentas que complementam, reaprendem e simplificam processos complexos típicos de pesquisas realizadas por seres humanos. A diversidade de mecanismos que a IA proporciona exige transparência no relato da sua utilização e garantia de que sejam consistentes com o rigor da comunicação científica e do seu ecossistema de gestão editorial (do qual participam editores, revisores e autores). Objetivo. O objetivo é fornecer elementos norteadores para o relato do uso de IA nas atividades que compõem o processo de publicação científica. Para tanto, são fornecidos conceitos, princípios e recomendações, para as três funções mencionadas, que proporcionam alfabetização e propõem mecanismos de aprendizagem para pessoas envolvidas em atividades de comunicação de conhecimento. Guia. Quatro partes são propostas no guia. A primeira considera um grupo de conceitos necessários para entender a dinâmica proposta nos princípios e recomendações fornecidos. Em particular, a definição de prompts (primários, secundários e complementares); da rede de prompts (ou prompt net) e os diagramas que conceituam seu uso são propostos. A segunda parte abrange editores e equipes editoriais e oferece recomendações para implementar políticas relacionadas à IA em seus periódicos. A terceira parte fornece aos revisores boas práticas para o uso de IA para apoiar o processo de avaliação de uma unidade de comunicação científica. A quarta apresenta uma estrutura ética e ferramentas concretas para os autores usarem IA em seu trabalho e relatá-la em seus manuscritos. Reflexão final. O objetivo final do uso da IA deve ser o bem comum e a melhoria da qualidade de vida das pessoas. Um exercício ético, que mitigue a introdução de preconceitos ou desinformação, deve ser um eixo central para a utilização desta ferramenta. Ter em mente que este é um fenômeno em evolução é relevante para futuras atualizações do guia e de seus conceitos.
Palavras-chave: Publicação científica; inteligência artificial generativa; modelo de linguagem de grande escala; prompt net; distorções; ciência aberta; ética.
ODS: ODS 4; Educação de qualidade.
En el contexto actual, la formación y conocimientos que se construyen desde la academia se enfrentan al debate sobre el uso ético de la inteligencia artificial (IA). Se presenta la interrogante de cómo interpretar los alcances y regular su uso en el quehacer universitario para garantizar la integridad académica (Unesco, 2023a), pues el uso inadecuado representa un despropósito que limita el proceso de aprendizaje, atenta contra la rigurosidad y calidad de la ciencia y representa un dilema para quien genera conocimiento en su ejercicio de construcción de información de forma responsable y ética. Además, la Unesco identifica otros impactos en aspectos como: la protección de datos, el sesgo cognitivo, la reproducción de formas de discriminación, la accesibilidad y la comercialización de la información (Unesco, 2023a). García Velázquez (2023) sitúa también, en una suerte de paradoja, la necesidad de contar con infraestructuras digitales para acceder a más herramientas de este tipo y más conocimiento cuando, en realidad, no todas las personas pueden acceder a estas infraestructuras; así “perpetúan la inequidad de acceso tanto como las [sic] combaten, aunque muchas veces se hable de ellas como si fueran ubicuas y estuvieran a disposición de cualquier persona” (p.155).
Por otro lado, el aprovechamiento de la IA para potenciar el conocimiento, la convierte en una herramienta de apoyo al quehacer educativo que potencia desde múltiples dimensiones (entre estas metodológicas, informativas o comunicativas) el desarrollo social y enriquece los esfuerzos de la comunidad académica en la aspiración de promover una educación de calidad (ODS 4).
Desde estas miradas, y retomando recomendaciones como las que han facilitado diversas instancias que monitorean en quehacer científico, este texto apuesta por el uso responsable de la IA que, mediante la transparencia, posibilita un uso ético de este recurso fomentando la intención primaria de la persona creadora por garantizar la rigurosidad y responsabilidad de la ciencia y el beneficio colectivo.
En el caso de las ciencias sociales es necesario reflexionar sobre las ventajas de la aplicación de esta herramienta y las consecuencias de su mal uso. García Velázquez (2023) y Ramos Pollán (2020) proponen que este proceso de reflexión debe considerar que –a diferencia de otras disciplinas– en ciencias sociales no necesariamente se identificarán los efectos, ventajas o consecuencias de forma inmediata. Destacan que dentro de las aplicaciones conocidas, por ejemplo: análisis de sentimientos; extracción de términos claves; analítica de imágenes; mejorar los servicios de usabilidad o adición de capas de información; el tratamiento adecuado de los datos y metadatos resulta clave para mejorar la disponibilidad y variedad de datos y sus posibilidades de relacionarse. Esto, en combinación con consultas precisas construidas por las personas usuarias, permiten calibrar y afinar los modelos de lenguaje y mejorar el contenido de los productos entregados (García Velázquez, 2023; Ramos Pollán, 2020).
Por otra parte, la ciencia abierta promueve el uso extensivo e intensivo de datos, impulsa un ejercicio de investigación riguroso, transparente y reproducible y fomenta el uso responsable y ético de la información. Con ese antecedente, la CA reconoce el potencial de la tecnología para expandir y hacer más eficiente la gestión del conocimiento y llama al uso ético de la inteligencia artificial como una herramienta cuyo fin último es reducir la desigualdad y mejorar la calidad de vida de las personas (Organization for Economic Co-operation and Development [OECD], 2023; Unesco, 2022).
Dado que se trata de un escenario cuyas condiciones se mantienen en evolución, resulta imperativo garantizar la integridad y la confianza en los procesos de investigación asistidos por IA. La ciencia abierta, como modelo de publicación, apunta a la creación de conocimiento científico abierto donde la transparencia, control, crítica y reproducibilidad toman un rol relevante en el uso y gestión de datos (Unesco, 2021). En ese marco, el objetivo de la guía, en concordancia con las mejores prácticas de CA, es facilitar elementos orientadores para fomentar el reporte transparente, responsable y ético de la IA en las actividades que integran el proceso de publicación científica, sin dejar de reconocer la evolución, crecimiento o transformación de la IA. Por ello, la guía está dirigida, prioritariamente, a tres públicos:
Para el desarrollo de estas recomendaciones se parte de seis premisas. La primera considera que la IA es una herramienta en expansión por lo que, en vez de bloquear sus posibles aplicaciones en el entorno de publicación científico-académica, se propone transparentar y normalizar o regular su uso. La segunda propone que, en concordancia con el modelo de ciencia abierta, la exposición de estas rutas de forma estructurada abona a la trazabilidad y reproducibilidad de la investigación y del conocimiento. La tercera aclara que estas recomendaciones están dirigidas a los usos voluntarios, intencionados, programados, articulados y explícitos de herramientas de IA en el proceso de investigación y de escritura. Se entiende que, por las condiciones y características del momento, es posible que se haya recurrido a apoyos que incluyan AI, sin que exista necesariamente conciencia de su uso y, por tanto, no entran en el espectro de estas recomendaciones. La cuarta expone la intención de que esta guía sea un vehículo de alfabetización en materia de IA, CA, sus aplicaciones éticas, reporte transparente y de acercamiento de las personas a un proceso de aprendizaje, que luego pueda ser replicado hacia otras revistas, otros procesos de evaluación, otras publicaciones y otras formas de intercambiar y generar conocimiento. La quinta señala que, si bien estas recomendaciones están planteadas para equipos editoriales, de revisión o para autores y autoras en educación y ciencias sociales, se espera que también sean de utilidad como guía básica para otras áreas disciplinares o personas particulares que se enfrentan al debate ético sobre su uso. La sexta subraya que la experiencia de uso de la IA debe estar acompañada y regulada, desde el ejercicio de cada persona, por las mejores prácticas, respeto a los derechos humanos y conocimiento ético, bioético, disciplinar y profesional. Es, en última instancia, en las personas que toman la decisión de utilizar IA, en quienes recae la responsabilidad del uso dado.
Respaldar la implementación de IA con información acerca de la ética de su uso, fortalece el grado de accesibilidad que tengan las personas, mitiga el temor o incertidumbre que se posea alrededor de esta temática y genera el empoderamiento necesario para la toma de decisiones.
La guía se subdivide en cuatro partes. La primera presenta conceptos fundamentales para la comprensión y aplicación de esta guía; la segunda está orientada a equipos editoriales y establece principios orientadores y recomendaciones para regular el uso de IA en cada revista. La tercera parte está dirigida a personas revisoras y considera principios orientadores y recomendaciones para reportar el uso de IA en el proceso de evaluación o arbitraje. La cuarta ofrece a las personas autoras principios orientadores y recomendaciones para hacer un uso responsable de IA en su investigación y reportarlo estructuradamente en sus UCC.
Es relevante aclarar que la guía debe mostrar todos los posibles escenarios en los que pueda verse involucrada la IA durante el proceso de investigación o la escritura de un texto científico. De forma específica, cada persona investigadora identificará en cuáles secciones ha utilizado la herramienta y reportará lo correspondiente, utilizando de la guía solo aquello que resulte pertinente.
Para sustentar la propuesta de esta guía se hizo una revisión documental que permitió fundamentar aspectos relevantes de los principios y recomendaciones para cada uno de los tres grupos mencionados. De la revisión destacan las siguientes fuentes ordenadas cronológicamente:
Para la implementación de esta guía se considera fundamental la lectura previa de estos conceptos y definiciones, de tal forma que la persona lectora adquiera o refresque sus conocimientos alrededor del tema. Resulta relevante aclarar que, en aquellos casos en los que no se indique una fuente en particular, se han construido definiciones específicas para una mejor comprensión de los contenidos desarrollados en la guía.
Autoría / Autor / Autora: este rol debe estar ocupado por quien pueda:
La IA puede generar contenido como un ser humano, puede explicar responsablemente y estructuradamente su construcción, pero no puede asumir una posición moral sobre ello. Dado que la IA puede explicar su selección de información y producir expresiones que simulan el pensamiento humano, pero no tiene criterio moral sobre ellas, no puede ser considerada autora ni asumir responsabilidad jurídica sobre aquello que genera (International Committee of Medical Journal Editors [ICMJE], 2024a, 2024b; Hicks et al., 2024; Kaebnick et al., 2023; Zielinski et al., 2023).
Coautoría: realiza las acciones de autoría en conjunto con otros seres humanos.
Creación: es la obra producto del ejercicio intelectual y original de un ser humano (Ley 7397, Asamblea Legislativa de la República de Costa Rica, 1994). La cocreación es la obra producto del ejercicio intelectual y original de varios seres humanos que da como resultado una creación, entendida como un todo indivisible (Ley 7397, Asamblea Legislativa de la República de Costa Rica, 1994).
Datos (de investigación): son los registros reales usados o extraídos de una fuente de información o de un objeto de estudio para realizar investigación, sustentarla o validar sus hallazgos. Por ejemplo: registros numéricos, texto, imágenes o sonidos (OECD, 2007). Típicamente se clasifican como cuantitativos o cualitativos aunque sus formatos y orígenes son diversos. Al combinarlos, interpretarlos, analizarlos o procesarlos adquieren significado y se obtiene información de ellos (Universidad de Alcalá, 2024).
Deep learning: es una forma de aprendizaje automático que usa redes neuronales de múltiples capas (redes profundas) para simular el proceso de toma de decisiones del cerebro humano (IBM, s. f.).
Derechos de autor o autora: Son los derechos (morales y patrimoniales) de los creadores y las creadoras sobre sus obras literarias, científicas o artísticas; asisten a las personas autoras y protegen sus creaciones intelectuales originales manifestadas como formas de expresión, formas creativas y únicas de cada autor o autora (Organización Mundial de la Propiedad Intelectual [OMPI], 1966; OMPI, 2016; Registro Nacional de la República de Costa Rica, 2013b, Unión de Berna, 1979).
Inteligencia artificial (IA): Habilidad de una computadora o de un robot controlado por una computadora para realizar tareas tradicionalmente asociadas a seres inteligentes (OECD, 2023; OMPI, 2020; Zielinski et al., 2023).
Inteligencia artificial (IA) generativa: realiza tareas típicamente asociadas a seres inteligentes usando modelaje generativo y deep learning para producir o generar contenidos a partir de medios existentes (gráficos, texto, audio, video), modelos estadísticos y lenguaje basado en probabilidades y algoritmos (OECD, 2023; OMPI, 2020; Zielinski et al., 2023).
Metadatos: se refiere a los datos que describen o caracterizan los recursos, registros o datos producto del proceso de investigación o reflexión. De acuerdo con la Comisión Económica para América Latina y el Caribe [CEPAL] (2024), la estructura de dicha descripción o caracterización permite la lectura ágil y eficiente mediante computadoras y facilita su interoperabilidad. Además CEPAL (2024) identifica tres tipos de metadatos: los descriptivos caracterizan el contenido de un recurso (por ejemplo: título, autoría, filiaciones, palabras claves, resumen o referencias); los administrativos describen la creación de un recurso o los medios para administrarlo (por ejemplo: metadatos técnicos, de preservación, de gestión, de licenciamiento o términos de propiedad intelectual); y los estructurales que describen las relaciones entre partes de un recurso, por ejemplo: una tabla de contenidos o un diagrama.
Modelaje generativo: técnica de IA que genera productos mediante el análisis de ejemplos de entrenamiento que le permiten a la IA aprender patrones y distribución para crear resultados realistas (Zielinski et al., 2023).
Modelo de documento (JATS): el protocolo JATS (Journal Article Tag Suite) es un estándar internacional de etiquetado para modelar u ordenar la estructura de contenido y metadatos de artículos de revistas. Este modelo divide el texto de un documento científico en un esquema de tres partes. El Front, o partes preliminares, identifica los metadatos descriptivos que aluden a información del texto (por ejemplo: título, autorías, filiaciones, resumen o palabras claves). El Body, o cuerpo, se refiere al contenido narrativo del texto (por ejemplo: jerarquía de secciones, párrafos, tablas o figuras). El Back, o partes finales, incluye las referencias y cualquier otro tipo de material complementario como un apéndice (Lapeyra, 2018). Considerando este esquema se estructura la información de la Figura 1, Figura 2 y Figura 3.
Obra: En el marco del artículo 2 del Convenio de Berna (Unión de Berna, 1979), se considera una obra a toda creación o producción literaria, científica o artística, en cualquiera modo o forma de expresión.
Obra derivada: es la creación producto de la adaptación, transformación o modificación de una o varias creaciones originales (Ley 6638, Asamblea Legislativa de la República de Costa Rica, 1982). Además, la OMPI (2015) señala que la obra derivada también debe considerar “las compilaciones de datos o de otros materiales, en forma legible por máquina o en otra forma, que por razones de la selección o disposición de sus contenidos constituyan creaciones de carácter intelectual” (p.10). Será relevante, para el uso ético y respetuoso de los derechos de autoría y de la propiedad intelectual (OMPI, 1996), que las personas autoras verifiquen –al solicitarle a un modelo de IA generativa que genere obra derivada– que se atribuya correctamente la autoría y se cuente con el licenciamiento para realizar las derivaciones solicitadas.
Principios FAIR: se trata del 4 áreas de abordaje para mejorar la interacción de los sistemas de cómputo con objetos digitales (GO FAIR, 2024). Los cuatro principios son (GO FAIR, 2024): Findable (encontrablilidad) alude a las acciones para caracterizar los objetos digitales y asignarles identificadores específicos que permitan diferenciarlos y encontrarlos. Accesible (accesibilidad) se refiere a las condiciones en las que se puede acceder a los datos y, por ejemplo, si se debe pasar un filtro de identificación o suscripción para acceder a ellos o no. Interoperable (interoperabilidad) apunta a las estrategias accesibles y ampliamente aplicables para que los datos se integren con otros datos, metadatos, aplicaciones o flujos de trabajo. Reusable (reutilización) remite a la importancia de contar con datos apropiadamente caracterizados o descritos para optimizar su potencial de replicabilidad y combinación. En el marco de la CA esto resulta de particular interés porque optimiza aspectos técnicos que permiten compartir la información en abierto y, al aplicar buenas prácticas al respecto, se mejora por extensión, la calidad de los datos que se comparten.
Prompt: es el enunciado o instrucción en lenguaje natural dada por un usuario a un modelo de IA para obtener un producto (Zielinski et al., 2023). Ramos Pollán (2020, p. 33) enfatiza que las aplicaciones prácticas de estos sistemas o modelos dependerán, entre otros aspectos, de “nuestra capacidad para definir qué queremos obtener de ellos con la suficiente concreción”. En el campo de la academia y de la investigación, la precisión con la que se construyan los prompts resulta esencial para obtener una respuesta apropiada (Walter, 2024); si bien no es el foco de este documento desarrollar estrategias para la elaboración de prompts efectivos, sí se puede afirmar que lograr un nivel de precisión adecuado incluye la articulación explícita de una acción complementada por descripciones y delimitaciones, ejemplos, roles desde los que se desea obtener el tono de la respuesta, formatos en los que se desea sistematizar el producto y cualquier otro elemento que ayude a depurar el resultado final.
Prompt inicial: la primera consulta o instrucción dada a la IA y de la que parten consultas o instrucciones secundarias y complementarias.
Prompt secundario: consulta o instrucción (o serie de consultas o instrucciones) dada a la IA para delimitar u obtener más información sobre el prompt inicial mediante:
Prompt complementario: instrucción dada a la IA para complementar el producto de la consulta realizada (prompts inicial y secundarios) una vez que se considera que se ha llegado a un resultado satisfactorio. Por ejemplo: mejorar aspectos de redacción y ortografía o de formato, aplicar una norma de citación, sistematizar en unidades más pequeñas, transformar a otros formatos (audios, transcripciones de audios, gifs, video clips, tablas, diagramas, etc.) o hacer una traducción.
Red de prompts (prompt net): se entenderá como la red que evidencia las relaciones entre prompts –inicial, secundarios y complementarios– que se hayan utilizado para complementar distintas partes del proceso de investigación o de escritura de un artículo. Puede expresarse como esquema o como diagrama de relaciones (ver Figura 1, Figura 2 y Figura 3). En los escenarios de revisión (o arbitraje) o de edición científica, la red de prompts se refiere al conjunto ordenado de acciones que haya dado una persona editora o revisora a la IA para complementar sus tareas respectivas. Para la validación de la construcción de prompt nets, como se proponen en esta guía, se utilizó Gemini (Bard 1.0 Pro, 2024).
La Figura 1, Figura 2 y Figura 3 toman, para organizar la conceptualización y propuesta de reporte de IA, el modelo de documento con protocolo JATS. La Figura 1 conceptualiza la red de prompts o prompt net y muestra las posibles interacciones entre el prompt inicial y sus delimitaciones. Los escenarios de baja complejidad tenderán a mencionar de forma más puntual el uso de IA; los escenarios más complejos y de uso significativo o intensivo tendrán mayores insumos para graficar las interacciones descritas en el diagrama. Cuanto más complejo el escenario de consulta, mayor cantidad y tipo de interacciones se llevarán a cabo, enriqueciendo, así, la red de prompts.
Figura 1: Red de prompts (prompt net), relación entre el prompt inicial y los posibles prompts secundarios y complementarios
Nota: Elaboración propia.
La Figura 2 ejemplifica el diagrama de relaciones que una persona autora puede construir para mostrar la red de prompts utilizada en su texto y sus derivaciones. Los escenarios de baja complejidad no necesariamente reportarán el uso de IA en todas las partes de una UCC; los escenarios de mayor complejidad identificarán más prompts secundarios por apartado de la UCC.
Figura 2: Ejemplo de diagrama para reportar las relaciones entre prompts, ordenados por sección o parte del artículo y clasificados como iniciales o secundarios y prompts complementarios
Nota: Elaboración propia.
La Figura 3 muestra el flujograma para reportar el uso de IA que se recomienda incorporar en la metodología del artículo o UCC. En él se pueden identificar y cuantificar los prompts utilizados por sección o apartado de la UCC y el criterio de delimitación que cubrieron. Un escenario de baja complejidad no necesariamente reportará el uso en cada sección mientras que, cuánto mayor complejidad implique el uso de IA, mayor será la cantidad de prompts contabilizada.
Figura 3. Diagrama de flujo para el reporte de uso de inteligencia artificial en unidades de comunicación científica1
1 Los usos en esta figura representan todos los escenarios posibles de aplicación de IA en el texto científico. Las personas autoras determinarán en cuáles secciones resulta necesario (y en cuáles no) mencionar el uso. Así, para usos muy puntuales: menor cantidad de menciones; y a mayor uso, mayor nivel de detalle por sección para sustentar el uso de IA.
Nota: Elaboración propia.
Propiedad intelectual: considera todas las creaciones en las que interviene la creatividad y originalidad de una persona autora o creadora confiriéndole propiedad sobre ella. Tiene dos ramas: la propiedad industrial y los derechos de autor o autora (Registro Nacional de la República de Costa Rica, 2013a; OMPI, 2020).
Revisión por pares: también se conoce como arbitraje o evaluación por pares. En el contexto de esta guía, se debe entender como el proceso en el que el equipo editorial selecciona a personas con experiencia comprobada en un campo de conocimiento que analizan, revisan, evalúan y aportan comentarios a una UCC presentada por personas autoras a una revista. Actualmente coexisten diversidad de modelos de revisión clasificables como cerrados-abiertos (anonimización o identificación explícita de una o varias partes del proceso editorial: autoría, revisión o edición); o públicos (donde las personas lectoras tienen acceso al contenido de las revisiones y conocen la identidad de las personas que emitieron esos criterios). También se pueden identificar otras dinámicas como el intercambio o traslado de arbitrajes entre revistas o evaluación pospublicación (se reciben comentarios de evaluación luego de que la UCC haya sido evaluado).
Unidad de comunicación científica (UCC): Estructura mínima de un texto de connotación científica y académica para comunicar información. Contiene, al menos: Título, Autoría y Filiación, Contenido (usa vocabulario normalizado para ordenar el escrito) y Referencias. Ej: Artículo científico, artículo de revisión o un ensayo científico.
Uso no filtrado de IA: supone el uso o la incorporación del producto entregado por la IA a la UCC sin que medie la revisión de un ser humano que filtre su pertinencia y veracidad.
Uso filtrado de IA: supone el uso o la incorporación del producto generado por la IA a la UCC (o al resultado de la revisión por pares o de la gestión editorial), luego de que un ser humano haya verificado su pertinencia; veracidad; la correspondencia y coherencia entre la instrucción dada y el producto obtenido; la validez de los métodos de análisis y el tratamiento ético de los datos.
Uso justo: permite el uso de la creación u obra de terceros sin tener que solicitar permiso a su autor o autora o a quien tenga los derechos de uso en tanto se reconozca la autoría. Lo anterior en congruencia con normativa de derechos humanos y otros instrumentos como el Convenio de Berna (APA, 2020; Appel et al., 2023; Jiménez Cardona, 2024; Naciones Unidas, 1948; Unión de Berna, 1979).
Uso transformador (transformativo): se refiere a las modificaciones, adaptaciones o transformaciones que reciben una o varias obras o creaciones y que pretenden cambios que le den a la obra nueva un carácter diferente al de la obra original (Jiménez Cardona, 2024). Será relevante, para el uso ético y respetuoso de los derechos de autoría y de la propiedad intelectual, que las personas autoras verifiquen el grado de la transformación del producto generado.
Estas recomendaciones están dirigidas a equipos editoriales que deseen implementar instrucciones y buenas prácticas para el abordaje del uso de IA desde sus publicaciones. Además de principios orientadores, se proponen dos bloques de recomendaciones. En el primer bloque, Tabla 1, se muestran las recomendaciones para presentar o reportar el uso de IA en diferentes secciones del sitio web de una revista o en los temas tratados en dichas secciones. Como alternativa, en la Tabla 2, se muestran las recomendaciones para la elaboración de una política de uso de inteligencia artificial que reúna todas las consideraciones en una sola sección. Además, en la Tabla 3, se muestran algunas acciones complementarias que pueden acompañar el proceso de adopción y divulgación de una política de uso de IA.
La dinámica editorial comprende, al menos, la interacción de tres roles esenciales en la comunicación del conocimiento: edición, revisión y autoría. La figura de la persona editora está llamada a mediar la interacción durante el procesamiento que lleva a la publicación de una UCC (Ver Tabla 1). Al respecto se recomienda tomar en cuenta los siguientes principios.
Tabla 1: Recomendaciones a las personas editoras o equipos editoriales para evidenciar el uso de IA en las secciones de la revista
Nota: Elaboración propia.
La Figura 4 muestra un flujograma que permite verificar la toma de decisiones en relación con la incorporación de IA a la gestión editorial.
Figura 4: Flujograma de uso de IA en la gestión editorial
Nota: Elaboración propia.
Tabla 2: Recomendaciones a las personas editoras o equipos editoriales para la elaboración de una política de uso de inteligencia artificial en una revista
Nota: Elaboración propia.
La Figura 5 proporciona un flujograma que permite a las personas editoras verificar las acciones necesarias para incorporar una política de uso de IA a su gestión.
Figura 5: Flujograma de incorporación de IA a políticas de gestión de una revista
Nota: Elaboración propia.
Tabla 3: Acciones complementarias para la adopción de prácticas para regular el uso de IA en una revista
Nota: Elaboración propia.
La revisión por pares es una parte relevante del proceso para validar los contenidos que publicará una persona autora en una revista científico-académica. A pesar de las observaciones, críticas u objeciones que se puedan hacer a este filtro (relacionadas con subjetividades, sesgos, celo profesional, apropiación de ideas, el tiempo que puede tomar realizarla, falta de transparencia, etc.), la revisión o evaluación sigue siendo un método aceptado; arraigado en la cultura de publicación científico-académica; altamente difundido como parte del proceso editorial y un espacio de intercambio y depuración de ideas para optimizar la manera en la que los seres humanos comunican los hallazgos de sus investigaciones y reflexiones (Bhosale & Kapadia, 2023).
En su espíritu más virtuoso, el arbitraje o revisión por pares realiza aportes significativos al proceso de publicación mediante el análisis crítico de textos y el intercambio entre personas revisoras, autoras y editoras. Se trata de un proceso que deja registro, es trazable (aunque muchas veces confidencial o anonimizado) y puede asociarse a seres humanos responsables de los criterios emitidos.
En el contexto de siglo XXI y en el marco de la CA, los modelos de arbitraje se han diversificado. Desde esta perspectiva, el uso de IA en el proceso de revisión es un factor adicional que suma a dicha diversidad.
Al plantear las recomendaciones para que las personas en el rol de par evaluador reporten de forma transparente el uso de Inteligencia Artificial en la revisión de manuscritos, se deben considerar los siguientes aspectos:
En la Tabla 4 se sistematizan las recomendaciones para reportar de forma transparente el uso responsable de IA en el proceso de revisión de textos académico-científicos.
Tabla 4: Lista de comprobación de recomendaciones y buenas prácticas para que pares evaluadores reporten el uso de IA en la revisión de textos científicos (UCC)
Nota: Elaboración propia.
La Figura 6 proporciona un flujograma que sistematiza las acciones relacionadas con el uso y reporte de IA en la revisión por pares.
Figura 6. Flujograma de incorporación de IA a la revisión por pares
Nota: Elaboración propia.
En una dinámica de publicación donde las acciones que acompañan la comunicación de conocimiento son más y más complejas, el llamado a las personas autoras es que, al menos, puedan explicar de forma solvente y transparente qué uso han dado a la IA y cómo, durante su uso, han evitado crear sesgo o propagarlo. La IA debe considerarse como una herramienta que ayude a gestionar el conocimiento, cuyo fin último debe ser el apoyo a las mejoras en la calidad de vida de los seres humanos.
Esta guía cubre las secciones de textos científico-académicos en las que, potencialmente, se puede hacer uso de IA. La intención primaria es que las personas autoras puedan reportar, de forma efectiva y detallada, cómo han incorporado esta herramienta a sus textos y dejen evidencia de la ruta que han seguido para que otros puedan comprender el uso dado y, eventualmente, replicarlo.
Al extender recomendaciones para que las personas en el rol de autoría reporten de forma apropiada, transparente y rigurosa el uso de inteligencia artificial, se deben considerar los siguientes aspectos:
En la Tabla 5 se presentan, ordenadas por las secciones típicas de un artículo científico, las recomendaciones y buenas prácticas que las personas autoras deben tomar en cuenta al reportar de manera responsable, normalizada y transparente, el uso de IA en sus manuscritos.
Tabla 5: Lista de comprobación de recomendaciones y buenas prácticas para que personas autoras reporten el uso de IA en textos científicos producto de investigación o revisión documental
1 Ver conceptos de prompt, prompt inicial, prompt secundario y prompt complementario en la sección de definiciones.
3 Los usos en esta tabla representan todos los escenarios posibles de aplicación de IA en el texto científico. Las personas autoras determinarán en cuáles secciones resulta necesario (y en cuáles no) mencionar el uso. Así, para usos muy puntuales: menor cantidad de menciones; y a mayor uso, mayor nivel de detalle por sección para sustentar el uso de IA.
Nota: Elaboración propia.
La Figura 7 proporciona un flujograma que sistematiza las acciones relacionadas con el uso y reporte de IA en la escritura de textos científicos.
Figura 7: Flujograma de incorporación de IA a la escritura de textos científicos
Nota: Elaboración propia.
En la Tabla 6 se presentan, ordenadas por las secciones de un ensayo, las recomendaciones y buenas prácticas que las personas autoras deben tomar en cuenta al reportar de manera responsable, normalizada y transparente, el uso de IA en sus manuscritos.
Tabla 6: Lista de comprobación de recomendaciones y buenas prácticas para reportar el uso de IA en ensayos
1 Ver conceptos de prompt, prompt inicial, prompt secundario y prompt complementario en la sección de definiciones.
Nota: Elaboración propia.
El uso de la IA en las decisiones científicas debe ser empleado para beneficio de toda la humanidad salvaguardando principios éticos, el desarrollo y el bien común. El uso incorrecto o inadecuado puede provocar riesgos que atenten contra la vida humana y contra derechos fundamentales como acceso a la información, educación, la privacidad de los datos personales, la igualdad de género, el medio ambiente, la dignidad humana, libertades y diversidad cultural, entre otros (Unesco, 2022; Unesco, 2023a, 2023b).
Indistintamente del rol que se ejerza, como personas investigadoras-autoras, revisoras o editoras de revistas científicas, se debe asumir una postura ética y moral frente al uso del IA que mitigue sesgos y desinformación. Al respecto, es necesario también conocer las normativas que diferentes sectores, en el nivel mundial, han generado sobre este tema, como ejes orientadores del propio quehacer, por ejemplo, en orden cronológico:
Adicionalmente, Hicks et al. (2024) establecen que existen debates abiertos que rodean un tema medular sobre el propósito y uso de los modelos de lenguaje; esto es: ¿cuál es la verdadera naturaleza del texto producido como respuesta por un modelo?, y, ¿cuál es su relación con la verdad? En ese marco, establecen que el interés de un modelo de lenguaje no es decir la verdad, sino producir textos que parezcan verdad, que sean aptos como verdad o que guarden similitud con ella. Desde esta perspectiva, proponen que el fenómeno denominado alucinación –una respuesta imprecisa que no guarda consistencia con los datos disponibles y que sugiere que un modelo está mal interpretándolos– no es tal. Tampoco se trata, necesariamente, de que los modelos mientan de forma deliberada y sin rendir cuentas, sino de que dicen charlatanerías [bullshit] en el sentido desarrollado por Harry Frankfurt quien define el término como: persuadir sin tener consideraciones o miramientos sobre la verdad. Esta sola proposición encierra un fuerte debate ético sobre cómo los seres humanos usamos los productos que ofrece un modelo de lenguaje, cómo los interpretamos y cuáles son nuestras expectativas sobre ellos. Al respecto, Hicks et al. (2024) nos recuerdan una diferencia esencial entre las metas de aprendizaje de la mente humana y las de un modelo de lenguaje: la primera procura aprender para atender necesidades reales y mejorar la calidad de vida; la segunda tiene como meta replicar –de la forma más fiel posible– el habla, la escritura y otras formas de expresión humana.
Por otra parte, se debe tener presente que la IA es creación de seres humanos por lo que los sesgos estarán presentes y se deben generar acciones para mitigarlos. Algunas situaciones que llevan a sesgos o potenciales sesgos, generados por la IA, pero que no necesariamente son visibles o detectables con facilidad en los procesos científicos se comentan a continuación (Unesco, 2023a, 2023b):
Finalmente, esta guía fue construida con el espíritu de orientar el quehacer de las personas investigadoras-autoras, editoras y revisoras que hayan decidido de forma consciente incorporar o apoyar su trabajo con IA. Dirigir este uso hacia la ética, transparencia y rigurosidad al participar de la dinámica de gestión del conocimiento en el tramo que le corresponde a la publicación científica, resulta fundamental para la reproducibilidad del conocimiento que propone la ciencia abierta. Alinear los tres escenarios –texto, revisión y edición– además de representar un uso responsable, ayuda a sostener la consistencia del proceso de publicación. Se han procurado tipificar los alcances y los usos emergentes de la IA en materia de comunicación en revistas científicas de manera que, sin delimitar hermética o taxativamente su evolución, crecimiento o transformación –lo que resulta imposible desde la perspectiva de las investigadoras–, se pueda declarar su uso en productos de comunicación científica con un mecanismo estructurado que permita su comprensión (explicabilidad). Comprender que estamos ante un fenómeno en evolución será clave para actualizar los alcances y orientaciones de esta propuesta en el futuro.
L. P. C. contribuyó en la conceptualización, diseño metodológico y del modelo propuesto, análisis y conducción del proceso de investigación; validó el uso del modelo de prompt nets y colaboró con el diseño y visualización de las figuras y supervisó la escritura de la guía en su versión de borrador y final. M. M. C. contribuyó en la conceptualización, diseño metodológico y del modelo propuesto y análisis del proceso de investigación; colaboró con la escritura de la guía en su versión de borrador y con el diseño y visualización de las figuras. M. A. P. C. contribuyó en la conceptualización, diseño metodológico y del modelo propuesto; colaboró con la escritura de la guía en su versión de borrador y con el diseño y visualización de las figuras.
Este artículo tiene disponible material complementario:
Preprint en https://repositorio.una.ac.cr/handle/11056/27431
No se utilizó IA para la conceptualización o redacción de esta guía.
Se utilizó Gemini (Bard 1.0 Pro, 2024, febrero 20 a 29) para validar las posibilidades de construcción de prompt nets en el marco de lo descrito por esta guía. Su uso fue mediado por seres humanos.
Editora Invitada
Dra. Suyen Alonso Ubieta
Editora de la Revista de Política Económica y Desarrollo Sostenible
CINPE, Universidad Nacional, Costa Rica
Imagen se reproduce con autorización del equipo PIEG-UNA.
American Psychological Association (APA). (2020). Publication Manual of the American Psychological Association (7th ed.). https://doi.org/10.1037/0000165-000
Appel, G., Neelbauer, J., & Schweidel, D. A. (2023, 07 de abril). Generative IA Has an Intellectual Property Problem. Harvard Business Review. https://hbr.org/2023/04/generative-ai-has-an-intellectual-property-problem
Asamblea Legislativa de la República de Costa Rica. (1994). Ley 7397 Reforma Ley sobre Derechos de Autor y Derechos Conexos. https://www.pgrweb.go.cr/scij/Busqueda/Normativa/Normas/nrm_texto_completo.aspx?param1=NRTC&nValor1=1&nValor2=21098&nValor3=22417&strTipM=TC
Asamblea Legislativa de la República de Costa Rica. (1982). Ley 6638 Ley sobre Derechos de Autor y Derechos Conexos. https://www.pgrweb.go.cr/scij/Busqueda/Normativa/Normas/nrm_norma.aspx?param1=NRM&nValor1=1&nValor2=3396&nValor3=0&strTipM=FN
Bard 1.0 Pro. (2024). Gemini (versión febrero 2024) [Modelo de lenguaje]. https://gemini.google.com/?hl=es
Bhosale, U. & Kapadia, A. (2023, 29 de setiembre). IA Integration can Future-Proof Peer Review – But only if we define and drive the right principles. Enago Academy. https://www.enago.com/academy/ai-integration-in-peer-review/
Cardoso Sampaio, R. (2024, 07 de febrero). Recomendações iniciais para editores de periódicos científicos sobre o uso de inteligência artificial generativa. Dados [Blog]. http://dados.iesp.uerj.br/recomendacoes-iniciais-para-editores-de-periodicos-cientificos-sobre-o-uso-de-inteligencia-artificial-generativa/
Comisión Económica para América Latina y el Caribe (CEPAL). (2024, 05 de enero). Biblioguías: Gestión de datos de investigación. ¿Qué son los metadatos? https://biblioguias.cepal.org/gestion-de-datos-de-investigacion/metadatos
Comisión Europea. (2021). Propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial (ley de inteligencia artificial) y se modifican determinados actos legislativos de la unión 2121/0106. https://eur-lex.europa.eu/legal-content/ES/TXT/?uri=celex%3A52021PC0206
Comisión Europea (CE). (2019, 08 de abril). Directrices éticas para una IA confiable. https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai
Committee on Publicaction Ethics (COPE). (2023, 13 de febrero). Authorships and AI tools. COPE position Statement. https://publicationethics.org/cope-position-statements/ai-author
Future of Life Institute. (2017). Asilomar IA Principles. https://futureoflife.org/open-letter/ai-principles/
García-Velázquez, L. M. (2023). Inteligencia artificial y patrimonio cultural: Una aproximación desde las humanidades digitales. DICERE, Revista de Humanidades, Ciencias Sociales y Artes, (4), 149–160. https://doi.org/10.35830/dc.vi4.55
GO FAIR. (2024, 09 de marzo). Principios JUSTOS. https://www.go-fair.org/fair-principles/
Gobierno Reino Unido. (2023, 01 de noviembre). Declaración de Bletchley de los países que asisten a la Cumbre de seguridad de la IA. https://www.gov.uk/government/publications/ai-safety-summit-2023-the-bletchley-declaration/dbc58681-1b68-47e0-8e3f-f91435fdf8ce
Hicks, M.T., Humphries, J., & Slater, J. (2024). ChatGPT is bullshit. Ethics and Information Technology, 26, Article 38. https://doi.org/10.1007/s10676-024-09775-5
IBM. (s.f.). What is deep Learning? https://www.ibm.com/topics/deep-learning
Institute of Electrical and Electronics Engineers (IEEE). (2019). Ethically Aligned Design. A Vision for Prioritazing Human Well-being with Autonomous and Intelligent Systems. Version 2. https://standards.ieee.org/wp-content/uploads/import/documents/other/ead_v2.pdf
Institute of Electrical and Electronics Engineers (IEEE). (2021). Proceso modelo estándar de IEEE para abordar preocupaciones éticas durante el diseño de sistemas. IEEE Std 7000-2021. https://doi.org/10.1109/IEEESTD.2021.9536679
International Committee of Medical Journal Editors (ICMJE). (2024a). Recommendations for the Conduct, Reporting, Editing, and Publication of Scholarly Work in Medical Journals. https://www.icmje.org/icmje-recommendations.pdf
International Committee of Medical Journal Editors (ICMJE). (2024b). Who Is an Author? Defining the Role of Authors and Contributors. https://www.icmje.org/recommendations/browse/roles-and-responsibilities/defining-the-role-of-authors-and-contributors.html#two
Jiménez Cardona, N. (2024). El “uso transformador” de las empresas de IA: entre la libertad creativa y los derechos de propiedad intelectual. Revista de Internet, Derecho y Política, (40), 1-11. https://doi.org/10.7238/idp.v0i40.421926
Kaebnick, G. E., Magnus, D. C., Kao, A., Hosseini, M., Resnik, D., Dubljević, V., Rentmeester, C., Gordijn, B., & Cherry, M. J. (2023). Editors’ Statement on the Responsible Use of Generative IA Technologies in Scholarly Journal Publishing. The Hastings Center Report, 53(5), 3–6. https://doi.org/10.1002/hast.1507
Lapeyre, D. (2018, 31 de octubre). Introducción a JATS (Journal Article Tag Suite). SciELO en Perspectiva [Blog]. https://blog.scielo.org/es/2018/10/31/introduccion-a-jats-journal-article-tag-suite/
Liberati, A., Altman, D. G., Tetzlaff, J., Mulrow, C., Gøtzsche, P. C., Ioannidis, J. P. A., Clarke, M., Devereaux, P. J., Kleijnen, J., & Moher, D. (2009). The PRISMA statement for reporting systematic reviews and meta-analyses of studies that evaluate healthcare interventions: Explanation and elaboration. British Medical Journal, 339, Artículo b2700. https://doi.org/10.1136/bmj.b2700
Moher, D., Liberati, A., Tetzlaff, J. Altman, D., & The PRISMA Group. (2009). Preferred Reporting Items for Systematic Reviews and Meta-Analyses: The PRISMA Statement. Annals of Internal Medicine, 151(4), 264-269. https://doi.org/10.7326/0003-4819-151-4-200908180-00135
Naciones Unidas. (1948). Declaración Universal de los Derechos Humanos. https://www.un.org/es/about-us/universal-declaration-of-human-rights
Organization for Economic Co-operation and Development (OECD). (2023). Recommendation of the Council on Artificial Intelligence, OECD/LEGAL/0449. https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449
Organization for Economic Co-operation and Development (OECD). (2007). OECD Principles and Guidelines for Access to Research Data From Public Funding. https://doi.org/10.1787/9789264034020-en-fr .
Organización Mundial de la Propiedad Intelectual (OMPI). (1996). Tratado de la OMPI sobre Derecho de Autor. https://www.wipo.int/wipolex/es/text/295158
Organización Mundial de la Propiedad Intelectual (OMPI). (2015, 30 de noviembre). Comité Intergubernamental sobre Propiedad Intelectual y Recursos Genéticos, Conocimientos Tradicionales y Folclore. https://www.wipo.int/edocs/mdocs/tk/es/wipo_grtkf_ic_29/wipo_grtkf_ic_29_inf_7.pdf
Organización Mundial de la Propiedad Intelectual (OMPI). (2016). Principios básicos del derechos de autor y los derechos conexos (2da ed.). https://www.wipo.int/edocs/pubdocs/es/wipo_pub_909_2016.pdf
Organización Mundial de la Propiedad Intelectual (OMPI). (2020). Diálogo de la OMPI sobre propiedad intelectual (PI) e inteligencia artificial (IA). https://www.wipo.int/meetings/es/details.jsp?meeting_id=55309
Page, M. J., McKenzie, J. E., Bossuyt, P. M., Boutron, I., Hoffmann, T. C., Mulrow, C. D., Shamseer, L., Tetzlaff, J. M., & Moher, D. (2021). Updating guidance for reporting systematic reviews: Development of the PRISMA 2020 statement. Journal of Clinical Epidemiology, 134, 103-112. https://doi.org/10.1016/j.jclinepi.2021.02.003
Ramos Pollán, R. (2020). Perspectivas y retos de las técnicas de inteligencia artificial en el ámbito de las ciencias sociales y de la comunicación. Anuario Electrónico de Estudios en Comunicación Social “Disertaciones”, 13(1), 21-34. https://doi.org//10.12804/revistas.urosario.edu.co/disertaciones/a.7774
Registro Nacional de la República de Costa Rica. (2013a). Conozcamos sobre propiedad intelectual. http://www.registronacional.go.cr/propiedad_industrial/documentos/fasciculos%20propiedad%20industrial/RN-1%20Conozcamos%20Propiedad%20Intelectual.pdf
Registro Nacional de la República de Costa Rica. (2013b). Derecho de autor. Protección. http://www.registronacional.go.cr/propiedad_industrial/documentos/fasciculos%20propiedad%20industrial/RN-2%20Proteccion%20(Derechos%20de%20Autor).pdf
Steels, L. & López de Mantaras, R. (2018). The Barcelona declaration for the proper development and usage of artificial intelligence in Europe. AI Communications, 31(6), 485-494. https://doi.org/10.3233/AIC-180607
The Toronto Declaration. (2024). La Declaración de Toronto. Proteger el derecho a la igualdad y la no discriminación en los sistemas de aprendizaje automático. https://www.torontodeclaration.org/declaration-text/english/
Tricco, A. C., Lillie, E., Zarin, W., O’Brien, K., Colquhoun, H., Levac, D., Moher, D., Peters, M. D. J., Horsley, T. Weeks, L., Hempel, S., Akl, E. A., Chang,C., McGowan, J., Stewart, L., Hartling, L., Aldcroft, A., Wilson, M.G., Garritty, C., Lewin, S. … & Straus, S. E. (2018). PRISMA Extension for Scoping Reviews (PRISMA-ScR): Checklist and Explanation. Annals of Internal Medicine, 169(7), 467-473. https://doi.org/10.7326/M18-0850
Unesco. (2021). Recomendación de la UNESCO sobre la ciencia abierta.
Unesco. (2022). Recomendación sobre la ética de la inteligencia artificial. https://unesdoc.unesco.org/ark:/48223/pf0000381137_spa
Unesco. (2023a). Kit de herramientas global sobre IA y el estado de derecho para el poder judicial. https://unesdoc.unesco.org/ark:/48223/pf0000387331_spa
Unesco. (2023b). ChatGPT e inteligencia artificial en la educación superior. Guía de inicio rápido. https://unesdoc.unesco.org/ark:/48223/pf0000385146_spa
Unión de Berna. (1979). Convenio de Berna. https://www.wipo.int/treaties/es/ip/berne/
Universidad de Alcalá. (2024, 09 de enero). Biblioguías. Datos de investigación: Los datos de investigación. https://uah-es.libguides.com/datos_investigacion
Université de Montréal. (2018). Declaración de Montreal para un desarrollo responsable de la inteligencia artificial. https://declarationmontreal-iaresponsable.com/wp-content/uploads/2023/01/ES-UdeM_Decl-IA-Resp_LA-Declaration_v4.pdf
Walter, Y. (2024). Embracing the future of Artificial Intelligence in the classroom: the relevance of AI literacy, prompt engineering, and critical thinking in modern education. International Journal of Educational Technology in Higher Education, (21), Artículo 15. https://doi.org/10.1186/s41239-024-00448-3
Zielinski, C., Winker, M. A., Aggarwal, R., Ferris, L. E., Heinemann, M., Lapeña, J. F., Pai, S. A., Ing, E., Citrome, L., Alam, M., Voight, M., Habibzadeh, F., & WAME Board. (2023, 31 de mayo). Chatbots, Generative AI, and Scholarly Manuscripts. WAME Recommendations on Chatbots and Generative Artificial Intelligence in Relation to Scholarly Publications. WAME. https://www.wame.org/page2.php?id=106
Regresar al inicio