El pasado día 22 de febrero pudimos asistir a una nueva sesión, ya la undécima, de Inter-CRECS (Conferencia Internacional sobre Revistas Científicas). Esta sesión de invierno tenía el reto de hablar de lo que es ya una realidad tecnológica por su accesibilidad al público en general como es la Inteligencia Artificial (IA) y cómo afecta a la comunicación científica.
La sesión fue presentada por Rafael Repiso, quien rápidamente dio paso al ponente Carlos Lopezosa de la Universidad de Barcelona, con una estructurada y didáctica sesión que tenía como título Inteligencia artificial y comunicación científicas: retos y oportunidades.
Carlos inició su sesión con unas consideraciones previas como fueron definir el chatbot ChatGPT, que es uno de los más utilizados y el que él usó en la presentación, y los Prompts:
- ChatGPT (Generative Pre-trained Transformer) es un modelo de lenguaje desarrollado por OpenAI que utiliza técnicas de procesamiento de lenguaje natural NLP (Natural Lenguage Proccesing) para generar respuestas coherentes y naturales a tiempo real.
- Prompts son las peticiones o instrucciones que hacen a ChatGPT para que ofrezca respuesta, que deben entenderse como propuestas conceptuales sin considerar la practicidad a cualquier escala. Pero a medio y corto plazo las IA especialmente ChatGPT estarán conectadas e integradas en aplicaciones ofimáticas que facilitarán la practicidad y conectividad.
Después, pasó a explorar la IA en el contexto de la comunicación científica, cuya inclusión hace vislumbrar un nuevo escenario con sus luces y sus sombres, que Carlos sintetiza en tres aspectos importantes:
- Para los investigadores, a los que les va a facilitar el diseño de investigación, la toma de datos y la propia escritura de los artículos.
- Para las revistas académicas, que van a poder utilizarla como una herramienta de procesos internos y, sobre todo, lidiar con la barrera entre un buen y mal uso de la IA en los manuscritos recibidos.
- La propia IA, como herramienta y métodos de análisis en sí mismo, como posible autor.
Para mostrar estos tres aspectos, ejemplifica con prompts realizados a ChatGPT. Empieza proponiendo varios ejemplos de prompts que puede lanzar un investigador a ChatGPT para el diseño y toma de datos de una investigación:
– Le solicita crear una entrevista abierta para realizar una investigación cualitativa a expertos sobre IA y comunicación científica. La respuesta es la creación de 5 preguntas posibles a realizar que tocan diferentes aspectos para obtener una investigación general.
– Le solicita una ecuación de búsqueda optimizada para realizar una revisión sistemática. La respuesta es una estrategia utilizando operadores booleanos y las posibles palabras clave, pero le avisa de la necesidad de ajustarla en función de los resultados y la base de datos que se utilice.
– Le facilita datos de un trabajo de investigación y le pide que haga una estadística sobre los datos como si fuera un experto en estadística. Y la respuesta son los datos (media aritmética, mediana, desviación estándar, rango, varianza, etc.). Y también le facilita datos para que le genere en R un código.
Es decir, que no solo da respuestas, sino que, además, ayuda a utilizarlo con programas como R, Python, etc.
Posteriormente, pasó al punto más crítico, que era cómo podía la IA ayudarnos a escribir un artículo científico: proporcionando ideas para un marco teórico, proponiendo abstract y palabras clave, mejorando la redacción del manuscrito, eliminando reiteraciones y párrafos, etc. Esto va a suponer un cambio de paradigma, de hecho nos muestra un preprint publicado en medRxiv que tiene como tercer autor a ChatGPT [1]. Lo cual no es posible en una publicación revisada por pares ya que el ChapGPT no tiene responsabilidad en su trabajo y se utiliza como parte de la metodología y debería ser citado como una de las fuentes.
También propuso ejemplos conceptuales sencillos que puedan aplicar los editores de las revistas académicas, en concreto con ChatGPT:
– Elegir evaluadores de artículos en base a su experticia de un listado concreto.
– Identificar y rectificar las referencias bibliográficas escritas en un determinado estilo.
Carlos considera que la revista académica se enfrenta a grandes desafíos por el uso de la IA, como van a ser los contenidos creados por la IA, la falta de transparencia por uso, el plagio, la falta de ética, pensamiento crítico y verificación en los resultados proporcionados por los resultados, etc.
Y, finalmente, realiza una propuesta de cómo debe ser el uso responsable de la IA, basándose en el trabajo de ChatGPT: five priorities [2] que establece 5 puntos de debate:
1. Mantener la verificación humana.
2. Discutir tareas de investigación que debe o no hacerse externalizadas.
3. Determinar las habilidades de características académicas esenciales de los investigadores.
4. Garantizar los modelos de lenguaje que promueven la equidad de la investigación y evitar los riesgos de aumentar las desigualdades.
5. Asegurar que estos modelos de lenguaje se usen para mejorar los principios de ciencia abierta.
La conclusión final, en su opinión, es que los requisitos fundamentales a aplicar siempre con la IA van a ser la transparencia, la ética científica y el pensamiento crítico. A la presentación siguió un debate muy interesante y enriquecedor en el que se palpa el interés por estos temas en la profesión y el vértigo que produce su incontenible evolución.
[1] Performance of ChatGPT on USMLE: Potential for AI-Assisted Medical Education Using Large Language Models Tiffany H. Kung, Morgan Cheatham, ChatGPT, Arielle Medenilla, Czarina Sillos, Lorie De Leon, Camille Elepaño, Maria Madriaga, Rimel Aggabao, Giezel Diaz-Candido, James Maningo, Victor Tseng. medRxiv 2022.12.19.22283643; doi:https://doi.org/10.1101/2022.12.19.22283643
[2] van Dis EAM, Bollen J, Zuidema W, van Rooij R, Bockting CL. ChatGPT: five priorities for research. Nature. 2023 Feb;614(7947):224-226. doi: 10.1038/d41586-023-00288-7. PMID: 36737653.
Blanca San José Montano
Responsable de la Biblioteca de Ciencias de la Salud del Hospital Universitario de Móstoles (Madrid), Vocal en Junta Directiva SEDIC