Comité Internacional de Editores de Revistas Médicas: uso de inteligencia artificial en las publicaciones científicas

Si bien estas tecnologías pueden ofrecer beneficios teóricos prometedores para la práctica clínica, las tareas administrativas y la vida cotidiana, su adopción demasiado rápida corre el riesgo de tener graves consecuencias no deseadas. La propensión de las versiones actuales de las tecnologías asistidas por IA a generar información errónea y errores es inaceptable en la ciencia, que depende fundamentalmente en la exactitud, la precisión y la reproducibilidad, y todos los investigadores y académicos que se sientan tentados a utilizar herramientas de IA en su trabajo deben ser conscientes de ello. Canadian Medical Association Journal, 24 de julio de 2023.

Los importantes avances recientes en grandes modelos de lenguaje (algoritmos sofisticados de inteligencia artificial generativa (IA) entrenados en cantidades masivas de datos de lenguaje) han dado lugar a herramientas de escritura ampliamente disponibles, como el popular chatbot de OpenAI, ChatGPT, que pueden analizar texto y producir contenido nuevo en respuesta a las indicaciones del usuario. Esta tecnología tiene implicaciones importantes e inmediatas para los académicos que escriben artículos y para las revistas que los publican. En mayo de 2023, el Comité Internacional de Editores de Revistas Médicas (ICMJE, por sus siglas en inglés) actualizó sus recomendaciones para el trabajo académico publicado en revistas médicas con directivas específicas relacionadas con las tecnologías asistidas por IA. [...]

Los grandes modelos de lenguaje tienen una poderosa capacidad para buscar y volver a empaquetar información de su conjunto de datos de entrenamiento en una amplia variedad de formatos y estilos que los usuarios pueden especificar. Se pueden utilizar para generar ideas y esquemas para manuscritos académicos, o incluso el texto completo de los artículos. Debido a que las herramientas de IA contemporáneas pueden estar notablemente bien entrenadas para imitar el habla y los estilos de escritura humanos, sus resultados pueden parecerse mucho a los de un autor humano y pueden transmitir la impresión de precisión y autoridad, así como una conexión emocional.

Sin embargo, esta impresión es una ilusión. Debido a la forma en que las computadoras comprimen y almacenan conjuntos de datos extremadamente grandes, los modelos grandes de lenguaje estiman gran parte de la información que recuperan y compilan en lugar de poder reproducirla con precisión, como si se intentara reconstruir el texto exacto de una conferencia a la que no se asistió a partir de las notas puntuales tomadas por otra persona. Como resultado, los resultados de los modelos grandes de lenguaje son muy propensos a errores y se puede fabricar mucho contenido (por ejemplo, referencias), mientras que lo que se reproduce con precisión puede constituir plagio.

Los algoritmos de IA actuales no pueden distinguir de forma fiable si la información con la que han sido programados es verdadera o falsa y no pueden identificar cuándo están fabricando ("alucinando") información en lugar de reproducirla con precisión, lo que contribuye aún más a la falta de fiabilidad de sus resultados. Además, debido a que las versiones actuales de modelos de lenguaje grande no pueden actualizar en tiempo real los datos en los que fueron entrenados, sus resultados pueden estar desactualizados. Por ejemplo, ChatGPT recibió capacitación sobre información accesible en Internet en 2021, demasiado tiempo para algunos campos de investigación con una rotación de información muy rápida.

Y si bien todo lo anterior supone que los autores están tratando de ser precisos y honestos, la IA crea un potencial sin precedentes para que personas sin escrúpulos generen malas conductas científicas al producir artículos inventados o falsificados de manera convincente. Sin embargo, tales individuos serían tontos, porque se están desarrollando rápidamente herramientas para detectar el uso de tecnologías asistidas por IA en artículos científicos.

Por estas razones, el ICMJE (y el CMAJ) requieren ahora que los autores informen cualquier uso de tecnologías asistidas por IA en la generación de cualquier parte de un manuscrito enviado (Cuadro 1). La divulgación debe ocurrir tanto en el manuscrito como en la carta de presentación que acompaña al envío del manuscrito, y los autores deben estar preparados para proporcionar información detallada sobre la naturaleza de su uso. Las tecnologías asistidas por inteligencia artificial no deben ser nombradas como autores de artículos, porque son incapaces de cumplir con varios criterios requeridos por el ICMJE para la autoría, incluida la capacidad de asumir la responsabilidad del trabajo publicado, declarar intereses contrapuestos y celebrar acuerdos de licencia y derechos de autor. En cambio, los autores humanos deben asumir la responsabilidad total de garantizar que todo el contenido generado por la IA sea preciso y esté libre de errores, fabricación y plagio. Del mismo modo, las tecnologías asistidas por IA no deben citarse como fuente principal de la información proporcionada en un manuscrito, ya que la IA simplemente reproduce (a menudo de manera inexacta) otras fuentes primarias, cuya identidad y calidad pueden no conocerse.

Recuadro 1: Requisitos para informar el uso de tecnologías asistidas por inteligencia artificial para manuscritos enviados a CMAJ (basado en recomendaciones del Comité Internacional de Editores de Revistas Médicas1)

  •  En el envío del artículo, CMAJ requiere que los autores divulguen cualquier uso de tecnologías asistidas por inteligencia artificial (IA) (por ejemplo, modelos de lenguaje grandes, chatbots, creadores de imágenes) en cualquier aspecto de la creación del trabajo enviado. 
  • Los autores deben describir la naturaleza de dicho uso en la carta de presentación, así como en el manuscrito mismo.
  •  La inteligencia artificial y las tecnologías asistidas por IA no deben figurar como autor o coautor de un manuscrito.
  • La inteligencia artificial y las tecnologías asistidas por IA no deben citarse como referencia u otra fuente principal o como autor de una referencia.
  • Los autores humanos son responsables de cualquier material enviado que incluya el uso de tecnologías asistidas por IA, incluida su corrección, integridad y precisión.
  • Los autores deben poder afirmar que no hay plagio en el artículo, incluido el texto y las imágenes producidos por tecnologías asistidas por IA, y deben garantizar la atribución adecuada de todo el material, incluidas las citas completas cuando corresponda.
  • Los pares revisores no deben cargar manuscritos CMAJ en software u otras tecnologías de inteligencia artificial donde no se pueda garantizar la confidencialidad.
  • Incluso si las tecnologías asistidas por IA se utilizan de manera que se pueda garantizar la confidencialidad del manuscrito, los revisores que opten por utilizar dichas tecnologías para facilitar su revisión deben revelar su uso y su naturaleza a CMAJ y son responsables de garantizar que cualquier información generada por IA el contenido incorporado en las reseñas es correcto, completo e imparcial.

Debido a que las tecnologías asistidas por IA pueden ser muy eficientes en el procesamiento y análisis de texto, las personas que aceptan actuar como revisores de manuscritos pueden verse tentadas a utilizar estas herramientas para ayudar en su proceso de revisión. Sin embargo, las recomendaciones del ICMJE prohíben esto en muchos casos. Muchas herramientas de IA conservan un registro de todo el contenido que se les carga como parte de su proceso continuo de desarrollo. Por lo tanto, cargar parte o la totalidad de un manuscrito no publicado en una herramienta de IA de este tipo constituiría una violación del requisito de que los revisores deben mantener estos manuscritos confidenciales.

No es necesario divulgar el uso incidental de herramientas de inteligencia artificial más simples y comunes, como las que corrigen la ortografía y la gramática en muchas aplicaciones modernas de software de procesamiento de textos. Además, la investigación diseñada para estudiar la naturaleza y el efecto de la IA está, por supuesto, permitida, con una descripción adecuada de las metodologías empleadas.

Estas nuevas recomendaciones abordan con prudencia algunos daños previsibles de las tecnologías emergentes asistidas por IA para la ciencia y la publicación académica. Si bien estas tecnologías pueden ofrecer beneficios teóricos prometedores para la práctica clínica, las tareas administrativas y la vida cotidiana, su adopción demasiado rápida corre el riesgo de tener graves consecuencias no deseadas. La propensión de las versiones actuales de las tecnologías asistidas por IA a generar información errónea y errores es inaceptable en la ciencia, que depende fundamentalmente en la exactitud, la precisión y la reproducibilidad, y todos los investigadores y académicos que se sientan tentados a utilizar herramientas de IA en su trabajo deben ser conscientes de ello. El desarrollo y uso de tecnologías asistidas por IA debe proceder con transparencia, responsabilidad y precaución. Por más sofisticadas que se vuelvan las tecnologías de IA, siguen siendo algoritmos diseñados por humanos; nunca reemplazarán la creatividad humana, la curiosidad y el ingenio que constituyen la base de la ciencia y la erudición.

.

El artículo original:

Matthew B. Stanbrook, Meredith Weinhold, Diane Kelsall. A new policy on the use of artificial intelligence tools for manuscripts submitted to CMAJ. CMAJ Jul 2023, 195 (28) E958-E959; DOI: 10.1503/cmaj.230949

Disponible en: https://n9.cl/5t8vt

Compartir