Farmacología

Evaluación de las vulnerabilidades de los modelos de lenguaje grandes ante la conversión maliciosa en chatbots de desinformación sanitaria

25 junio 2025

Se exploró el efecto de brindar instrucciones maliciosas a cinco programas modelos extensos de lenguaje (LLM) a través de sus interfaces de programación de aplicaciones,  para crear de forma encubierta chatbots de desinformación sobre salud. Luego se realizaron 10 preguntas de salud a cada LLM y se obtuvo un 100% de respuestas con desinformación en 4 de los sistemas evaluados y un 44% en el restante. Estos hallazgos resaltan la necesidad urgente de contar con sólidas medidas de control de calidad para garantizar la seguridad de la salud pública en una era de tecnologías en rápida evolución. Annals of Internal Medicine, 24 de junio de 2025.

Evaluación de referencia de los modelos de lenguaje grande de DeepSeek en la toma de decisiones clínicas

28 abril 2025

Nuestro estudio demuestra que los modelos de lenguaje amplio (LLM) de código abierto pueden proporcionar una vía escalable para el entrenamiento seguro de modelos, lo que permite aplicaciones médicas reales que cumplen con las normativas de privacidad de datos y atención sanitaria. Nature Medicine, 23 de abril de 2025

Categorias

Etiquetas