Farmacología
Principios para el uso de la inteligencia artificial en la elaboración de guías de práctica clínica
29 enero 2025
Un grupo de trabajo sobre inteligencia artificial (IA) desarrolló estos criterios para el desarrollo y el uso de herramientas o procesos de IA en la elaboración de guías de práctica clínica. Se identificaron ocho principios a los que hay que adherirse cuando se utiliza la IA en el contexto de las directrices clínicas: transparencia, planificación previa, adicionalidad, credibilidad, ética, rendición de cuentas, cumplimiento y evaluación. Annals of Internal Medicine, 28 de enero de 2025.
Inteligencia artificial: influencia de los grandes modelos lingüísticos en el razonamiento diagnóstico
06 enero 2025
En este ensayo, la disponibilidad de un modelo de lenguaje amplio (LLM) para los médicos como ayuda diagnóstica no mejoró significativamente el razonamiento clínico en comparación con los recursos convencionales. Lo más llamativo es que el LLM por sí solo demostró un rendimiento superior tanto al del médico usando recursos convencionales como al del médico que tuvo acceso al LLM. Esto indica la necesidad de nuevos desarrollos para aprovechar el potencial de la colaboración entre médicos e inteligencia artificial en la práctica clínica. JAMA Network Open, 28 de octubre de 2024.
¿Es adecuada la evaluación de las aplicaciones médicas de inteligencia artificial basadas en modelos extensos de lenguaje?
21 octubre 2024
Los resultados de esta revisión sistemática sugieren que las evaluaciones actuales de los "Large Languages Models" (LLM, que se traduce al español como modelos "extensos", "amplios" o "grandes" de lenguaje) en el ámbito de la atención de la salud son fragmentadas e insuficientes. Las evaluaciones deben utilizar datos reales de pacientes, cuantificar los sesgos, cubrir una gama más amplia de tareas y especialidades y reportar métricas de desempeño estandarizadas para permitir una implementación más amplia. JAMA, 15 de octubre de 2024.
Salvaguardias, transparencia y mitigación de riesgos de los modelos de lenguaje grande contra la generación de desinformación sanitaria
21 marzo 2024
En este estudio se evaluó cómo respondían cuatro "modelos de lenguaje grande" de inteligencia artificial frente al pedido de generar información sobre tópicos sanitarios deliberadamente falsos. Se encontró que, si bien son factibles salvaguardias efectivas para evitar que los LLM sean utilizados indebidamente para generar desinformación sobre salud, estas se implementaron de manera inconsistente. Además, los desarrolladores de los modelos no respondieron en forma eficaz a la denuncia de estos problemas. Se requiere una mayor regulación, transparencia y auditorías de rutina para ayudar a evitar que los LLM contribuyan a la generación masiva de desinformación sobre salud. British Medical Journal, 20 de marzo de 2024.
Calidad y seguridad de la información sanitaria generada por inteligencia artificial
21 marzo 2024