Farmacología

Falta de rigor metodológico y cobertura limitada de la inteligencia artificial generativa en las directrices existentes para la presentación de informes sobre inteligencia artificial

16 octubre 2025

Las guías actuales de informes de inteligencia artificial (IA) en medicina presentan un rigor metodológico deficiente, redundancia y una cobertura insuficiente de las aplicaciones de la IA general. Las guías futuras y actualizadas deberían priorizar los procesos de desarrollo estandarizados, la colaboración multidisciplinaria y un mayor enfoque en tecnologías de IA emergentes, como los modelos de lenguaje grande (LLM). J Clin Epidemiol ,julio de 2025

Inteligencia artificial en la gestión de la polifarmacia en adultos mayores:  revisión panorámica

29 septiembre 2025

Los resultados sugieren que la IA tiene potencial para gestionar la polifarmacia, en particular para mejorar la seguridad de los medicamentos, la adherencia y la predicción de factores de riesgo de errores relacionados con la medicación en adultos mayores. Se necesitan futuras investigaciones centradas en el efecto a largo plazo de la IA en los resultados de los pacientes, su papel en la farmacoterapia personalizada y los desafíos actuales relacionados con la transparencia algorítmica, la mitigación de sesgos y la supervisión regulatoria.  Cureus, 24 de agosto de 2025 .

Estrategias educativas para la supervisión clínica del uso de la inteligencia artificial por los profesionales en formación

21 agosto 2025

La inteligencia artificial tiene la capacidad de transformar fundamentalmente el aprendizaje y la práctica médica. Al igual que en otras profesiones, el uso de la IA en la formación médica podría resultar en profesionales altamente eficientes, pero menos capaces de resolver problemas de forma independiente y realizar evaluaciones críticas que sus homólogos pre-IA. El artículo revisa estrategias para supervisar el uso de la IA por profesionales en formación. New England Journal of Medicine, agosto de 2025.

Evaluación de las vulnerabilidades de los modelos de lenguaje grandes ante la conversión maliciosa en chatbots de desinformación sanitaria

25 junio 2025

Se exploró el efecto de brindar instrucciones maliciosas a cinco programas modelos extensos de lenguaje (LLM) a través de sus interfaces de programación de aplicaciones,  para crear de forma encubierta chatbots de desinformación sobre salud. Luego se realizaron 10 preguntas de salud a cada LLM y se obtuvo un 100% de respuestas con desinformación en 4 de los sistemas evaluados y un 44% en el restante. Estos hallazgos resaltan la necesidad urgente de contar con sólidas medidas de control de calidad para garantizar la seguridad de la salud pública en una era de tecnologías en rápida evolución. Annals of Internal Medicine, 24 de junio de 2025.

Evaluación de referencia de los modelos de lenguaje grande de DeepSeek en la toma de decisiones clínicas

28 abril 2025

Nuestro estudio demuestra que los modelos de lenguaje amplio (LLM) de código abierto pueden proporcionar una vía escalable para el entrenamiento seguro de modelos, lo que permite aplicaciones médicas reales que cumplen con las normativas de privacidad de datos y atención sanitaria. Nature Medicine, 23 de abril de 2025

Categorias

Etiquetas