Farmacología
Falta de rigor metodológico y cobertura limitada de la inteligencia artificial generativa en las directrices existentes para la presentación de informes sobre inteligencia artificial
16 octubre 2025
Las guías actuales de informes de inteligencia artificial (IA) en medicina presentan un rigor metodológico deficiente, redundancia y una cobertura insuficiente de las aplicaciones de la IA general. Las guías futuras y actualizadas deberían priorizar los procesos de desarrollo estandarizados, la colaboración multidisciplinaria y un mayor enfoque en tecnologías de IA emergentes, como los modelos de lenguaje grande (LLM). J Clin Epidemiol ,julio de 2025
Inteligencia artificial en la gestión de la polifarmacia en adultos mayores: revisión panorámica
29 septiembre 2025
Los resultados sugieren que la IA tiene potencial para gestionar la polifarmacia, en particular para mejorar la seguridad de los medicamentos, la adherencia y la predicción de factores de riesgo de errores relacionados con la medicación en adultos mayores. Se necesitan futuras investigaciones centradas en el efecto a largo plazo de la IA en los resultados de los pacientes, su papel en la farmacoterapia personalizada y los desafíos actuales relacionados con la transparencia algorítmica, la mitigación de sesgos y la supervisión regulatoria. Cureus, 24 de agosto de 2025 .
Estrategias educativas para la supervisión clínica del uso de la inteligencia artificial por los profesionales en formación
21 agosto 2025
La inteligencia artificial tiene la capacidad de transformar fundamentalmente el aprendizaje y la práctica médica. Al igual que en otras profesiones, el uso de la IA en la formación médica podría resultar en profesionales altamente eficientes, pero menos capaces de resolver problemas de forma independiente y realizar evaluaciones críticas que sus homólogos pre-IA. El artículo revisa estrategias para supervisar el uso de la IA por profesionales en formación. New England Journal of Medicine, agosto de 2025.
Evaluación de las vulnerabilidades de los modelos de lenguaje grandes ante la conversión maliciosa en chatbots de desinformación sanitaria
25 junio 2025
Se exploró el efecto de brindar instrucciones maliciosas a cinco programas modelos extensos de lenguaje (LLM) a través de sus interfaces de programación de aplicaciones, para crear de forma encubierta chatbots de desinformación sobre salud. Luego se realizaron 10 preguntas de salud a cada LLM y se obtuvo un 100% de respuestas con desinformación en 4 de los sistemas evaluados y un 44% en el restante. Estos hallazgos resaltan la necesidad urgente de contar con sólidas medidas de control de calidad para garantizar la seguridad de la salud pública en una era de tecnologías en rápida evolución. Annals of Internal Medicine, 24 de junio de 2025.
Evaluación de referencia de los modelos de lenguaje grande de DeepSeek en la toma de decisiones clínicas
28 abril 2025