Farmacología

Salvaguardias, transparencia y mitigación de riesgos de los modelos de lenguaje grande contra la generación de desinformación sanitaria

21 marzo 2024

En este estudio se evaluó cómo respondían cuatro "modelos de lenguaje grande" de inteligencia artificial frente al pedido de generar información sobre tópicos sanitarios deliberadamente falsos. Se encontró que, si bien son factibles salvaguardias efectivas para evitar que los LLM sean utilizados indebidamente para generar desinformación sobre salud, estas se implementaron de manera inconsistente. Además, los desarrolladores de los modelos no respondieron en forma eficaz a la denuncia de estos problemas. Se requiere una mayor regulación, transparencia y auditorías de rutina para ayudar a evitar que los LLM contribuyan a la generación masiva de desinformación sobre salud. British Medical Journal, 20 de marzo de 2024.

Calidad y seguridad de la información sanitaria generada por inteligencia artificial

21 marzo 2024

La inteligencia artificial (IA) generativa avanza rápidamente y tiene el potencial de mejorar enormemente muchos aspectos de la sociedad, incluida la salud. Sin embargo, los riesgos de consecuencias potencialmente perjudiciales requieren medidas eficaces de supervisión y mitigación. Este artículo destaca distintas formas de riesgos para la salud relacionados con la IA generativa, con las correspondientes opciones para mitigar el riesgo. British Medical Journal, 20 de marzo de 2024.

ChatGPT para generar preguntas de opción múltiple: Evidencia sobre el uso de la inteligencia artificial en la generación automática de ítems para un examen de farmacoterapia racional

19 febrero 2024

Los hallazgos mostraron que las preguntas pueden diferenciar efectivamente entre estudiantes que se desempeñan en niveles altos y bajos, lo que también señala el potencial de ChatGPT como herramienta de inteligencia artificial en el desarrollo de pruebas. Los estudios futuros pueden utilizar la indicación para generar ítems con el fin de mejorar la validez externa de los resultados mediante la recopilación de datos de diversas instituciones y entornos. Eur J Clin Pharmacol, 14 Febrero 2024

Cerrar la brecha de accesibilidad al tratamiento de salud mental con un chatbot personalizado de autorreferencia

14 febrero 2024

Utilizando el procesamiento del lenguaje natural para analizar la retroalimentación cualitativa de 42,332 personas, encontramos que la naturaleza libre de humanos del chatbot y la autorrealización de los pacientes de su necesidad de tratamiento eran impulsores potenciales de la mejora observada en la diversidad de acceso. Esto proporciona pruebas sólidas de que las herramientas digitales pueden ayudar a superar la desigualdad generalizada en la atención de la salud mental. Nat Med, 5 de febrero de 2024

Directrices para los protocolos de ensayos clínicos de intervenciones con inteligencia artificial: la extensión SPIRIT-AI

06 febrero 2024

SPIRIT-AI recomienda que los investigadores proporcionen descripciones claras de la intervención de IA, incluyendo las instrucciones y las habilidades necesarias para su uso, el entorno en el que se integrará la intervención de IA, las consideraciones para el manejo de los datos de entrada y salida, la interacción entre el ser humano y la IA y el análisis de los casos de error. SPIRIT-AI ayudará a promover la transparencia y la exhaustividad de los protocolos de los ensayos clínicos de las intervenciones de IA. Su uso ayudará a los editores y revisores, así como a los lectores en general, a comprender, interpretar y valorar críticamente el diseño y el riesgo de sesgo de un futuro ensayo clínico. Rev Panam Salud Publica. 26 de enero de 2024

Categorias

Etiquetas