Ensayos clínicos aleatorizados versus "evidencia del mundo real"

Los estudios de bases de datos que están diseñados explícitamente para emular ensayos clínicos aleatorizados (ECA) de medicamentos ya realizados o en curso ¿pueden generar conclusiones causales similares? Este estudio compara los resultados de 32 ECA con los obtenidos de análisis de grandes bases de datos que buscan emular el diseño de los estudios aleatorizados, encontrando muchas coincidencias pero también algunas diferencias relevantes. JAMA, 25 de abril de 2023.

Abstracto

Importancia: los estudios no aleatorizados que utilizan bases de datos de reclamos de seguros pueden analizarse para producir evidencia del mundo real sobre la efectividad de los productos médicos. Dada la falta de aleatorización inicial y problemas de medición, existen dudas sobre si tales estudios producen estimaciones imparciales del efecto del tratamiento.

Objetivo: emular el diseño de 30 ensayos clínicos aleatorizados (ECA) de medicamentos ya completados y otros 2 en curso  con estudios de bases de datos utilizando análogos observacionales de los parámetros de diseño del ECA respectivo (población, intervención, comparador, resultado, tiempo [PICOT]) y cuantificar el acuerdo entre ECA y estudio de base de datos apareado.

Diseño, entorno y participantes: estudios de cohortes de nuevos usuarios con coincidencia de puntuación de propensión utilizando 3 bases de datos de reclamos de EE. UU. (Optum Clinformatics, MarketScan y Medicare). Los criterios de inclusión y exclusión para cada estudio de la base de datos se especificaron previamente para emular el ECA correspondiente. Los ECA se seleccionaron explícitamente en función de la viabilidad, incluida la potencia, los factores de confusión clave y los puntos finales con más probabilidades de emularse con datos del mundo real. Los 32 protocolos se registraron en ClinicalTrials.gov antes de realizar los análisis. Las emulaciones se realizaron desde 2017 hasta 2022.

Exposición: se incluyeron terapias para múltiples condiciones clínicas.

Las emulaciones de estudio de la base de datos de resultados y medidas principales se centraron en el resultado primario del ECA correspondiente. Los hallazgos de los estudios de bases de datos se compararon con los ECA utilizando métricas predefinidas, incluidos los coeficientes de correlación de Pearson y métricas binarias basadas en el acuerdo de significación estadística, el acuerdo de estimación y la diferencia estandarizada.

Resultados: en estos ECA altamente seleccionados, la concordancia general observada entre el ECA y los resultados de la emulación de la base de datos fue una correlación de Pearson de 0,82 (IC del 95 %, 0,64-0,91), con un 75 % de significación estadística, un 66 % de concordancia estimada y un 75 % de concordancia de diferencia estandarizada. En un análisis post hoc limitado a 16 ECA con una emulación más cercana del diseño y las medidas del ensayo, la concordancia fue mayor (r de Pearson, 0,93; IC del 95 %, 0,79-0,97; significación estadística del 94 %, acuerdo estimado del 88 %, diferencia estandarizada del 88 %). Se produjo una concordancia más débil entre 16 ECA para los que no fue posible emular de cerca ciertos elementos de diseño que definen la pregunta de investigación (PICOT) con datos de reclamaciones de seguros (r de Pearson, 0,53; IC del 95 %, 0,00-0,83; 56 % con significación estadística, 50% de concordancia de estimación, 69% de concordancia de diferencia estandarizada).

Conclusiones y relevancia: los estudios de evidencia del mundo real pueden llegar a conclusiones similares a las de los ECA cuando el diseño y las mediciones se pueden emular de cerca, pero esto puede ser difícil de lograr. La concordancia en los resultados varió según la métrica de concordancia. Las diferencias de emulación, el azar y la confusión residual pueden contribuir a la divergencia en los resultados y son difíciles de desentrañar.

El estudio original:

Wang SV, Schneeweiss S, RCT-DUPLICATE Initiative. Emulation of Randomized Clinical Trials With Nonrandomized Database Analyses: Results of 32 Clinical Trials. JAMA. 2023;329(16):1376–1385. doi:10.1001/jama.2023.4221

Disponible en: https://bit.ly/3Vfw4RF

Compartir