Le NEJM du 4 novembre comporte une correspondance très intéressante (profitez-en, elle est en accès libre) sur l’étude Re-Ly dont j’avais parlé ici.
Cette étude est gigantesque, avec 18113 patients suivis sur 2 ans.
Une donnée de sécurité avait fait lever le sourcil des autorités de régulations,, notamment la FDA, ainsi que d’un groupe de surveillance indépendant.
On observait en effet un sur-risque statistiquement significatif et inattendu d’infarctus du myocarde dans le groupe dabigatran 150 par rapport au groupe warfarine:
The rate of myocardial infarction was 0.53% per year with warfarin and was higher with dabigatran: 0.72% per year in the 110-mg group (relative risk, 1.35; 95% CI, 0.98 to 1.87; P = 0.07) and 0.74% per year in the 150-mg group (relative risk, 1.38, 95% CI, 1.00 to 1.91; P = 0.048).
Le p est significatif est à 0.048. le risque relatif est à 1.38, le risque absolu à 0.74% par an. La réduction relative de risque de la warfarine par rapport au dabigatran est donc de 38%. Autrement dit le sur-risque relatif de présenter un épisode coronarien est de 38% dans le groupe dabigatran.
Dit comme cela, il y a de quoi se poser des questions sur la sécurité du dabigatran.
Mais il faut regarder l’écart type au sein duquel le risque relatif vrai a 95% de chances de se situer: 1 à 1.91.
Le risque relatif vrai pourrait tout aussi bien être 1, c’est à dire pas de sur-risque coronarien du dabigatran ou 1.91, c’est à dire un risque relatif pas très loin de 2.
L’interprétation de ces données est toujours délicate, d’autant plus que le pourquoi du comment (effet protecteur de la warfarine…) reste largement inconnu.
Les auteurs, sous la pression de la FDA, ont donc réanalysé les données.
Ils ont identifiés 81 évènements supplémentaires chez 80 patients (sur 18113, je le rappelle).
Parmi ces 81 évènements, on comptait 4 nouveaux infarctus du myocarde, « oubliés » et 28 nouveaux cas d’infarctus silencieux non reportés par les différents investigateurs.
La répartition de ces nouveaux cas au sein des 3 groupes de l’essai fait disparaître la significativité du risque coronarien du dabigatran 150 mg: risque relatif à 1.27 (0.94–1.71) p=0.12.
Étonnant et instructif, une poignée de cas répartis sur 3 groupes dans une énorme étude change drastiquement une donnée importante.
J’ai un énorme conflit d’intérêt, mais je vous suggère vivement la lecture de cette page web qui donne accès librement au support de cours de mon DU de statistiques rédigé par Michel Cucherat, notamment ces deux chapitres qui traitent de ce point précis soulevé par cette réinterprétation de Re-Ly:
°0°0°0°0°0°0°0°0°0°0°0°
Connolly SJ, Ezekowitz MD, Yusuf S, et al. Dabigatran versus warfarin in patients with atrial fibrillation. N Engl J Medicine 2009; DOI:10.1056.NEJM0a0905561.
Steve Stiles. New dabigatran safety data from RE-LY unveiled as watchdog group seeks answers. theheart.org. [Clinical Conditions > Arrhythmia/EP > Arrhythmia/EP]; Dec 8, 2010. Accessed at http://www.theheart.org/article/1161057.do on Dec 9, 2010
Qu’ estce qu’ un infarctus silencieux ?
Et comment peut-on le détecter ?
Un infarctus silencieux est en général pas assez symptomatique pour être détecté au moment où il se déroule.
On ne le voit qu’après en constatant des modifications ECG, ou pendant si on surveillait les mouvements enzymatiques ou l’ECG.
« Étonnant et instructif, une poignée de cas répartis sur 3 groupes dans une énorme étude change drastiquement une donnée importante. »
Arf c’est bien pour cela que la conclusion d’un papier ne devrait *jamais* ne citer *que* des stats issues de calculs complexes (et parfois faux). Il faudrait toujours citer les chiffres « bruts ». Je défie tout non spécialiste des stats de se faire une idée intuitive de la situation en ne regardant que « p=xxx et qlqs autres indicateurs statistiques complexe ».
Exemple :
Soit deux groupes de 1000patients soit disant « équivalents ».
Pour faire simple, 10 présentent une hausse *significative médicalement et du point de vue de la pure métrologie * de je ne sais quoi dans le groupe alors que 12 présentent la même chose dans l’autre groupe.
Est ce que c’est significatif ou pas? Ben ce n’est pas un p= qui devrait me le dire…c’est l’expérience et/ou l’évidence dans certains cas.
Ce que j’essaye de dire, c’est que les stats c’est bien gentil, c’est indispensable pour corriger des effets de biais *mais* ca ne doit pas cacher les données brutes.
Je rigole encore d’un article que tu avais cité qui parlait de « je ne sais quoi dans 17% cas (1 patient) » HU HU. Exercice : Retrouver le nombre de patients dans cette étude.
Le simple fait que les auteurs n’ai pas vu à quel point de « 17% » est ridicule en dit long sur l’usage des stats en médecine….
Je crois que c’était pour JUPITER ou une de ses études ancillaires que les effectifs étaient vraiment minuscules.
Maintenant, je ne crois pas que les calculs complexes ont été élaborés par plaisir. Ils ont été mis en place pour diminuer les biais induits par l’étude de d’éminemment variable (biais, perdus de vus, effet placebo….).
Tu as raison dans les sens ou il faut toujours avoir un œil sur les chiffres bruts pour avoir une idée de l’importance du phénomène et de son intérêt pour le patient.
La sous-étude à laquelle tu fais allusion est un exemple parfait: https://grangeblanche.com/2009/03/29/par-jupiter/
calculer le NNT sur la borne la plus péjorative de l’intervalle de confiance est un excellent moyen de lutter contre notre tendance spontanée à l’enthousiasme thérapeutique et une non moins bonne raison pour refuser tout critère principal poolé…
@Jean-Marie Vailloud : Maintenant je m’en rappelle : C’était une étude sur l’utilité d’un miroir pour diminuer la douleur des amputés. Effectifs 6 patients (d’où le 17%) et un moyen de controle risible (je me ne rappelle plus des détails).
« Maintenant, je ne crois pas que les calculs complexes ont été élaborés par plaisir. Ils ont été mis en place pour diminuer les biais induits par l’étude de d’éminemment variable »
Ho que oui! Sans stat point de salut pour corriger ces biais.
Par contre, qq les beaux résultats stats écrits en gras à la fin du papier, si le fait de faire « changer de camp » seulement qlqs patients change la conclusion….nul besoin d’un p= ou d’un test de machin truc pour savoir que le réssultat de l’étude est très mal fondé.
http://www.lesecransdusocial.gouv.fr/spip.php?page=mot&id_mot=64
Dans la très bonne série de reportages « L’école de Médecine épisode » on voit justement une thésarde se plaindre du fait que toute ca conclusion est à refaire car deux patients ont « changé de camp »….
Et vi, et ça aussi on doit le prendre en compte.
😉