Auteur Pezel T.

Service de Cardiologie, CHU Lariboisière, PARIS ; Unité Inserm-UMR 942, PARIS.

Analyse article
0

Dans le cadre d’une étude pronostique, l’objectif est en général d’évaluer l’association statistique existant entre la mesure d’une variable d’intérêt (biomarqueur, facteur d’exposition…) et la survenue d’un événement clinique. Comme nous l’avons déjà abordé au sein de cette rubrique, afin de s’amender du risque de facteur de confusion potentiel lors de la mesure de cette association, réa­liser une analyse multivariée permettant un ajustement sur ces facteurs de confusion est devenu la règle. Cela permet d’évaluer s’il existe bien une association “indépendante” entre la variable d’intérêt mesurée et la survenue de l’événement étudié. Dans ce sens, le modèle statistique le plus couramment utilisé pour ce type d’analyse est le modèle de Cox. Cependant, depuis déjà plusieurs années, la quasi-totalité des grands journaux de cardiologie exige systématiquement l’utilisation de modèles statistiques plus complexes, tenant compte de ce qu’on appelle le “risque compétitif entre les événements”. Ce type de modèle, bien plus exigeant et spécifique dans son analyse que le traditionnel modèle de Cox, est de plus en plus souvent utilisé dans les grands essais cliniques. C’est la raison pour laquelle nous avons choisi dans cet article d’expliquer simplement le principe du risque compétitif et de développer les points clés permettant de comprendre le résultat d’un modèle utilisant une analyse en risque compétitif.

L’Année cardiologique 2021
0

L’imagerie cardiovasculaire multi­modale concentre aujourd’hui l’essentiel des innovations en cardiologie. Au-delà de l’échocardiographie, toujours en développement, l’IRM et le scanner cardiaque deviennent année après année de plus en plus présents, jouant un rôle crucial dans notre pratique quotidienne.

Analyse article
0

Cette rubrique permet, depuis bientôt deux ans, de discuter des points techniques de la méthodologie en recherche clinique afin de mieux décrypter les articles scientifiques publiés en cardiologie. Si la science est l’objectif premier de la réalisation de ces travaux, l’enjeu d’une valorisation professionnelle et financière est bien évidemment omniprésent, tant à l’échelle individuelle qu’à l’échelle d’une équipe de recherche et/ou d’un centre tout entier. Ainsi, l’objectif de cet article consiste à revenir brièvement sur les grands principes de la valorisation des articles scientifiques publiés.

Analyse article
0

En recherche, les études cliniques peuvent être séparées en deux grandes catégories : les études monocentriques réalisées sur un seul centre de recrutement et les études multicentriques incluant plusieurs centres. En pratique, il est fréquent de valoriser plutôt l’étude multicentrique que l’étude monocentrique, notamment par rapport au niveau de publication correspondant. En effet, il est admis qu’une étude multicentrique, posant la même question clinique avec le même critère de jugement principal et le même nombre de patients, sera plus facilement publiée et surtout mieux valorisée qu’une étude identique réalisée sur un seul centre.

Analyse article
0

L’essentiel des études cliniques réalisées ces dernières décennies consiste à évaluer l’association entre la mesure d’un paramètre à un instant T (début de l’étude) et la survenue d’un événement clinique après une période de suivi. Prenons l’exemple d’une étude évaluant la valeur pronostique de la mesure de la fraction d’éjection du ventricule gauche (FEVG) en IRM cardiaque sur le risque de mortalité à 10 ans. Le fait que l’on retrouve une association statistique entre la mesure de la FEVG réalisée au début de l’étude et le risque de mortalité d’origine à 10 ans de suivi est intéressant, mais cela ne permet pas de rendre compte de l’évolution de la FEVG pendant ces 10 années de suivi. Or, nous savons que le corps humain est un sujet de recherche dynamique en constante évolution et donc, par essence, la mesure unique d’un paramètre reste limitée pour en évaluer pleinement sa valeur pronostique ou diagnostique.
C’est pour répondre à ce besoin d’une “évaluation dynamique” que de plus en plus d’études présentent ces dernières années l’analyse de données dites longitudinales correspondant à des mesures répétées d’un même paramètre. Bien que des analyses de ce type semblent extrêmement pertinentes, elles présentent des limites techniques importantes et des particularités, pour ne pas dire complexités, dans l’analyse de leurs résultats. Ainsi, nous présenterons dans cet article les grands principes des études utilisant ces fameuses données longitudinales.

Analyse article
0

Et s’il n’existait pas qu’une seule façon de mourir ? Réduire la mortalité de nos patients en augmentant leur espérance de vie est probablement l’ultime objectif en recherche clinique. En effet, la mortalité s’est imposée en cardiologie comme l’un des critères de jugement de référence pour les études thérapeutiques et observationnelles pronostiques. Ainsi, dans le cadre d’une étude thérapeutique, réduire la récidive d’infarctus du myocarde ou d’hospitalisation pour décompensation cardiaque c’est bien, mais réduire la mortalité toute cause ou la mortalité de cause cardiovasculaire, c’est encore mieux. Cependant, la définition de la mortalité en recherche clinique peut varier en fonction de la méthodologie de l’étude, avec des conséquences parfois importantes.
Ainsi, l’objectif de cet article vise à présenter les points clés permettant d’évaluer la robustesse de la définition de la mortalité dans une publication. Ensuite, nous détaillerons les avantages et inconvénients à choisir un critère de type mortalité spécifique ou mortalité toute cause.

Analyse article
0

La recherche est-elle déconnectée des problématiques cliniques quotidiennes que nous rencontrons dans notre pratique ?
Incontestablement, la façon la plus rationnelle de répondre à cette question consiste à évaluer “la validité externe” de l’article que vous étudiez. En effet, elle correspond au degré de généralisabilité des résultats d’une étude à la pratique quotidienne.
Tout l’intérêt de cette évaluation est qu’elle répond à une grille relativement standardisée décrite dans les recommandations de lecture critique d’article. L’objectif de cet article vise à présenter les points clés de cette évaluation.

Analyse article
0

L’intelligence artificielle (IA) bouleverse particulièrement le monde de la cardiologie ces dernières années. En effet, l’IA permet le développement d’algorithmes pour l’analyse d’ECG, d’images d’échocardiographie ou d’IRM cardiovasculaire.
Au-delà de nous permettre d’interpréter ces données techniques, l’IA est également utile pour l’analyse statistique de grandes bases de données comportant plusieurs milliers de patients avec des dizaines de paramètres mesurés : la fameuse “gestion des big data”.
Ces toutes dernières années, de nombreuses études cardiologiques ont été publiées à très haut niveau, utilisant ce type d’outil d’IA et permettant de mieux classer les patients en fonction de la meilleure analyse possible des données disponibles.
Le clustering est incontestablement l’entité la plus fréquemment rencontrée avec ce type d’outil. Ainsi, dans cet article nous présenterons, de façon simple, les grands principes du clustering dans le but de nous permettre d’analyser les résultats d’une étude utilisant ce type de méthode.

Analyse article
0

La fameuse “courbe ROC”… Cet outil statistique historique est toujours un grand incontournable des études pronostiques et diagnostiques qui permet d’évaluer la valeur pronostique d’un nouveau marqueur ou la performance diagnostique d’un nouveau test. Cependant, son principe et les détails de son interprétation restent parfois flous pour de nombreux cliniciens. De plus, ses différentes applications en pratique sont souvent plus étendues qu’on ne l’imagine. Pour toutes ces raisons, nous allons revenir dans cet article sur les grands enjeux de cette figure.

1 2 3