Analyse article

Analyse article
0

Dans le cadre d’une étude pronostique, l’objectif est en général d’évaluer l’association statistique existant entre la mesure d’une variable d’intérêt (biomarqueur, facteur d’exposition…) et la survenue d’un événement clinique. Comme nous l’avons déjà abordé au sein de cette rubrique, afin de s’amender du risque de facteur de confusion potentiel lors de la mesure de cette association, réa­liser une analyse multivariée permettant un ajustement sur ces facteurs de confusion est devenu la règle. Cela permet d’évaluer s’il existe bien une association “indépendante” entre la variable d’intérêt mesurée et la survenue de l’événement étudié. Dans ce sens, le modèle statistique le plus couramment utilisé pour ce type d’analyse est le modèle de Cox. Cependant, depuis déjà plusieurs années, la quasi-totalité des grands journaux de cardiologie exige systématiquement l’utilisation de modèles statistiques plus complexes, tenant compte de ce qu’on appelle le “risque compétitif entre les événements”. Ce type de modèle, bien plus exigeant et spécifique dans son analyse que le traditionnel modèle de Cox, est de plus en plus souvent utilisé dans les grands essais cliniques. C’est la raison pour laquelle nous avons choisi dans cet article d’expliquer simplement le principe du risque compétitif et de développer les points clés permettant de comprendre le résultat d’un modèle utilisant une analyse en risque compétitif.

Analyse article
0

Cette rubrique permet, depuis bientôt deux ans, de discuter des points techniques de la méthodologie en recherche clinique afin de mieux décrypter les articles scientifiques publiés en cardiologie. Si la science est l’objectif premier de la réalisation de ces travaux, l’enjeu d’une valorisation professionnelle et financière est bien évidemment omniprésent, tant à l’échelle individuelle qu’à l’échelle d’une équipe de recherche et/ou d’un centre tout entier. Ainsi, l’objectif de cet article consiste à revenir brièvement sur les grands principes de la valorisation des articles scientifiques publiés.

Analyse article
0

En recherche, les études cliniques peuvent être séparées en deux grandes catégories : les études monocentriques réalisées sur un seul centre de recrutement et les études multicentriques incluant plusieurs centres. En pratique, il est fréquent de valoriser plutôt l’étude multicentrique que l’étude monocentrique, notamment par rapport au niveau de publication correspondant. En effet, il est admis qu’une étude multicentrique, posant la même question clinique avec le même critère de jugement principal et le même nombre de patients, sera plus facilement publiée et surtout mieux valorisée qu’une étude identique réalisée sur un seul centre.

Analyse article
0

L’essentiel des études cliniques réalisées ces dernières décennies consiste à évaluer l’association entre la mesure d’un paramètre à un instant T (début de l’étude) et la survenue d’un événement clinique après une période de suivi. Prenons l’exemple d’une étude évaluant la valeur pronostique de la mesure de la fraction d’éjection du ventricule gauche (FEVG) en IRM cardiaque sur le risque de mortalité à 10 ans. Le fait que l’on retrouve une association statistique entre la mesure de la FEVG réalisée au début de l’étude et le risque de mortalité d’origine à 10 ans de suivi est intéressant, mais cela ne permet pas de rendre compte de l’évolution de la FEVG pendant ces 10 années de suivi. Or, nous savons que le corps humain est un sujet de recherche dynamique en constante évolution et donc, par essence, la mesure unique d’un paramètre reste limitée pour en évaluer pleinement sa valeur pronostique ou diagnostique.
C’est pour répondre à ce besoin d’une “évaluation dynamique” que de plus en plus d’études présentent ces dernières années l’analyse de données dites longitudinales correspondant à des mesures répétées d’un même paramètre. Bien que des analyses de ce type semblent extrêmement pertinentes, elles présentent des limites techniques importantes et des particularités, pour ne pas dire complexités, dans l’analyse de leurs résultats. Ainsi, nous présenterons dans cet article les grands principes des études utilisant ces fameuses données longitudinales.

Analyse article
0

La fameuse “courbe ROC”… Cet outil statistique historique est toujours un grand incontournable des études pronostiques et diagnostiques qui permet d’évaluer la valeur pronostique d’un nouveau marqueur ou la performance diagnostique d’un nouveau test. Cependant, son principe et les détails de son interprétation restent parfois flous pour de nombreux cliniciens. De plus, ses différentes applications en pratique sont souvent plus étendues qu’on ne l’imagine. Pour toutes ces raisons, nous allons revenir dans cet article sur les grands enjeux de cette figure.

Analyse article
0

Ce titre un peu barbare, je vous l’accorde, ne vous a donc pas découragé à lire cet article, et c’est tant mieux ! En effet, nous allons aborder de façon très simple une gamme d’outils statistiques de plus en plus présents dans les études observationnelles.
Le rationnel de ces outils est simple. Pendant longtemps, nous avons réalisé des études évaluant simplement l’association entre un nouveau marqueur (le score calcique coronaire, par exemple) et la survenue des événements cardiovasculaires. Ainsi, il est intéressant de montrer que plus le score calcique est élevé, plus le nombre d’événements cardiovasculaires est important. Cependant, la vraie question clinique que l’on a envie de se poser serait de savoir si cette association persiste même lorsque l’on prend en compte les facteurs de risque cardiovasculaire traditionnels (âge, diabète, hypertension…). Car, en réalité, si ce nouveau marqueur est associé à la survenue d’événements cardiovasculaires, mais que cette association est “annulée” par la prise en compte des facteurs de risque cardiovasculaire traditionnels (ajustement), alors ce nouveau marqueur n’a absolument aucun intérêt en routine clinique !

Analyse article
0

Ces dernières années, la formation des étudiants en médecine est en pleine mutation, avec une place croissante de l’enseignement par simulation. En effet, la simulation est récemment devenue une obligation légale dans l’évaluation des étudiants en médecine de 2e cycle (loi Santé 2022) [1]. Cet enseignement par simulation repose notamment sur différents types d’innovations techniques (simulateurs patients haute-technicité, simulateurs procéduraux pour les gestes invasifs, réalité virtuelle augmentée, serious games…) avec un seul objectif : former l’apprenant en toute sécurité avant qu’il réalise un geste plus ou moins invasif sur le patient ou qu’il soit confronté à une situation clinique critique. Le grand adage de l’enseignement par simulation est : “Jamais la première fois sur le patient !” [2]
Cependant, comme tout processus de formation, il est indispensable d’en avoir une évaluation robuste et scientifique grâce à des études dédiées. Nous vous proposons ainsi d’aborder ensemble les grands principes méthodologiques de ces études bien particulières, qui sont en train de façonner le mode de formation des médecins de demain.

Analyse article
0

L’imagerie cardiovasculaire multimodale connaît une période d’engouement sans précédent avec des développements techniques majeurs proposés par les constructeurs. Cet attrait pour l’imagerie multimodale est d’ailleurs bien présent auprès des jeunes internes de cardiologie. En effet, d’après un sondage récent réalisé par le Collège des cardiologues en formation (CCF) de la Société Française de Cardiologie, l’imagerie cardiovasculaire multimodale serait la première surspécialité (FST – option) choisie par les internes devant la rythmologie et la cardiologie interventionnelle…
Ainsi, les articles d’imagerie cardiovasculaire sont de plus en plus présents dans la littérature et lors des congrès nationaux et internationaux. Cependant, cet univers qui navigue entre la cardiologie et la radiologie présente ses propres codes et sa méthodologie spécifique, avec de véritables astuces à connaître pour faire la part des choses entre “véritable avancée diagnostique pour le patient” et “effet de style visuel”.
Nous vous proposons d’aborder ensemble les grands pièges à vérifier fréquemment dans les articles d’imagerie cardiovasculaire.

Analyse article
0

Les analyses intermédiaires sont de plus en plus fréquentes dans les grands essais cliniques, notamment en cas de suivi important. En effet, l’enjeu d’une analyse intermédiaire est de pouvoir arrêter une étude plus tôt que prévu en fonction de certaines conditions précises, comme par exemple une grande efficacité ou, au contraire, une toxicité élevée. L’enjeu d’arrêter un essai clinique précocement est capital, tant sur le plan de la pertinence clinique des données que des retombées financières du projet. Il est donc important pour nous de comprendre le fonctionnement et le rôle de cet incroyable outil qui peut permettre de gagner des mois, voire des années, sur le développement d’une nouvelle molécule, tout en permettant une économie substantielle sur le budget de l’étude.

Analyse article
0

Dans la littérature, la quasi-totalité des articles que nous rencontrons correspond à des études dites comparatives. Cela signifie que l’on évalue l’efficacité et la tolérance d’une nouvelle intervention (thérapeutique le plus souvent) réalisée dans un groupe, comparativement à un groupe qui ne reçoit pas cette nouvelle intervention. Or, cela signifie que l’on ne mesure jamais “l’efficacité propre” de la nouvelle intervention mais simplement la différence d’efficacité qu’elle entraîne par rapport au groupe contrôle. On imagine alors aisément que toute modification touchant le groupe contrôle entraînera immédiatement une variation du résultat principal de l’étude…
Ainsi, l’objectif de cet article vise à présenter le principe de groupe contrôle, en insistant sur les points clés permettant de s’assurer de sa bonne qualité pour limiter le risque de biais dans l’étude.