Repenser l’évaluation des médicaments

Repenser l’évaluation des médicaments

Jacques Marceau, président d’Aromates et Yannick Plétan, consultant chez Ultrace Development Partner
3 novembre 2017

L’actuelle méthodologie d’évaluation des médicaments montre ses limites. Il faut lui associer les sciences du big data pour rendre ses résultats plus fiables et pertinents.

La recherche permanente d’amélioration des performances des médicaments modernes dans un système de santé hyperrégulé et une société elle-même à la recherche de toujours plus de performance, a conduit à la mise en oeuvre de moyens perfectionnés d’évaluation des médicaments qui en régissent strictement à la fois les indications, le prix et les conditions d’usage.

Alors que la médecine traditionnelle avait recourt à une pharmacopée dont la connaissance était le simple produit de l’observation et de l’expérience, la médecine moderne, en utilisant des principes actifs isolés puis synthétisés, et dorénavant produits par des organismes vivants eux-mêmes génétiquement modifiés, a été en mesure de créer son propre référentiel afin d’évaluer le risque d’induction d’effets secondaires pour les mettre en balance avec leurs effets positifs.

C’est dans ce contexte de balance bénéfice/risque que s’est épanouie l’industrie du médicament et, avec elle, une approche moderne de la médecine : l’« évidence based medicine » (EBM). Il s’agit d’une approche qui consiste à accumuler, puis analyser un ensemble le plus large possible d’études cliniques permettant de hiérarchiser les niveaux de preuve qui caractérisent l’effet d’un médicament, ou d’une classe thérapeutique entière dans une pathologie donnée.

Cette méthode est ainsi censée récapituler toute l’expérience scientifique disponible et apporter un jugement de qualité sur ce qui devrait, en toute logique, constituer la meilleure réponse à chaque maladie.

Une méthodologie née au XIXe siècle

Cette méthodologie, véritable superlatif de la méthode hypothético-déductive qui prend ses racines avec Claude Bernard au XIXe siècle, a atteint son apogée à la fin du 20e, et semble aujourd’hui avoir atteint ses limites dans un contexte d’émergence de nouvelles stratégies thérapeutiques et d’une métamorphose globale de la société accélérée par sa digitalisation.

La première limite est d’ordre conceptuel, l’approche statistique ayant dépassé la pratique médicale, la finalité du processus consiste désormais à soigner la maladie et non le malade. Un principe aujourd’hui remis en cause par le développement de la démocratie sanitaire et la participation croissante du patient, non seulement à son processus de soins mais encore à la prévention des maladies.

Une seconde limite est associée à l’émergence de la médecine personnalisée, devenue de moins en moins compatible avec une évaluation basée sur des études cliniques opérées sur de grandes cohortes de patients indifférenciés et dont les résultats sont des moyennes qu’il est ensuite nécessaire de « démoyenner » afin d’en extraire les données pertinentes.

Un exercice qui se complique encore un peu plus si l’on veut bien tenir compte du vieillissement des populations, et avec lui du développement de polypathologies chroniques, et de polymédications leur corollaire, ce qui revient à devoir prendre l’individu dans sa globalité, et finalement retourner vers la Médecine. Une vision globale qui, de surcroît, se retrouve en parfaite contradiction avec l’actuelle organisation en silos de la recherche clinique.

Des médicaments sans effet notable

C’est dans ce contexte, déjà complexe, qu’un nombre impressionnant de nouveaux traitements, porteurs d’autant de nouvelles approches du soin comme de la prévention, font leur apparition. Des innovations qui questionnent sans relâche les modèles actuels d’évaluation et les institutions qui en ont la charge, jusqu’au législateur qui doit aujourd’hui imaginer un cadre qui, a minima, n’obère pas la capacité d’innovation du secteur ni nos chances de faire émerger de nouveaux traitements.

C’est ainsi que, selon une étude publiée dans la revue « The British Medical Journal », plus de la moitié des autorisations de mise sur le marché d’anticancéreux dans l’Union européenne entre 2009 et 2013, n’auraient pas apporté la preuve qu’ils amélioraient la survie ou la qualité de vie des patients.

Les auteurs de l’étude estiment que les autorisations données sur la base de résultats d’études sur la sécurité clinique et l’efficacité des nouveaux médicaments oncologiques sont trop préliminaires pour conclure à un bénéfice sur le patient. Ils soulèvent également que le mode d’évaluation basé sur la survie globale (prenant en compte le « résultat le plus persuasif »), conduit à prendre en compte des gains de durée de vie « même si ces derniers étaient souvent marginaux ».

Si cette réponse en termes de survie globale satisfait aux critères imposés par les autorités de santé, elle en néglige néanmoins d’autres, évidemment moins lisibles, mais non moins pertinents. C’est ainsi que la plupart de ces études sont arrêtées prématurément, considérant que les preuves obtenues sont suffisantes et qu’il n’est pas nécessaire, ni rentable, de les prolonger davantage. Un arrêt qui induit un déficit considérable d’informations qui pourraient être précieuses ou le devenir grâce aux nouvelles sciences des données.

Individualiser les résultats grâce aux données

Ces dernières, communément connues sous le nom de « data sciences » ou « sciences du big data », sont en effet aujourd’hui susceptibles d’apporter un complément précieux aux méthodes hypothético-déductives traditionnelles en permettant une individualisation des résultats sur un mode descriptif et une prise en compte de chaque individu dans sa spécificité.

En associant cette approche agnostique basée sur l’observation aux méthodes procédant par hypothèses successives, nous pourrions non seulement améliorer considérablement la pertinence et la fiabilité des résultats, mais encore permettre l’émergence de nouveaux traitements dédiés à des populations jusqu’à présent non éligibles.

En effet en permettant l’évolution de l’hypothèse formulée à la base d’une l’étude en fonction des données observées pendant son déroulement, il devient possible de conclure à un bénéfice plus important pour des patients en nombre certes limité, mais qu’il devient possible de reconnaître. Ne serait-ce pas là un progrès considérable ?

Au fond, la médecine, n’est-elle pas aussi l’art d’observer et de décrire ? Une démarche phénoménologique bien dans l’air du temps de la postmodernité où la technologie converge avec les tendances sociétales et le progrès scientifique. Ainsi, la science des données est aujourd’hui susceptible d’offrir de nouvelles perspectives en complément ou en substitution aux méthodes d’évaluations traditionnelles.

Encore faudrait-il que le cadre normatif actuel puisse être aménagé en conséquence, car si l’innovation scientifique et technologique en santé connaît aujourd’hui un dynamisme historique, elle est malheureusement entravée par un cadre d’un autre temps qu’il semble devenu urgent de réformer.

Jacques Marceau est président d’Aromates et expert santé à la Fondation Concorde. Yannick Pletan est consultant chez Ultrace Development Partner.

Article original sur Les Echos