Séance thématique « Approche classique et innovation pour la recherche de nouveaux médicaments »
Coordinateurs : Professeurs Jean-Paul GIROUD et Théophile GODFRAIND
Introduction
Jean-Paul GIROUD *, Théophile GODFRAIND **
Dans la seconde moitié du 20e siècle, le développement de la pharmacologie expérimentale a permis la découverte de médicaments importants pour plusieurs pathologies. Depuis lors, bien que la prévalence accrue d’affections liées au vieillissement de la population rende nécessaire l’introduction de nouveaux médicaments, les innovations manquent malgré des investissements financiers croissants. De plus, l’Europe a perdu la première place mondiale dans ce domaine. L’objet de la séance du 3 avril est d’identifier les similitudes et les différences entre l’approche actuelle et l’approche classique de la recherche de nouveaux médicaments. L’approche actuelle est caractérisée par des innovations technologiques prodigieuses qui mènent à la création par la chimie combinatoire de milliers de molécules nouvelles qui sont criblées par des robots en mesure d’effectuer jusqu’à 400 000 tests par an. (Le principe de la synthèse combinatoire diffère de celui de la chimie de synthèse classique où le produit A réagit avec le produit B afin d’obtenir une molécule nouvelle A-B. En chimie combinatoire, on utilise une famille de produits, ainsi les produits A, appelés synthons A (AI, A2…, An) réagissent sur une famille de synthons B (B1, B2…, Bn).
On obtient alors un mélange de produits en une seule opération. Une des difficultés est la séparation de ces différents produits à partir du mélange. Si on fait réagir sur ce mélange une famille C (Cl, C2…, Cn) de produits, on obtient un mélange de n3 molécules. Quand le processus porte à chaque étape sur N réactifs et qu’il y a n étapes, le nombre final de molécules obtenues sera de Nn Ce mélange est appelé bibliothèque (« library » des anglo-saxons)).
Le criblage vise la mise en évidence de l’interaction possible des molécules nouvelles avec des cibles moléculaires isolées de systèmes vivants. Ces cibles sont supposées
constituer des éléments déterminants dans des processus pathologiques bien identifiés tels, pour prendre quelques exemples, le diabète, la maladie d’Alzheimer, l’athérosclérose ou l’arthrose.
La mise en route des nouvelles technologies a exigé un effort financier considérable.
Toutefois, au cours de ces vingt dernières années, elle ne s’est pas traduite par la découverte de médicaments efficaces et fiables en nombre équivalent à celui des années 1970-1980 que ce soit en Europe, au Japon ou aux USA.
Les modalités d’application des découvertes issues de la biologie moléculaire, en tenant compte des enseignements du passé, font l’objet de cette séance.
Théophile Godfrain (Louvain), pionnier de la découverte des anticalciques, évoquera les problèmes rencontrés par la médecine en rappelant le temps de l’empirisme et celui de la pharmacologie expérimentale. Il abordera la période actuelle quand la médecine translationnelle tend à mieux personnaliser la pharmacothérapie à l’aide de biomarqueurs génétiques et protéiques. Les critères communément choisis pour apprécier les propriétés pharmacologiques et toxiques des médicaments nouveaux sont des états terminaux comme, à titre exemplaire, la fibrillation cardiaque ou la mort. L’observance de ces exigences nécessite le sacrifice de nombreux animaux, ce qui est contesté tant par des scientifiques que par une large proportion de la population. Les biomarqueurs sont des indicateurs qui révèlent un désordre physiologique avant-coureur, ils sont utilisés pour suivre l’évolution d’une maladie ou le progrès d’un traitement. Ils permettent d’identifier des groupes de patients susceptibles de répondre électivement à certains médicaments. En appliquant ce concept, l’efficacité d’un nouveau traitement du cancer du sein nécessita un groupe de patients dix fois plus faible que sans sélection préalable, ceci apporta une réduction importante de la durée et des coûts de la recherche clinique. D’autres exemples indiqueront la potentialité que présentent les biomarqueurs génétiques et protéiques pour le diagnostic médical et la recherche de thérapeutiques innovantes.
Daniel Schirlin, Martin Galvan et Gérard Le Fur (Sanofi Aventis) montreront que, comme pour toutes technologies nouvelles, il aura fallu une dizaine d’années pour maîtriser le criblage à haut débit et la chimie combinatoire et pour enfin récolter des résultats probants sur une variété de cibles thérapeutiques par la sélection d’un nombre croissant de candidats cliniques issus de la combinaison de ces technologies nouvelles. Ces technologies, en tant que telles, quoique très performantes, ne sont cependant que des outils au service de la recherche pharmaceutique. Leur succès est totalement dépendant de la qualité intrinsèque et de la pertinence des collections criblées. Comme démontré par de nombreux collègues de laboratoires universitaires ou industriels concurrents, ils peuvent affirmer qu’aujourd’hui le potentiel réel de l’approche « Chimie combinatoire (en phase solide ou liquide) associée au criblage à haut-débit » peut apporter des réponses en nouveaux candidats médicaments a été atteint. Les taux de succès n’ont plus grand-chose à envier à ceux obtenus par criblage de chimiothèques ‘‘ historiques ’’ plus traditionnelles. La complémentarité de ces technologies avec des approches in silico en criblage virtuel (basé soit sur les
connaissances structurales et le « docking » soit par interrogation à haut flux de banque de données de composés réels ou virtuels pour l’identification d’analogues structuraux proches) constitue un atout supplémentaire non négligeable. Les auteurs soutiennent que les nouvelles techniques d’imagerie permettront dans le futur proche de développer des essais cellulaires phénotypiques et d’appliquer le patrimoine chimique combinatoire et médicinal à la découverte de modulateurs de cibles moléculaires plus complexes telles que celles rencontrées au cours des processus pathologiques.
Patrice Jaillon expliquera les méthodologies et les exigences des essais cliniques contrôlés et randomisés.
La ‘‘ médecine factuelle ’’ d’aujourd’hui, ou ‘‘ evidence-based medicine ’’ des anglosaxons, correspond à un souci de rationalisation des choix thérapeutiques. Elle repose sur les résultats des essais cliniques contrôlés qui garantissent le niveau de preuve le moins discutable et le plus fiable. Pour être valable, un essai clinique contrôlé doit remplir des conditions méthodologiques précises. Il doit avoir un objectif principal qui est de confirmer ou d’infirmer une hypothèse préalable. Le choix du critère principal de mesure d’effet doit découler de l’objectif de l’étude.
L’essai doit comparer les résultats dans un groupe de patients traités par le médicament à tester à ceux observés dans un groupe de patients témoins, le groupe ‘‘ contrôle ’’, les deux groupes étant suivis simultanément. L’attribution des traitements aux patients doit être faite par tirage au sort et l’observation des patients ainsi que l’analyse des résultats doivent être réalisées en aveugle des traitements administrés. Un calcul préalable du nombre de patients à inclure dans l’essai doit être effectué en tenant compte du type d’essai choisi (supériorité ou équivalence), de l’hypothèse que l’on veut confirmer, des risques statistiques et de la variabilité du critère principal de mesure d’effet. Le plan expérimental de l’essai, croisé ou en groupes parallèles, doit être adapté à l’objectif principal de l’étude et aux caractéristiques de la pathologie.
Enfin, l’analyse des résultats de l’essai doit être effectuée en intention de traiter, c’est-à-dire en tenant compte de tous les patients inclus et randomisés dans l’essai.
Les résultats de ces essais méthodologiquement corrects servent effectivement à élaborer des recommandations thérapeutiques officielles pour les médecins. Malheureusement, leur complexité et leurs exigences en limitent trop souvent l’utilisation correcte. Cette insuffisance justifie l’objet de la présentation de Jean-Pierre Boissel qui envisage la méta-analyse des essais cliniques : son utilité et ses pièges. La méta-analyse des essais cliniques est l’instrument qui permet de faire une synthèse quantitative des informations disponibles sur l’efficacité d’une thérapeutique. A ce titre, elle est indispensable. Elle procède d’un pilier de l’activité scientifique, la synthèse critique des connaissances toujours mise à jour. Inventée au début des années 1970 par Glass et Smith qui cherchaient à démontrer l’efficacité des psychothérapies, la méta-analyse est un ensemble de techniques permettant une synthèse quantitative reproductible, des informations produites par toutes les études concernant une question précise. Cette approche s’oppose non seulement aux revues générales mais aussi aux synthèses qualitatives utilisant un modèle statistique
simple, voire simpliste comme le « comptage des votes ». La synthèse critique des données disponibles sur l’efficacité des thérapeutiques est donc une étape obligée de la démarche médicale. Elle est essentielle pour tous ceux qui doivent prendre des décisions, face à un patient, pour établir une stratégie commune pour des groupes de patients similaires, ou pour formuler des hypothèses de recherche en médecine, en épidémiologie, ou en politique et administration de santé.
La méta-analyse est devenue un outil de routine. Comme tous les outils très performants, elle peut conduire à des aberrations si les conditions d’application ne sont pas respectées. Malgré ses imperfections et incertitudes, la méta-analyse constitue un progrès considérable. Sa pratique est en passe de transformer l’information thérapeutique. Elle permet une utilisation maximale des informations accumulées lors des essais cliniques. Elle a ouvert la voie à la solution d’un problème particuliè- rement irritant et capital pour les prescripteurs, l’identification des répondeurs et à une décision médicale plus rationnelle.
Bull. Acad. Natle Méd., 2007, 191, nos 4-5, 711-714, séance du 3 avril 2007