Skip to main content


Médecine et génomique dans les archives du 'Monde'


La "médecine personnalisée", nouvelle frontière du médicament

Laboratoires pharmaceutiques et spécialistes de l'imagerie médicale s'invitent sur le marché du diagnostic

Yves Mamou, le 22 octobre 2007

En 1985, les dix premiers producteurs de diagnostic in vitro (DIV) réalisaient 60 % du chiffre d'affaires mondial. En 2005, les mêmes représentent 80 % de ce même chiffre ! Le marché est donc en pleine concentration autour de quelques géants de l'industrie pharmaceutique comme le suisse Roche, mais attire aussi de nouveaux venus issus de l'imagerie médicale, comme Siemens et General Electric (GE) Healthcare. Car, en dix ans, les progrès de la génomique (étude des gènes) ont radicalement changé les perspectives du DIV autour du concept de "médecine personnalisée". Laboratoires pharmaceutiques et spécialistes de l'imagerie médicale ont chacun leur vision de cet avenir. Côté laboratoire, la génomique et la protéomique (étude des protéines d'une cellule) permettent d'imaginer que des batteries de tests - plus ou moins bon marché - soient associées à des médicaments (généralement très chers) capables d'être efficaces à 100 % sur des populations précises de patients. Le prototype de cette médecine du futur est incarné aujourd'hui par l'Herceptine de Roche, un médicament efficace sur les patientes atteintes d'un cancer du sein du type HER2. Si le test détecte la présence de la protéine HER2, le médicament est délivré dans le corps de la patiente.

Côté imagerie médicale, le pari est identique. Siemens et GE Healthcare bâtissent leur stratégie sur une interdépendance qui va aller croissant entre l'in vivo (l'image) et l'in vitro (le test). Au fur et à mesure que les chercheurs mettront à jour des marqueurs biologiques liés à la présence d'une pathologie particulière, la demande pour des tests fiables permettant de signaler ces marqueurs - et donc détecter et surtout "voir" une maladie de manière précoce sur un écran - s'accroîtra. L'entité Diagnostics de Siemens a ainsi identifié plusieurs marqueurs propres au cancer du sein et des tests brevetés permettent d'évaluer le niveau de risque associé à chaque patient. Avec cette corrélation entre marqueurs et tests, il sera possible d'identifier les individus à risque, puis de les surveiller grâce à une combinaison d'examens in vivo et in vitro pour intervenir sitôt que la maladie se déclenche. Cette vision de la médecine du futur est soutenue par les organismes d'assurance-maladie qui se réjouissent à l'idée de payer pour des médicaments - enfin - efficaces et prescrits à bon escient. Les patients aussi se réjouissent, via leurs associations, de moins jouer les cobayes de médicaments "généralistes" aux effets secondaires parfois redoutables.

­CONTRÔLE

Voilà pourquoi Roche, GE et Siemens tentent de contrôler à coups de milliards de dollars des pans entiers de la production de tests in vitro. Le fabricant de médicaments le plus actif dans ce secteur est incontestablement le suisse Roche, dont la filiale, Roche Diagnostics, est déjà numéro un mondial avec 8,7 milliards de francs suisses (5,2 milliards d'euros) de chiffre d'affaires en 2006, soit 20 % du marché. Roche a également en cours une offre publique d'achat (OPA) à 3 milliards de dollars (2,1 milliards d'euros) sur la société de biotechnologie américaine Ventana, qui produit des diagnostics pouvant fonctionner avec ses médicaments anticancer. De son côté, GE Healthcare a pris en décembre 2003 pour 9,3 milliards de dollars (6,5 milliards d'euros) le contrôle d'Amersham, une société britannique qui fabrique des produits de diagnostic destinés à améliorer les images des scanners. GE Healthcare a tenté de récidiver en août 2007 en cherchant à racheter Abbott Diagnostics, numéro deux avec 12 % du marché. Mais la négociation semble avoir capoté faute d'accord sur le prix de la transaction. Siemens, autre géant de l'imagerie médicale, a opté pour la même stratégie que GE Healthcare en prenant le contrôle dans les deux dernières années de Bayer Diagnostics, numéro trois du marché, puis de Diagnostic Product Corp., numéro douze. Siemens a également lancé au milieu de l'été une OPA sur l'américain Dade Behring (numéro 6 avec 6 % du marché mondial) dont le résultat sera connu à la fin du mois d'octobre. GE et Siemens, qui multiplient pourtant par ailleurs les partenariats thérapeutiques avec les laboratoires pharmaceutiques, deviennent ainsi leurs concurrents directs sur le marché du diagnostic. Cela dit, certains observateurs doutent de la pertinence de cette stratégie. Les points de convergence réels entre la pharmacie et le diagnostic se comptent, selon eux, sur les doigts d'une main. Roche Diagnostics peinerait à collaborer de manière fructueuse avec les chercheurs de la division pharmacie du groupe. Idem pour les électroniciens qui suivraient une vision de l'avenir, sans que des résultats tangibles viennent en vérifier au jour le jour la validité. Des laboratoires, tels Abbott, qui cherche à se désengager du secteur, estiment que le vieillissement de la population et la montée en puissance des maladies chroniques donnent encore de beaux jours à la stratégie du "blockbuster", c'est-à-dire au médicament pour tous vendu à faible prix par dizaines de millions de boîtes.

­La médecine personnalisée devra prendre en compte le génome, et non l'ethnie, de chacun

Pour proposer des traitements adaptés aux individus, il vaut mieux s'appuyer sur leurs caractéristiques génétiques propres plutôt que sur leur appartenance ethnique

Paul Benkimoun 22 août 2008

Pour proposer des traitements adaptés aux individus, il vaut mieux s'appuyer sur leurs caractéristiques génétiques propres plutôt que sur leur appartenance ethnique ou supposée raciale. C'est le conseil formulé par Pauline Ng et ses collègues de l'équipe du généticien et homme d'affaires Craig Venter (Rockville, Etats-Unis) dans un article mis en ligne mardi 19 août, à paraître en septembre dans la revue Clinical Pharmacology & Therapeutics. La formule paraît enfoncer une porte ouverte, mais il faut avoir à l'esprit que l'agence américaine du médicament avait autorisé, en juin 2005, la mise sur le marché d'un traitement de l'insuffisance cardiaque, le BiDil, en le réservant à un groupe ethnique particulier, les Afro-Américains. Entièrement séquencés, les génomes de Craig Venter et du Prix Nobel James Watson ont été mis dans le domaine public. Pauline Ng et ses collègues ont étudié chez ces deux individus, classés selon la terminologie américaine dans la catégorie "caucasien", six gènes jouant un rôle-clé dans la manière dont les médicaments sont métabolisés. Différentes versions de ces gènes existent avec des fréquences variables selon les ethnies. Mais les différences génétiques retrouvées entre Venter et Watson sont suffisantes pour prédire que le docteur Venter va très bien métaboliser des médicaments tels que des antidépresseurs ou un anticancéreux, le tamoxifène. Au contraire, le docteur Watson sera moins performant dans ce domaine. Il présente d'ailleurs, pour l'un des gènes étudiés, une version rare chez les "Caucasiens", mais fréquente parmi les populations d'Asie de l'Est.

La génomique s'attaque au cancer

Un consortium international s'est donné pour objectif de séquencer 25 000 génomes de tumeurs en cinq ans. L'objectif est d'aboutir à des traitements personnalisés.

Par Hervé Morin 16 avril 2010

La génétique entre dans l'ère "industrielle". Elle s'apprête à révolutionner l'acquisition des connaissances sur le cancer. Le Consortium international sur le génome du cancer (ICGC), mis sur les rails en 2008, c'est ainsi donné pour objectif de séquencer en cinq ans le génome intégral de 25 000 tumeurs. Dans un article publié dans la revue Nature, jeudi 15 avril, l'ICGC décrit la façon dont il va coordonner le recueil et le partage de montagnes de données engendrées par cet effort sans précédent, entrepris par douze membres, dont la France. Quand on considère que le premier séquençage complet d'un génome humain date de 2004 et qu'à ce jour, 25 seulement ont été publiés, il s'agit d'une gageure. D'autant qu'il conviendra d'analyser en parallèle l'ADN de 25 000 tissus sains prélevés sur les mêmes donneurs, à des fins de comparaison.

Pourquoi se lancer dans une telle entreprise ? Parce que chaque tumeur porte la trace de mutations génétiques et de recombinaisons, dont certaines lui sont propres - soit responsables de la prolifération incontrôlée des cellules tumorales (oncogènes), soit impliqués dans le contrôle de cette prolifération (gènes suppresseurs de tumeur). "Pour identifier ces gènes, nous disposions jusqu'alors de puces à ADN capables d'analyser 1 million de marqueurs, indique Fabien Calvo, directeur de la recherche à l'Institut national du cancer (INCa) et représentant de la France au sein de l'ICGC. Nous sommes passés au séquençage intégral du génome", soit la lecture, pour chaque tumeur, de 3 milliards de paires de base d'ADN.

L'ICGC a décidé d'analyser 50 types de cancers. Afin d'éviter les doublons, les membres du consortium se sont réparti les tumeurs en fonction de problématiques nationales. L'Inde s'est, par exemple, concentrée sur les cancers de la cavité buccale, causés par l'utilisation massive du bétel dans ce pays. Le Japon met l'accent sur les cancers du foie liés à l'hépatite C, qui touche fortement l'Archipel. La France a choisi de cibler les cancers du foie principalement engendrés par la consommation d'alcool et les cancers du sein de type HER2 +, soit 15 % de ces tumeurs. "Ce choix a été conditionné par l'existence de banques de tumeurs très bien organisées, où le consentement éclairé des patients avait été recueilli et dans lesquelles des tissus normaux correspondants avaient été collectés", indique Fabien Calvo. En outre, ajoute-t-il, la France dispose d'équipes de recherche très fortes dans ces spécialités. Trois autres types de cancers doivent encore être pris en charge par la France. Leur sélection est en cours. A ce jour, sept tumeurs du foie ont été intégralement séquencées par la partie française. Leur analyse et leur annotation est en cours. "Le cancer du foie est une maladie très complexe, dans laquelle la combinaison de gènes impliquée est différente pour chaque patient, souligne Jessica Zucman, qui dirige une équipe Inserm (U674) spécialisée dans le carcinome hépatocellulaire. Nous voulons établir le répertoire le plus exhaustif possible de ces gènes." Il s'agit de mieux comprendre la "mécanique" de la tumeur, mais aussi d'améliorer le diagnostic, d'établir des classifications robustes de ces cancers, afin de mieux déterminer les stratégies thérapeutiques adaptées à chacun : l'objectif est de viser une médecine personnalisée. Sur les sept tumeurs séquencées à ce jour, celle qui a été analysée de manière plus approfondie portait une centaine d'altérations génétiques. "La situation va donc être très complexe pour déterminer le rôle de chacune", note la chercheuse. Fabien Calvo, qui dirige aussi l'Institut cancer de l'alliance pour les sciences de la vie et de la sante, souligne que ces analyses peuvent aussi conduire à des "bonnes surprises", dans la mesure où elles mettront en évidence des oncogènes déjà repérés dans d'autres cancers et pour lesquels des médicaments existent déjà "sur étagère".

"A L'AVEUGLE"

Cette approche massive, "à l'aveugle", a parfois été critiquée dans le milieu de la recherche médicale, où certains redoutent une redistribution des fonds au détriment de projets visant à valider des hypothèses biologiques ou thérapeutiques. M. Calvo reconnaît que le programme de séquençage représente un effort important - 5 millions d'euros pour chacun des cinq cancers analysés sur cinq ans, à comparer aux 60 millions d'euros du budget de recherche annuel de l'INCa. Mais les coûts ne cessent de baisser. Le million de paires de bases analysées revient aujourd'hui à 1 dollar, soit 10 000 fois moins qu'il y a dix ans. Ces baisses tarifaires pourraient encourager les associations comme l'ARC, qui soutiennent déjà la recherche génétique, à s'engager financièrement auprès de l'ICGC. "Nous évaluerons les premiers résultats avant de prendre position, courant 2011", indique son président, Jacques Raynaud. Participer à l'ICGC est aussi un investissement stratégique. Dans moins d'une décennie, les retombées médicales pourraient être au rendez-vous. La Chine ne s'y est pas trompée : à Shenzhen, l'institut BGI vient d'acquérir 128 séquenceurs de dernière génération, qui lui donnent les moyens de séquencer 10 000 génomes humains par an. Soit plus que tous les centres de recherche américains réunis. BGI figure parmi les acteurs de l'ICGC...

Cancer : des traitements sur mesure

Grâce aux progrès de la génomique et à l'analyse de l'ADN des cellules tumorales, une médecine personnalisée commence à se développer avec de premiers succès.

Paul Benkimoun, 15 juillet 2011

Elle n'en est qu'à ses débuts, mais l'ère des thérapies ciblées contre le cancer est bel et bien ouverte. Face à une maladie complexe, qui frappe chaque année plus de 10 millions de personnes et provoque plus de 6 millions de décès dans le monde, les traitements "taille unique" commencent à laisser la place aux médicaments profilés selon les caractéristiques génétiques du malade et surtout de la tumeur. Cette approche est au coeur de la démarche du consortium international Worldwide Innovative Networking in Personnalized Cancer Medicine (WIN, Réseau mondial innovant en médecine personnalisée du cancer), qui a tenu son troisième symposium à Paris du 6 au 8 juillet. "Toutes les analyses convergent pour dire que, pris à son début (stade 1), un cancer peut être guéri dans 99 % des cas. Le problème est donc celui d'une course contre la montre car le cancer du poumon, par exemple, est découvert dans 75 % des cas au stade métastatique, avec une survie à cinq ans qui ne dépasse pas 5 % des malades. La seule manière de relever ce défi est d'effectuer un diagnostic précoce et d'appliquer les nouvelles thérapies ciblées", souligne le docteur Vladimir Lazar, directeur de la génomique fonctionnelle à l'Institut Gustave-Roussy (Villejuif) et directeur exécutif du consortium WIN, créé à l'initiative de cet institut. Jusqu'ici, la découverte d'un cancer donnait lieu à une caractérisation morphologique par analyse du tissu malin prélevé. Les progrès de la génétique permettent d'extraire l'ADN des cellules cancéreuses et de le séquencer entièrement. Il est alors possible de détecter une mutation impliquée dans le déclenchement de la maladie cancéreuse et de déterminer, lorsqu'il existe, le médicament profilé pour cette cible. La caractérisation des tumeurs au plan moléculaire est une percée remarquable. Déjà, des progrès avaient eu lieu dans l'étude des caractéristiques individuelles prédisposant au cancer. "Objectivement, nous n'avons pas avancé très vite en dehors des cas du cancer du sein ou du côlon. Nous sommes encore loin de pouvoir affirmer à quelqu'un que son patrimoine génétique indique qu'il fera un cancer", reconnaît Fabien Calvo, directeur général adjoint et directeur de la recherche à l'Institut national du cancer (INCa). En revanche, l'étude du génome des cellules cancéreuses a permis de développer des traitements spécifiques et même de montrer que des tumeurs se développant dans des tissus différents possédaient des caractéristiques moléculaires communes. C'est ainsi que l'imatinib (Glivec), mis au point pour traiter les leucémies myéloïdes chroniques, a été employé avec succès chez des patients atteints de tumeurs stromales gastro-intestinales ou de certaines tumeurs de la peau. Le traitement est dès lors défini en fonction de ces caractéristiques moléculaires. Mettre au point des thérapies ciblées suppose de bien comprendre les mécanismes de la transformation d'une cellule normale en cellule cancéreuse, pour déterminer de nouvelles cibles et développer des médicaments spécifiques. Donc, de distinguer les variations jouant un rôle moteur dans la cancérisation et celles qui sont plus accessoires.

Un coût élevé

Dans plusieurs domaines, des progrès sont accomplis. "Un programme de recherche franco-britannique consacré au cancer du sein a montré que 50 % à 60 % de ces tumeurs possèdent certains types de mutations très fréquentes, pour lesquelles des traitements devraient être disponibles dans les trois ou quatre ans à venir. De même dans les cancers du foie survenant après des cirrhoses ou des hépatites virales", cite Fabien Calvo. Trois ans, c'est également l'échéance que s'est donnée le consortium WIN pour obtenir ses premiers résultats cliniques en matière de traitements personnalisés. Dans un univers où la compétition est vive, il a rassemblé 22 partenaires en l'espace de dix mois : 19 centres de recherche situés en Europe, en Amérique du Nord et du Sud et en Asie, dont le prestigieux MD Anderson Cancer Center de Houston (Texas), et trois entreprises de technologie. Les laboratoires pharmaceutiques n'en font pas partie mais des partenariats non exclusifs leur sont proposés et ils ont partagé la tribune du récent symposium WIN. Parce que les thérapies ciblées ne sont efficaces, par définition, que sur certaines sous-populations parmi les personnes atteintes par un cancer donné, les tester sur des malades non porteurs de l'anomalie identifiée paraît voué à l'échec. La sélection préalable des individus porteurs de la mutation est donc nécessaire pour conduire des essais cliniques. Cela signifie aussi que les médicaments ciblant une anomalie précise ne seront le plus souvent efficaces que chez les porteurs de la mutation génétique. Il existe, par exemple, un sous-groupe de 5 % à 7 % des patients atteints de cancer du poumon chez lesquels on retrouve une anomalie du gène appelé ALK. Un traitement ciblé avec le crizotinib a montré des résultats encourageants pour cette sous-population, lors d'un essai clinique en 2010. Reste le coût fréquemment élevé de ces thérapies d'un genre nouveau, "souvent de l'ordre de 30 000 €, indique Fabio Calvo, mais, nous aurons des réductions des coûts d'hospitalisation". De plus, l'INCa a financé 28 plates-formes de biologie moléculaire en France qui possèdent la capacité d'effectuer gratuitement, avec une réponse généralement dans les deux semaines, tous les tests génomiques sur les cellules tumorales, afin d'assurer l'équité dans l'accès aux thérapies ciblées. Le mouvement engagé vers une médecine personnalisée semble bien irréversible.  

Cancer: coût des traitements ciblés, la fin d'un tabou

Florence Rosier, 4 octobre 2012

Quels sont les problèmes de financement posés par les "thérapies ciblées" contre les cancers du poumon ? A-t-on les moyens de payer aujourd'hui très cher une innovation médicale "de niche" ? Trois économistes de la santé exposent les enjeux de ces thérapies.

Gérard de Pourville 

Le nombre de patients susceptibles de bénéficier d'une thérapie ciblée est par essence limité. Et ces traitements sont souvent prescrits en deuxième, troisième ou quatrième ligne de traitement, ce qui réduit encore la taille du marché. De sorte que les laboratoires sont amenés à demander des prix de départ élevés. Une grande partie du problème vient de là. Ces coûts, joints à des gains de survie globale souvent limités à quelques mois, font que le ratio coût/efficacité risque de ne pas être très bon, du moins au début ! Au fil du temps, ce ratio s'améliore : les prix diminuent et le ciblage des patients s'affine, ce qui accroît l'efficacité. Les indications peuvent s'étendre à d'autres cancers ou à des cancers plus précoces, ce qui contribue à baisser le ratio coût/efficacité. Aujourd'hui le rapport de forces est en faveur des payeurs. Mais il y a sept à dix ans l'intérêt de certaines thérapies ciblées a probablement été surestimé, dans l'enthousiasme des premières découvertes ! Il y a par exemple une remise en cause de l'intérêt du bevacizumab (Avastin) dans les cancers du sein : Avastin a été retiré du marché aux Etats-Unis - mais pas en Europe - à cause d'un rapport bénéfice/risques jugé défavorable.

Pour l'économiste, ces thérapies renvoient au débat entre "efficience statique" et "efficience dynamique". Dans le premier cas, la question est : accepte-t-on de payer un prix initial élevé, avec pas mal d'incertitudes sur le ratio coût/efficacité d'une thérapie donnée ? Dans le second cas : si on ne finance pas ce produit, ne risque-t-on pas de se priver d'un progrès thérapeutique ? Et quel sera l'impact sur l'investissement de la recherche et développement des laboratoires ? C'est un pari sur l'avenir de ces produits ! Deux alternatives peuvent améliorer le ratio coût/efficacité. Premièrement, on peut trouver des "accords de risques partagés" avec le laboratoire. Le payeur dit : "On prend, mais on vous demande de continuer les études d'observation sur ce produit dans la vie réelle. Selon vos résultats, on réévaluera le prix dans trois ans ou on vous demandera un remboursement." Ces accords commencent à être pratiqués en France, mais pas encore en oncologie. Le payeur peut aussi faire d'emblée baisser le prix de 30 %. Par exemple : si le produit s'avère meilleur que prévu, il augmentera le prix ou ne le diminuera pas au bout de trois ans... C'est une négociation de "marchand de tapis" ! Deuxième piste d'amélioration : définir le plus étroitement possible la population cible. Si un produit coûte 50 000 euros par an, on veut qu'il ne soit utilisé que par les patients qui en bénéficient le plus ! D'où l'intérêt de disposer de marqueurs biologiques pour identifier ces patients.

Claude Le Pen 

En France, le débat sur les thérapies ciblées marque la fin d'une certaine "sanctuarisation" des traitements contre le cancer. Même en oncologie, on ose aujourd'hui discuter du coût d'un traitement. Le modèle français de financement des médicaments repose sur deux principes importants, qui font plutôt école en Europe. Il sépare l'évaluation médicale d'un nouveau produit (par la Haute Autorité de santé) de la fixation de son prix par l'Etat (par le Comité économique des produits de santé). Si un traitement est jugé bon, son accès est censé être garanti à tous. Quitte à être géré rigoureusement : indications restreintes, populations cibles bien définies, prescriptions réservées aux spécialistes ou à des centres accrédités... C'est d'ailleurs une des recommandations de l'Inspection générale des affaires sociales (IGAS) vis-à-vis des thérapies ciblées. Par contraste, dans le système britannique, le coût et l'efficacité d'un traitement sont évalués simultanément. L'Etat décide qui sera le bénéficiaire d'un nouveau traitement selon son coût, rapporté au nombre d'années de vie de qualité gagnées. Cette différence renvoie à des choix philosophiques différents : droit fondamental des individus à accéder aux traitements efficaces en France ; optimisation des ressources collectives au prix d'une restriction d'accès au Royaume-Uni. Différence qui s'est déjà traduite par des choix opposés vis-à-vis de certaines thérapies ciblées. On aura tendance en France à aborder la question de ces thérapies par le biais d'un débat médical : "Est-ce vraiment efficace ?" Ce qui renvoie à l'interrogation : qu'est-ce qu'un "gain significatif" pour un médicament innovant - au-delà du gain montré par les essais cliniques, qui peut paraître socialement et humainement insuffisant ? Si, comme c'est déjà le cas, on ne prend pas en charge certains traitements, ce sera officiellement au nom d'une insuffisance d'efficacité réelle, plutôt qu'en raison d'un prix trop élevé. Cela peut amener à redéfinir la notion de "bénéfice thérapeutique" dans la "vraie vie" des patients, et non plus seulement d'après les essais cliniques.

Essais cliniques des médicaments : la nouvelle donne

L’évaluation classique des médicaments est en bout de course. La mobilisation de patients, les percées de la médecine personnalisée et l’irruption de nouvelles technologies bouleversent les pratiques.

Sandrine Cabut et Pascale Santi  9 décembre 2013

Recours croissant aux nouvelles technologies et aux communautés de patients ; modifications profondes de la conception et du déroulé des études cliniques… Le développement et l’évaluation des nouvelles molécules thérapeutiques sont en pleine mutation. Le domaine des maladies génétiques a été parmi les premiers à faire bouger les lignes. « Nous devons être dans une créativité permanente car le modèle traditionnel des essais n’est pas adapté aux maladies rares », confirme Frédéric Revah, directeur général du Généthon. De fait, les essais thérapeutiques ne peuvent ici, par définition, être menés sur de vastes populations de malades.

Peu avant le Téléthon (Afm-telethon.fr), qui s’est tenu les 6 et 7 décembre, des chercheurs ont présenté les premiers pas d’un essai de thérapie génique qui illustre cette créativité. Il concerne la maladie de Sanfilippo, une affection du lysosome, « centre de recyclage de la cellule ». Les premiers symptômes, neurologiques, commencent vers l’âge de 2 ans, et la dégénérescence nerveuse aboutit à une mort prématurée, avant 20 ans. L’étude, qui vient de démarrer en France chez un premier malade âgé de 3 ans, consiste à injecter le gène manquant en intracérébral, par huit points d’entrée différents. Elle permettra de tester la tolérance et l’efficacité du traitement (phases 1-2) chez quatre petits patients. Si ces résultats sont positifs, elle sera suivie d’une étude de phase 3. Mais il n’est pas question, pour des raisons éthiques, d’injecter un placebo par voie intracérébrale à certains patients. « L’efficacité de la thérapie génique sera évaluée en comparaison avec l’histoire naturelle de cette maladie, que nous avons passé plusieurs années à étudier », précise le professeur Marc Tardieu, neuropédiatre à l’hôpital du Kremlin-Bicêtre (Val-de-Marne), investigateur principal.

PREMIER LABORATOIRE À BUT NON LUCRATIF

Pour faire avancer la recherche de thérapeutiques innovantes dans ce secteur, délaissé par les géants de l’industrie, l’Association française contre les myopathies (AFM) est allée jusqu’à monter son propre site de production de thérapie génique. Généthon Bioprod a obtenu le statut d’établissement pharmaceutique en juin, devenant le premier laboratoire à but non lucratif créé par une association de malades. Une révolution. En cancérologie, c’est l’arrivée de traitements ciblés et du séquençage rapide et complet du génome des tumeurs qui bouleverse le schéma des essais cliniques et de la prise en charge. Classiquement, un médicament était développé pour un type de cancer, en fonction de l’organe atteint : sein, côlon… Les thérapies ciblées (dont une quarantaine sont déjà commercialisées et des centaines en cours d’étude) agissent au niveau d’anomalies moléculaires présentes dans des sous-groupes de cancers, sans rapport avec leur localisation. En conséquence, ces traitements peuvent démontrer leur efficacité – parfois spectaculaire – plus rapidement, et être utiles dans plusieurs types de tumeurs, selon leur profil génétique. « Le crizotinib, qui cible les translocations [un type de mutation] du récepteur ALK, a été approuvé pour traiter certains cancers bronchiques en passant directement d’une phase 1 à une phase 3, relève le docteur Christophe Le Tourneau, responsable des essais de phase 1 à l’Institut Curie (Paris). Il est aujourd’hui évalué chez des patients positifs pour une des cibles de ce médicament, indépendamment de la localisation de leur cancer. »

« TRAVAUX EN COURS »

Dans le même esprit, ce cancérologue coordonne un essai original, nommé « Shiva », qui propose une thérapie ciblée à des patients en échec thérapeutique, en fonction du génome de leur tumeur. « Nous allons vers un concept de biologie des systèmes, qui consistera à choisir la meilleure combinaison thérapeutique, selon un ensemble de critères dont le génome de la tumeur. Les essais cliniques n’évalueront plus seulement des médicaments mais des algorithmes », prévoit le médecin. Pour faire face à ces évolutions, l’Institut Curie vient de créer un pôle de médecine de précision. Le phénomène dépasse largement la cancérologie et les maladies rares. Laboratoires pharmaceutiques, chercheurs et agences de régulation explorent des pistes de réforme, en particulier pour les études de phase 3, de plus en plus longues et coûteuses pour les laboratoires. Parmi les options envisagées : une mise sur le marché (AMM) plus rapide des médicaments mais avec un suivi plus strict, notamment grâce au recours à des bases de données, qui fournissent des informations sur les traitements en « vie réelle » (par opposition aux conditions très restrictives des essais). « Il y a beaucoup de travaux en cours sur l’utilisation de bases de données, par exemple pour identifier des profils particuliers de patients pour des études cliniques, confirme Soizic Courcier, qui préside le groupe attractivité du LEEM (Les entreprises du médicament). L’évaluation ne se fait pas seulement au moment de l’enregistrement, mais s’inscrit dans un continuum tout au long de la vie du médicament. Pour certaines molécules, il existe déjà des AMM conditionnelles, avec nécessité de fournir des éléments complémentaires. »

« RÉSISTER AUX CONFLITS D’INTÉRÊTS »

Critique sur le principe même des essais avec tirage au sort, le professeur Bruno Falissard, pédopsychiatre et biostatisticien, plaide de son côté pour un système assez original : une « pré-AMM » assez précoce, après les essais de phase 2, puis une prescription limitée à des centres experts (type CHU), « qui permettrait de continuer l’évaluation avec un financement public », précise-t-il. Ce n’est que dans un troisième temps que l’usage serait étendu en médecine de ville. « Actuellement, c’est l’industrie pharmaceutique qui évalue les médicaments qu’elle développe, ce qui ne devrait pas être toléré, justifie Bruno Falissard. C’est d’ailleurs pour résister aux conflits d’intérêts que les essais randomisés en double aveugle se sont développés. L’autre avantage de cette méthodologie est d’être la plus efficace pour apporter une réponse convaincante à une question simple. Mais, en pratique, une situation thérapeutique n’est jamais simple. »

Les nouvelles technologies, et notamment le Big Data, constituent un autre moyen d’optimiser les essais cliniques. « On va vers du tout-électronique, vers du temps réel, avec l’arrivée massive d’outils connectés pour collecter et transmettre des données au fur et à mesure et les archiver », explique Yoani Matsakis, membre de l’Afcros, association qui regroupe les entreprises prestataires de la recherche clinique et épidémiologique. Des objets intelligents dotés de capteurs mesurent l’heure du coucher, du réveil, l’activité cardiaque, la température corporelle… Des gélules à puce RFID ou des patchs surveillent la prise des médicaments. Et les données recueillies en ligne peuvent être envoyées à un smartphone, ou à une interface Internet. « Ces sujets sont au cœur de l’actualité de l’agence européenne du médicament [EMEA] et de la Food and Drug Administration américaine, la problématique étant la source électronique des données, leur traçabilité, leur fiabilité, poursuit M. Matsakis. Il faut des espaces d’hébergement indépendants, pour être certain de la sincérité des résultats. » « Cela pourrait être un outil merveilleux, mais des utilisations détournées seraient dangereuses… Il faut être prudent », insiste Denis Comet, président de l’Afcros.

ESSAIS VIRTUELS

Les chercheurs développent aussi des essais virtuels, en utilisant les principes de modélisation. Ces études « in silico » s’appliquent notamment pour les maladies rares, en cancérologie et en pédiatrie. « On est capable de modéliser un patient, le fonctionnement de ses organes, le système de la respiration par exemple, explique Yoani Matsakis. Un modèle mathématique permet de déterminer les facteurs influençant les résultats positifs ou négatifs d’un essai, et de mieux cibler les critères d’inclusion. On peut ainsi obtenir des informations avec 1 000 patients au lieu de 10 000, avec des délais de réalisation plus courts et des coûts considérablement abaissés. » Les nouvelles technologies s’invitent aussi pour le recrutement des patients, où les réseaux sociaux comme Facebook et Twitter permettent une mise en relation plus rapide, et à des coûts moindres. Fréquent dans les pays anglo-saxons, ce mode de recrutement commence à entrer dans les pratiques en France. « Les promoteurs font appel à nous depuis un an pour les mettre en relation avec des patients susceptibles de participer à leurs recherches », confirme Michael Chekroun, président de Carenity, une plate-forme qui compte 25 000 patients, répartis par pathologie. De leur côté, ces derniers sont très demandeurs de participer à des essais cliniques, c’est l’un des sujets majeurs des échanges sur Carenity.

UNE CARTE D’IDENTITÉ GÉNÉTIQUE DE CANCERS

Bref, tout le monde y gagne. Il a même été montré (PLoS One) que le recrutement en ligne améliore la compréhension des protocoles par le biais de quiz interactifs, ou de vidéos. Pour autant, le recueil de données en ligne a ses limites. Le laboratoire Pfizer a interrompu son projet Remote, lancé à la mi-2011. Des patients, traités pour incontinence urinaire, étaient invités à transmettre leurs paramètres en ligne plutôt que de se rendre à l’hôpital. Les 600 volontaires prévus n’ont pas pu être recrutés, mais Pfizer ne renonce pas : le laboratoire, comme d’autres, réfléchit à des systèmes de recueil en ligne de documents de consentement. De leur côté, deux jeunes oncologues français, Jean-Emmanuel Bibault et Charles Ferté, ont créé un site collaboratif (Cancerdriver.com, en anglais) permettant aux professionnels et aux patients de dresser la carte d’identité génétique de cancers. « C’est une sorte de Wikipédia des biomarqueurs, qui indique aussi les essais cliniques en rapport avec chaque biomarqueur », précise M. Bibault. Il souhaite offrir bientôt un service de géolocalisation, proposant aux malades les études les plus proches de chez eux. Grâce aux réseaux sociaux spécialisés, des patients experts de leur maladie sont même parfois à l’origine de recherches. La communauté PatientsLikeMe a, par exemple, évalué les effets d’un régulateur de l’humeur, le lithium, chez 149 patients atteints de sclérose latérale amyotrophique, une maladie neurodégénérative grave. Ces malades, qui avaient décidé de prendre ce produit sur la foi des résultats d’une petite étude, ont pu, grâce à un algorithme, être comparés à 300 autres ne le prenant pas. Avec douze mois de recul, il a finalement été montré que le lithium était inefficace : écarter les fausses pistes est l’une des vertus des essais cliniques. Une information précieuse, que les grands groupes ne sont pas toujours très disposés à partager.

Il y a et il y aura de plus en plus de médicaments "de niche", ciblés sur des groupes d'individus bien plus restreints que les populations de masse auxquelles s'adressent les médicaments "blockbusters". Si ces médicaments de niche sont aujourd'hui onéreux, je n'ai aucun doute sur le fait qu'à l'avenir un équilibre économique se trouve : sous la pression des systèmes de protection sociale, leurs prix chuteront drastiquement et ils deviendront "absorbables". Faut-il pour autant attendre des économies de ces thérapies ciblées ? Certains disent : "Elles seront bien plus efficientes en ne ciblant que les patients répondeurs." Mais la réponse n'est pas évidente à ce jour. Plus généralement, la montée en puissance de cette médecine prédictive et personnalisée devrait avoir quatre grands impacts sur notre système de soins. Tout d'abord, elle va rééquilibrer un peu soins et prévention, en faveur d'une médecine de prévention. Le fait de détecter, grâce aux marqueurs biologiques, des pathologies à des stades moins avancés permettra de prendre en charge ces maladies en amont, parfois même avant qu'elles n'aient produit de signe clinique. Deuxièmement, le rapport entre médecins et patients sera modifié par cette "médecine du bien portant" et par l'introduction d'un "tiers scientifique" : l'analyse génétique ou biologique. Troisièmement, les grands équilibres de l'assurance-maladie, qui rembourse aujourd'hui essentiellement les soins, pourront être modifiés.

De nouvelles questions vont se poser : prendra-t-on en charge uniquement les traitements jugés "pleinement efficients" ? Cette médecine de plus en plus fondée sur des facteurs individuels ne risque-t-elle pas de conduire à une "assurance-maladie conditionnelle", la tentation de conditionner le remboursement à l'attitude du patient posant de sérieux problèmes sociaux et éthiques ? Enfin la dissémination de la gigantesque masse de données issues des tests biologiques et génétiques pose la question du secret médical, en raison d'un risque de dévoiement.

Propos recueillis par Florence Rosier

Peut-on profiler les maladies ?

 Florence Rosier, 10 septembre 2018

Depuis 10 ans, la génomique de masse, recherche de variants génétiques susceptibles d’expliquer les différences entre individus, connaît un essor, sans toujours convaincre.

« Vous avez demandé : yeux noisette, cheveux foncés et peau claire. J’ai pris la liberté de supprimer toutes les conditions potentiellement préjudiciables, la calvitie, la myopie, l’alcoolisme, la propension à la violence et l’obésité. (…) Votre enfant n’a pas besoin de tous ces problèmes », explique un généticien à de futurs parents dont les gamètes ont été triés et sélectionnés, afin de concevoir in vitro un enfant sur mesure et « quasi parfait ». Ce scénario de cauchemar, c’est celui d’un film de science-fiction, Bienvenue à Gattaca, d’Andrew Niccol, sorti en 1997. Dans ce centre pour individus au patrimoine génétique ­ « irréprochable », l’eugénisme est pratiqué à grande échelle. Mais certains parviennent à « s’élever » au-dessus de leurs prédispositions, déjouant les prédictions des généticiens. Telle est la morale du film : notre sort est loin d’être scellé dans nos gènes. Vingt ans après, un des aspects de cette science-fiction est-il en passe de devenir réalité ? C’est ce que suggère une étude américaine parue le 14 août dans la revue Nature Genetics. Ravivant l’éternel débat sur le déterminisme de notre condition, ce travail pose une question troublante. Dans un futur proche, tous nos enfants ­seront-ils, dès la naissance, passés au crible de l’analyse génomique pour détecter leurs risques d’être frappés, une fois adultes, par une ou plusieurs maladies très fréquentes : diabète de type 2, cancer du sein, maladies des artères exposant au risque d’infarctus… ? Le but n’est pas de pratiquer l’eugénisme ! Non : l’objectif, louable, est de mieux cibler des actions préventives. Ce Graal de la génétique est à notre portée, affirment les auteurs de cette étude, des équipes du Broad ­Institute (MIT, université Harvard, Massachusetts), de l’hôpital général du Massachusetts et de l’Ecole de ­médecine de Harvard. L’approche, cependant, suscite un vif débat d’experts.

« Enjeu de santé majeur »

Ici, un distinguo crucial doit être opéré entre maladies génétiques rares et fréquentes. En France, on pratique actuellement, dès la naissance, le dépistage biologique de cinq maladies génétiques rares comme la mucoviscidose. L’intérêt se justifie par la gravité de ces affections, et par la nécessité de mettre en place des traitements précoces. Par ailleurs, le diagnostic prénatal de la trisomie 21 est autorisé pour toutes les femmes enceintes qui le souhaitent. Enfin, le diagnostic préimplantatoire (DPI) est proposé aux couples qui risquent de transmettre à leur enfant une maladie génétique d’une particulière gravité (maladie de Huntington, amyotrophie spinale…), une pratique très encadrée en France. On réalise alors un diagnostic génétique sur un embryon obtenu par fécondation in vitro : s’il est indemne, il est ­implanté dans l’utérus maternel. Toutes les maladies concernées sont dites « monogéniques », c’est-à-dire qu’elles sont dues à la mutation d’un seul gène.

Quid des maladies fréquentes, dites « multifactorielles », « polygéniques » ou « à hérédité complexe » ? Parfois qualifiées de « cauchemars pour les généticiens », elles résultent de l’effet combiné d’une multitude de facteurs génétiques, chacun n’ayant qu’un poids mineur, couplé à l’interaction avec des facteurs de l’environnement (modes de vie, exposition à des toxiques…). Pour ces maladies fréquentes, les auteurs disent avoir trouvé « un nouveau type de facteurs de risque génétiques », fondé sur la seule analyse des ­variations fréquentes de l’ADN entre individus. « Ces scores de risque polygénique sont un moyen d’identifier les personnes à haut ou à faible risque de développer l’une de ces maladies, peut-être dès la naissance, et d’utiliser cette information pour cibler les interventions à visée préventive, que ce soit par les modes de vie ou par des traitements », annonce Sekar Kathiresan, dernier auteur, généticien au Broad Institute. Et d’enfoncer le clou : « Il est temps d’envisager la prise en compte de cette prédiction du risque polygénique dans la pratique clinique. » Un avis loin d’être consensuel. « Le débat est un peu scientifique et beaucoup politique. Il intéresse surtout le monde anglo-saxon. Et le Broad Institute cherche à prendre le leadership », résume le professeur Philippe Froguel, un des pionniers de ces ­approches, directeur du laboratoire de génomique des maladies communes à l’Imperial College (Londres, Royaume-Uni) et d’une unité CNRS (institut Pasteur de Lille). De fait, les enjeux financiers liés au développement potentiel de ces tests sont colossaux. Sekar Kathiresan est d’ailleurs l’un des co-inventeurs d’un brevet d’application pris par ces institutions de Harvard sur les algorithmes calculant ces scores de risque. « Par rapport aux pays anglo-saxons, la France affiche un retard certain dans l’analyse génétique de ces maladies complexes », souligne le professeur Xavier Jeunemaître, chef du service de génétique de l’hôpital européen Georges-Pompidou (AP-HP, Paris). Historiquement axée sur l’étude des maladies rares, l’école de génétique française commence, pourtant, à se lancer dans cette aventure, en particulier dans le cadre du « Plan France médecine génomique 2025 » piloté par l’Inserm et le ministère de la santé. De fait, prédire le risque de développer une de ces maladies est « un enjeu de santé majeur, estime le professeur Stanislas Lyonnet, directeur de l’Institut Imagine (hôpital Necker, Inserm-AP-HP, Paris). Si l’on parvenait à cartographier des populations à risques, pour ces maladies fréquentes, on pourrait instaurer une surveillance et une prévention adaptées ».

Au cours des années 2000, les généticiens ont imaginé que ce Graal était à portée de main. Grâce au fulgurant essor des techniques de séquençage à haut débit du génome – toujours plus rapides, fiables, précises et moins chères –, ce rêve devenait possible : lire l’intégralité du génome de milliers, voire de centaines de milliers d’individus. Dès lors, on pouvait caractériser leurs « variants génomiques », ces miniséquences d’ADN qui diffèrent d’un individu à l’autre, parfois sur une seule « lettre » de l’ADN (on parle alors de SNV, pour Single Nucleotide Variations). « Le génome de deux individus, pris au hasard, compte 3 à 5 millions de variants différents », relève Emmanuelle Génin, généticienne des populations à l’Inserm (université de Bretagne occidentale, Brest). Soit de l’ordre de 0,1 % de notre génome, inscrit dans un livre aux 3 milliards de lettres. Saut technologique prodigieux, ce séquençage ultraperformant de l’ADN livrait ce qui parut être un sésame. A savoir, les études dites « d’association pangénomique » : les fameuses GWAS ­ (Genome Wide Association Study, en anglais). En clair, ces études visent à caractériser les ­profils génomiques le plus fréquemment associés à des maladies complexes (diabète, maladies auto-immunes, affections cardio-vasculaires…) ou des caractères complexes (taille, poids corporel, capacités cognitives).

Algorithmes performants

En se fondant sur ces études, l’équipe du Broad Institute semble avoir franchi, le 14 août, « un saut qualitatif dans la prédiction du risque de maladies communes », estime Philippe Froguel. Comment ? Grâce à la puissance de l’analyse statistique, combinée aux prouesses de l’intelligence artificielle pour développer des algorithmes performants. Les auteurs ont ciblé cinq maladies : l’insuffisance coronarienne – une atteinte des artères qui irriguent le cœur, avec un risque accru d’occlusion de ces vaisseaux, donc d’infarctus du myocarde ou de mort subite –, la fibrillation auriculaire – un trouble du rythme cardiaque qui augmente le risque d’accident vasculaire cérébral –, le diabète de type 2, les maladies inflammatoires chroniques de l’intestin (MICI) et le cancer du sein. Tout d’abord, les chercheurs ont rassemblé les données des GWAS déjà publiées sur ces cinq ­maladies. Objectif : identifier les variants génétiques les plus discriminants associés à chacune d’elles et les pondérer selon leur poids respectif. Pour cela, ils ont bâti des algorithmes calculant, pour chaque maladie, 31 « scores de risque ­polygénique sur le génome entier » (Genome-wide Polygenic Score, GPS). Grâce à ces GPS, les chercheurs ont ensuite « navigué » dans une ­cohorte de très grande taille : la « UK Biobank », qui a ­inclus 500 000 sujets d’origine britannique de 40 à 69 ans, entre 2006 et 2010. Dans un ­premier temps, les auteurs ont testé ces 31 scores sur un échantillon de 120 280 individus de la UK Biobank. Pour chaque maladie, ils ont retenu le score le plus performant. Puis ils l’ont validé sur un ­second échantillon de 288 978 autres individus de la même cohorte. Pour les quatre premières maladies, ils ont analysé 6,63 à 6,92 millions de variants génomiques, et 5 218 variants pour le cancer du sein.

Verdict : cette approche « a permis d’identifier, respectivement, 8 %, 6,1 %, 3,5 %, 3,2 % et 1,5 % de la population étudiée ayant un risque multiplié par trois de développer une insuffisance coronarienne, une fibrillation auriculaire, un diabète de type 2, une MICI ou un cancer du sein », par rapport à la moyenne. Au total, environ 20 % de la population étudiée avait un risque multiplié par trois de développer au moins l’une de ces cinq affections. Et 1,5 %, un risque multiplié par cinq. Mais en termes de risque absolu ? Pour l’insuffisance coronarienne, seulement 0,8 % des individus avec les scores les plus bas ont développé la maladie, versus 11 % de ceux avec les scores les plus élevés. Pour le cancer du sein, ces taux étaient respectivement de 4 % et 19 %.Fait notable : pour l’insuffisance coronarienne, les sujets avec les scores de risque génomique les plus élevés ne présentaient pas toujours d’autres facteurs de risque conventionnels, comme une hypertension ou un cholestérol élevé – déterminants connus du risque d’accident cardio-vasculaire. « Alors que ces personnes ont un risque ­d’infarctus multiplié par sept, du seul fait de l’effet additif de leurs variants génomiques, la plupart passent sous le radar », relève Amit Khera, cardiologue, premier auteur. « Ces scores de risque génomique complexes peuvent être pertinents, juge Xavier Jeunemaître. Combinés, intégrés aux facteurs de risque habituels connus (comme le tabac pour les maladies cardio-vasculaires), ils devront, à l’avenir, être pris en compte dans la pratique médicale. C’est le sens de l’histoire, inéluctable. » Stanislas Lyonnet salue la qualité et la puissance statistique de cette « super-étude ». Mais il met en garde contre ses limites. Premier frein, que les auteurs reconnaissent : conduite sur une population britannique, elle n’est sans doute pas extrapolable à des populations non européennes, voire à d’autres pays d’Europe. En clair, il faudrait réitérer le développement de ces scores pour chaque groupe de population ou chaque groupe ethnique. Or « les populations de tous pays sont de plus en plus hétérogènes et mélangées, ce qui rend très difficile la généralisation de ces analyses », note Xavier Jeunemaître. De plus, l’analyse du Broad Institute ignore deux composantes fondamentales : le poids de l’hérédité familiale et celui de l’environnement. Les études GWAS, en effet, ne prennent pas en compte le génome des parents ou de la fratrie. « Or, pour une maladie comme le diabète de type 2, par exemple, si un père ou une mère est déjà atteint, le risque que l’enfant le soit aussi passe de 4 % à 20 %. Par comparaison, les scores de risque calculés ici font passer le risque de 4 % à 8 % », note Stanislas Lyonnet. Ensuite, les modes de vie ne sont pas davantage pris en compte. Il aurait fallu, pour cela, que les groupes témoins et touchés par une maladie aient strictement adopté les mêmes habitudes de vie (alimentation, activité physique…). Une exigence impossible.

Portée du risque relatif ?

« Ni l’hérédité familiale ni les interactions avec ­l’environnement ne sont effectivement prises en compte, renchérit Philippe Froguel. De plus, les GWAS ignorent les variants rares [du moins pour cette étude] et très rares, les insertions et les délétions de l’ADN sur les chromosomes, ou encore les variations de l’épigénome, ce processus qui contrôle l’activité des gènes. » Or toutes ces modifications du génome pourraient aussi jouer un rôle dans le développement des maladies polyfactorielles. « Cette étude donne une stratification du risque au sein d’une population donnée. Mais je ne pense pas qu’elle permette de livrer, à l’échelle d’une personne, un risque individuel fiable », conclut, pour toutes ces raisons, Stanislas Lyonnet. Par ailleurs, Thierry Frébourg, généticien à ­l’Inserm (CHU de Rouen), et Emmanuelle Génin s’interrogent : « En pratique, quelle serait la portée médicale de tels scores ? Que proposerait-on, par exemple, à une personne avec un risque relatif ­d’insuffisance coronaire multiplié par trois ? » C’est toute la différence – vitale pour la personne concernée – entre risque relatif et risque absolu. « Avec cette tendance à vouloir tester tout le monde, on est sur une pente glissante, déplore Thierry Frébourg. Il faut se méfier de cette extravagance consistant à tout résumer à la génétique. Le défi est d’interpréter le sens des variations génomiques, qu’elles soient rares ou fréquentes. »

Aujourd’hui encore, reconnaît Philippe Froguel, « on a beaucoup de mal à savoir si la médecine prédictive à la naissance, pour les maladies fréquentes, a la moindre valeur ». Pour autant, estime-t-il, ces études pourraient aider la médecine personnalisée en stratifiant les cohortes de patients en sous-groupes, selon leurs niveaux de risque. Elles pourraient aussi améliorer les essais cliniques, qui ­cibleraient des groupes de patients plus homogènes, pour évaluer de nouveaux traitements. Et dans une visée préventive, « elles pourraient permettre d’identifier des sous-groupes à risque de mortalité précoce ». Mais l’approche se heurte à cette autre limite : dans ces maladies multifactorielles, chaque facteur de risque a un faible poids. « Traiter un seul facteur modifie peu le risque », concède Philippe Froguel. « On peut voir le yin ou le yang de cette approche », estime Xavier Jeunemaître. D’un côté, les personnes qui connaîtront mieux leurs risques, grâce à ces scores, pourront adapter leurs modes de vie. Pour autant, nos cultures latines sont peu enclines à changer de comportements à court terme, quand il s’agit de parer à un risque jugé lointain. De l’autre, cette approche laisse craindre un risque de coercition sociétale.« Les patients qui, dès la naissance, auront reçu une carte génomique révélant leurs scores de risque pour nombre de maladies risquent d’être tenus pour responsables de leur santé. » Le généticien voit là « un changement sociétal ­extrêmement fort ». Car nous passons ainsi d’un statut de « victimes génétiques », si nous portons une mutation provoquant – quasi inéluctablement – une maladie rare, à un statut de « responsables génétiques » quand nous portons – comme tout le monde – des milliers de variations qui nous exposent à des risques de maladies communes. D’où cette injonction sociétale : « Vous devez ajuster vos comportements à vos risques. »