Skip to main content

Entretien avec Jacques Haiech

Le 4 février 2011, L. Esterle, J.-F. Picard, script A. Lévy-Viet (source : https://histrecmed.fr/temoignages-et-biographies/temoignages)


DR 

Les sciences de la vie comme ‘big science’

Il y a des ruptures dans les sciences, l’une des plus importantes me paraît liée à Jacques Monod et à l’essor de la biologie moléculaire. Mais il y a une sorte de malentendu dans la communauté scientifique française où l’on utilise ce terme - biologie moléculaire - dans deux sens différents. Je m’explique. Pour Monod, il s’agit d’expliquer la biologie à partir des molécules et pour le terme de ‘génomique’ ce sera la même chose. Autrement dit, il s’agit de la grande ambition de comprendre le vivant d’après ce que l’on observe. Mais le terme de biologie moléculaire a aussi un deuxième sens lié aux applications de la recherche. L’origine de ‘molecular biology’ se situe aux Etats-Unis avec le développement des biotechnologies dans les années 1970. Je rappelle qu’au lendemain des missions Apollo, le pdt. Nixon lance la croisade contre le cancer, cette maladie étant défini comme une prolifération de cellules, les biologistes se sont donc mobilisés sur l’usine cellulaire, gêne-ARN-protéines avec réplication, transcription puis traduction. Pour étudier la réplication de l’ADN, les biologistes avaient besoin de ciseaux pour faire du copier coller, c’est ainsi qu’avec de gros moyens et après quelques discussions entre labos de la cote Est et de la cote Ouest, les Américains ont développé de manière empirique les techniques adéquates. Moyennant quoi l’insuline recombinante sort en 1982, premier médicament résultant de l’utilisation de ce nouvel outillage inventé pour le programme cancer, tandis que Leroy Hood conçoit un appareil de séquençage automatique qui sera utilisé plus tard par Craig Venter pour séquencer le génome humain.

Description, prédiction, application

J’ai établi un schéma pour illustrer le développement des sciences de la vie. En abscisse : transfert de technologies avec un continuum science - technique - produit. Pour simplifier, je le définis par trois questions : comment ça marche ? Comment je fais ? Comment je vends ? Je précise que la médecine est un ingéniorat, donc une technique, alors que la biologie est une science. En coordonnée, la chronologie. Les sciences traversent d’abord une phase descriptive, puis prédictive et enfin explicative :

Dans la phase descriptive, la biologie fait des analyses systématiques, on recueille des données et on les classe, mais sans liens avec la technique. C’est le contraire en médecine ou en pharmacie où l’on procède par essais erreurs, i.e. où l’innovation procède d’une démarche empirique, où la création de produits ou de services se fait de manière intuitive, on applique des recettes. Ici, on est dans une science de la systématique. C’est ce que l’on enseigne encore aujourd’hui avec l’histologie, l’anatomie, la systématique végétale. En phase prédictive, on crée un modèle. À partir des données au temps ‘t’ on pourra dire ce qui va se passer au temps ‘t’+n’. Par exemple, c’est la climatologie dans les années 1970. En matière de biologie, on parlera de ‘system biology ‘ ou biologie systémique.
Puis, c’est la transition des années 1990 avec l’apparition des ‘omiques’. Selon le côté de l’Atlantique où l’on se trouve, ‘omique’ est soit une technique, les technologies ‘omiques’, soit une manière de penser. Ainsi, du côté français, cela a émergé comme manière de penser avec le CEPH de Jean Dausset et l’on peut même remonter à Jacques Monod. Enfin, on passe à une phase explicative avec ce que j’appellerais les théories du vivant. On prend un système dont on décrit tous les éléments et leurs interrelations afin d’analyser les flux d’énergie, de matière, d’information et, à la fin, on se retrouve dans la mathématique computationnelle, dans la théorie des graphes, alors qu’on était parti de la bioinformatique.

Une réalité virtuelle

On a désormais un minimum d’hypothèses et pour permettre le calcul des prédicats, on crée des espaces virtuels logiques que l’on compare ensuite avec le réel. Je pense que l’on atteindra ce stade dans une vingtaine d’années. On fait de la CAO, la science influe sur la technique. Apparaît ce que l’on appelle aujourd’hui la biologie synthétique. Dans la biologie des systèmes, je décortique un système pour essayer de le mettre en équations. Comme je me base sur le passé, l’innovation est incrémentale. On améliore l’existant. Par contre, dès que l’on dispose d’une théorie du vivant, pour tester celle-ci, on va essayer de créer la vie de manière artificielle, un peu comme ce que commence à faire Craig Venter, même si les théories du vivant sont encore ultra simplistes.
Quand j’explore un espace virtuel, je ne suis pas limité par les lois de la physique. C’est un peu comme dans les films ‘Avatar’ ou ‘Second life’, je vole alors que, dans la réalité, je ne peux pas voler. Cela me permet d’explorer des choses qu’autrement je ne pourrais pas étudier. Ainsi que l’on commence à voir, en biologie, l’utilisation de ‘serious games’. On peut faire de l’immunologie à partir de jeux qui ressemblent à des jeux de stratégie selon un processus disruptif. L’innovation devient une rupture puisqu’on va explorer des champs qu’on ignorait au départ. Comme l’écrit Antoine Danchin dans ‘La barque de Delphes’, ce qui est important lorsqu’on passe du descriptif au prédictif, c’est la manière dont les planches de la barque sont agencées les unes par rapport aux autres, pas de savoir si elles sont en chêne ou en merisier.
Ce schéma s’applique aux sciences du vivant, mais je pense qu’il peut l’être aux autres sciences expérimentales, sauf peut-être à la chimie qui se cantonne peu ou prou au prédictif. La chimie se situe à une frontière, quand on arrive à la théorie, cela devient de la physique. C’est une discipline qui a existé, mais ‘faussement’ en ce sens qu’elle pourrait être totalement incluse dans la physique ou dans la biologie. La chimie n’existe que grâce à ses techniques et parce qu’il y a une industrie chimique. Au CNRS, il existe un département de chimie, mais doté de très peu de crédits et dont les laboratoires sont majoritairement financés par l’Industrie.
Le cas des mathématiques en France est intéressant. Du fait de la théorisation ‘Bourbakiste’, le vrai mathématicien explore des espaces virtuels. Si, par hasard, il y a des applications dans l’espace réel, tant mieux, mais ce n’est pas la préoccupation majeure. Comme les joueurs sur Internet, nos matheux ont une addiction aux espaces virtuels. Or, ce qui est intéressant dans le cas des mathématiques, c’est que dès que l’on modifie un peu les hypothèses de départ, on crée de nouveaux espaces virtuels et l’on crée un jeu aux possibilités infinies. Quand cela s’applique au réel, on a de la physique mathématique, mais cette situation est rare. Ce qui fait la qualité des mathématiques en France, c’est qu’elles ne sont pas utilisées comme un outil. La logique mathématique – la métalogique – est un langage à partir duquel on construit un monde : sans les mathématiciens, il n’existerait pas de mathématiques. C’est comme dans le jeu ‘Sim city', je suis le maire d’une ville, mais la ville n’existe que parce que je suis derrière l’ordinateur. Or, ces mathématiques-là ne sont intégrables ni dans les sciences de la vie, ni en génétique. Dans le monde anglo-saxon, la situation est différente. Dans toutes les sciences expérimentales, on sait qu’il faut calculer et l’on parle de mathématiques computationnelles. Ces maths-là sont un outil qui permet d’expliquer tous les phénomènes naturels. En France, cette forme de mathématiques n’a été utilisée qu’à quelques endroits comme Polytechniques avec Laurent Schwartz et dans les statistiques descriptives avec, entre autres, l’école de Jean Paul Benzecri. Or, la biologie n’est pas une science exacte. Elle a besoin des mathématiques computationnelles, non pour comprendre, mais pour prédire et modéliser ce qu’elle décrit.

Les débuts de la génomique en France, le CEPH et l’AFM

En France, la génomique commence avec Jean Dausset et le Centre d’étude du polymorphisme humain (CEPH), mais sans lien avec la médecine. Profondément antiraciste et humaniste, Jean Dausset m’a expliqué un jour qu’il avait utilisé ses connaissances d’immunologiste – et donc le séquençage de HLA un marqueur important du génome – pour suivre l’évolution des populations, leurs relations, et montrer l’inexistence de races humaines. Quand il a créé le CEPH, Il s’est entouré d’un certain nombre de chercheurs, Jean Weissenbach, quelqu’un de très rigoureux qui avait fait ses études pharmacie à Strasbourg (il avait été orienté vers la recherche par Pierre Chambon et Jean-Louis Mandel), Daniel Cohen un médecin interne chez Dausset, Jean-Marc Lalouel un statisticien de l’université d’Utah et le Canadien Mark Lathrop.
Daniel Cohen est un visionnaire exubérant, quelqu’un qui avait la 'tchatche' dont on disait qu’il arriverait à vendre du sable aux Touaregs. Il a pensé que pour analyser et établir une comparaison avec HLA, il fallait le faire de manière exhaustive, industrielle, et donc robotiser des manips que l’on faisait habituellement à la paillasse. Il a rapidement pensé en termes d’automatisation des procédés, en particulier à la possibilité d’automatiser la lecture des gels d’ADN afin d’établir la cartographie du génome. Ceci fut réalisé en collaboration avec l’entreprise Bertin, l’inventeur de l’aérotrain. Bertin avait conçu des appareils aussi gros que ses trains et à l’époque où le CEPH était installé rue d’Ulm, ses premières machines étaient énormes.
Quant à l’Association française contre les myopathies (AFM) créée dans les années 1960, elle est longtemps restée une toute petite organisation dont le chiffre d’affaires au début début des années 1980, avoisinait les 50 000 francs. Mais son président, Bernard Barataud, se rend un jour aux Etats-Unis où il rencontre Jerry Lewis et il en rapporte l’idée du Téléthon. Dès la première émission, les comptes de l’association passent à 100 MF et c’est dans ce contexte que Bernard Barataud rencontre Daniel Cohen. Celui-ci comprend qu’avec l’AFM, il va pouvoir réaliser les idées développées au CEPH. En général, quand une association a de l’argent, une partie des fonds va vers le soutien aux malades, une autre, à la recherche. Cette partie recherche n’existait quasiment pas à l’AFM.

Le Généthon

Certes, l’AFM et le CEPH auraient pu s’appuyer sur les institutions de recherche, mais je pense que cela n’arrangeait pas Daniel Cohen pour qui le CEPH, institution privée, offrait la possibilité de réaliser ce que l’Inserm n’aurait pu faire. J’ajoute que l’entreprise était suffisamment inédite pour ne pas se heurter aux inerties de la communauté scientifique. Ils ont donc décidé de ne pas distribuer les fonds disponibles dans les labos de l’Inserm ou du CNRS, sauf exception, afin d’y ménager la paix sociale ( ?). C’est ainsi qu’ils ont lancé leur fusée à trois étages : le généthon 1 pour la cartographie du génome humain et le séquençage, le généthon 2 pour le clonage positionnel (i.e. la recherche de la position dans le génome d'une séquence nucléotidique responsable d'un trait phénotypique) et enfin, une fois le gène anormal (ou son absence) localisé, le généthon 3 pour la mise au point des vecteurs de la thérapie génique. Comme pour une fusée spatiale, quand un étage a fait son travail, il est largué et c’est le suivant qui assure la propulsion. Globalement, l’AFM a financé le CEPH, comme dans un contrat de transfert de technologie et les gens du CEPH sont passés à l’AFM, Jean Weissenbach pour Généthon 1, Mark Lathrop pour Généthon 2.
Les deux moteurs de l’affaire ont donc été Daniel Cohen, le visionnaire, et Jean Weissenbach, le scientifique rigoureux. Au niveau français, la première chose à faire n’était pas le séquençage, mais la cartographie du génome humain. Dans ce dessein, on peut dire que Daniel Cohen a bluffé tout le monde en annonçant que la myopathie pourrait être guérie dans les dix années à venir. Il a engagé Jean Weissenbach dans le premier étage de la fusée et ils ont lancé la cartographie du génome. Le travail de Daniel Cohen était scientifiquement médiocre et c’est Weissenbach qui a établi la meilleure carte, celle qui a permis au consortium international de procéder au séquençage du génome humain, notamment de faire l’assemblage des séquences. Ainsi, la carte est une réalisation purement française, née de l’association d’une personne inventive, mais bordélique, et d’une autre personne plus rigoureuse, un chercheur qui s’était engagé à mener l’affaire à son terme. De 1987 à 1991, réussir à mettre en place le Généthon, une institution et les technologies nécessaires pour réaliser la cartographie la plus fine du monde, était un exploit. Ces cartes vont aussi permettre un clonage positionnel associant une maladie à un gène, ce qui a été rendu possible grâce aux cohortes composées par l’AFM, mais de manière peu homogène. Le premier étage est largué en 1991, il n’est plus utile à l’AFM et Bernard Barataud propose à la recherche publique de prendre le relai. Mais il se heurte à un refus parce qu’il s’agit d’une entreprise menée en dehors de ses murs. À l’époque où éclatait d’ailleurs l’affaire de l'ARC avec les malversations de Jacques Crozemarie, l’ensemble de la communauté scientifique était hostile à cette AFM qui récoltait beaucoup d’argent, mais qui ne le distribuait pas, qui montait ses propres labos et qui, en plus, faisait la course en tête. Ou bien les chercheurs du public n’avaient rien fait, ou bien ils auraient voulu faire comme Jean Weissenbach ou Daniel Cohen qui étaient liés à l’Association qui disposait de ses propres laboratoires, d’une infrastructure, d’un conseil d’administration composé de malades dotés d’un pouvoir décisionnaire et d’un conseil scientifique aux ordres de celui-ci. Certes, quelques laboratoires de l’Inserm et du CNRS étaient – et sont restés – financés par l’AFM, mais ils sont peu nombreux. Par ailleurs, quand il y a une baisse des budgets, les contrats publics se retrouvent bloqués les premiers. Or, pour mener le programme génome, la logique voulait que l’on se passe de laboratoires pérennes, mais que l’on incite des labos à fonctionner le temps nécessaire à un programme de recherche. Ainsi, ce dispositif installé au service de la micro communauté des génomiciens a créé de fortes tensions entre l’AFM et les pouvoirs publics. On sortait d’une logique de service public qui consiste à faire de la science pour l’ensemble de la population pour faire reculer les limites des connaissances. Avec le Généthon, il s’agissait de faire de la recherche orientée dans un but précis : la lutte contre les myopathes. Par la suite, l’AFM a fait un effort pour les autres maladies génétiques et elle a donné de l’argent à l’Association de lutte contre la mucoviscidose (AFLM), mais ce n’était pas le sujet de départ.

Les programmes de séquençage

En 1976, il existait deux méthodes de séquençage, l’une chimique et enzymatique, l’autre utilisant des marqueurs radioactifs. Le généticien Leroy Hood, qui est à l’interface entre la physique et la biologie avait crée un appareil qui permet de séquencer automatiquement en utilisant la fluorescence. Il monte une boîte en 1980 (Applied Biosystems) et il fait du lobbysme au Congrès des Etats-Unis sur l’argument : « le plan cancer est terminé, il faut en inventer un nouveau qui pourrait être le séquençage du génome humain ». Cela commence à décoller en 1987 lorsqu’une équipe américaine décide de séquencer la bactérie E. Coli. À peu près à la même époque, les NIH créent un institut de séquençage confié à Craig Venter. Mais ce dernier reproche au NIH ses inerties bureaucratiques et il fonde un institut semi-public, un joint-venture, ‘The Institute for Genomic Research’ (TIG). Le but est d’assurer la promotion de l’appareil de Lee Hood, bel exemple de pragmatisme à l’américaine. Parallèlement, l’Europe jugeant inutile de passer après les Américains, lance les programmes de séquençage de la levure et de Bacillus subtilis. Je rappelle que E. coli et B. subtilis sont deux bactéries très utilisées en microbiologie, la première étant celle sur laquelle Jacques Monod avait fait sa thèse. En ce qui concerne la levure, il s’agit d’un projet international piloté par André Goffeau avec le soutien de Piotr Slonimski. Pour B. subtilis, l’affaire est prise en main par Antoine Danchin à la suite d’une prise de position des Européens confrontés à des Américains qui refusent d’entrer dans un consortium nippo-européen. On décide donc de couper des morceaux de B. subtillis en paquets de 100 kilo bases et, non seulement de séquencer comme se contentent de le faire les Américains, mais d’annoter les séquences afin de comprendre leurs fonctions associées.
On a donc deux approches différentes : une approche raisonnée par cartographie – ‘je commence par faire une cartographie puis, je vais d’un point à un autre- et l’approche shootgun (randomisée) – ‘je commence par séquencer systématiquement des morceaux pour constituer une sorte de séquence’ - développée par Craig Venter. Comme il voulait être le premier dans la course, il a choisi une bactérie qui fait un million et demi de paires de base, ce qui est minime et, en 1995, il dit : « j’ai gagné mon pari, je suis maintenant dans l’histoire. Je peux faire le tour du monde en bateau ». Mais une fois qu’il a appareillé, il reçoit un appel du patron de la firme Perkin-Elmer : « On serait disposé à vous fournir 200 millions dollars si vous décidiez de vous lancer dans le séquençage du génome humain ».S’il semble que Perkin-Elmer envisageait alors d’éventuelles prises de brevets en matière de séquençage, pour la firme américaine, au début il s’agissait d’une opération publicitaire. En fait, d’une vitrine pour vendre des machines à séquencer. En 1994-95 il existait plusieurs fabricants de machines à séquencer qui se partageaient le marché, notamment celle des Européennes et celle de Leroy Hood. Craig Venter a donc fondé une entreprise ‘Celera’, grâce à laquelle, en fin de course, il n’est plus resté qu’une seule machine, celle conçue par Lee Hood. En effet, il était à peu près évident dès le départ que la volonté de breveter des séquences de génome ne tiendrait pas, malgré les nombreuses discussions provoquées à ce sujet dans les années 1990, mais les Américains ont obtenu ce qu’ils cherchaient, c’est-à-dire le monopole de l’instrumentation en génomique et ‘Celera’, initialement conçu comme une opération de marketing industriel, a permis à Venter de séquencer le génome humain grâce à la technique du ‘shotgun’.

Le Génopole d’Evry

Le premier programme génome français fut le Groupement de recherche et d’étude des génomes (GREG) avec Piotr Slonimski à sa tête et Jacques Demaille comme responsable, lequel avait succédé au GIP génome que Jacques Hanoune et Michel Cohen-Solal avaient essayé d’installer à l’instigation du ministère de la Recherche. Mais le GREG ne concernait que la recherche de base et s’il a contribué a séquençer les génomes de la levure et de B. subtilis, il ne s’intéressait pas aux développements biotechnologiques. Ainsi, quand le Congrès US lance le programme génome humain, la France dispose d’une place reconnue dans ‘the Human Genome organisation’ (HUGO) grâce à la cartographie de Jean Weissenbach, mais l’Etat n’augmente pas les capacités de séquençage qui restent essentiellement localisées aux Etats-Unis et en Angleterre au Sanger center (grâce à une importante dotation du Wellcome trust). Ainsi, en matière de génomique, du côté anglo-saxon se profile l’ombre de l’industrie, tandis qu’en France, il n’y a pas d’industrie, mais le rôle crucial des associations de malades.
De 1993 à 1995, des discussions sont menées au ministère de la Recherche, notamment avec François D’Aubert. Un rapport de Jean-Marc Egly pointe le besoin, pour la biologie comme pour la physique, de se doter de grands instruments. Les décideurs commencent à prendre en compte le concept de plate-forme technologique. Avec Jean Weissenbach et Mark Lathrop, l’AFM-Généthon veut prendre le relai. De fait, les scientifiques ont enfin pris conscience de la nécessité d’industrialiser les procédés, selon la vision développée par Daniel Cohen au début des années 1980. Mais cette perspective se heurte à la priorité du soin aux malades voulu par Bernard Barataud pour piloter l’Association. En 1997, une deuxième étape est franchie lorsque l’industrie pharmaceutique (Hoechst, Roussel, etc.) décide de réinjecter des fonds dans la recherche française afin de soutenir l’installation de plates-formes technologiques. Un GIS (HMR) est créé à l’instigation de Marianne Minkowski dont la moitié du budget est destinée à la création de plateformes technologiques, tandis que l’autre est destiné à soutenir des projets de recherche déposés par des post-docs.
Ce concept de plateformes en sciences du vivant existait en Grande-Bretagne, mais pas en Allemagne, ce qui explique pourquoi les Allemands n’ont pas participé au génome humain. En 1998 en France, cette absence d’industrie incite Pierre Tambourin, le directeur des SDV au CNRS, et Claude Allègre le ministre de la Recherche, à réagir : "nous avons des scientifiques extraordinaires comme Jean Weissenbach, nous faisons tout ce qui va permettre à HUGO de fonctionner et aux Etats-Unis de vendre des machines, mais nous n’avons pas d’industrie (!)". D’où la décision d’installer le ‘Génopole’ pour soutenir des transferts de technologies. L’idée est excellente. En revanche, le choix de l’installer à Evry va poser quelques problèmes. En effet, si l’on y crée une université, à la suite d’un accord avec la fac d’Orsay, la charte de celle d’Evry l’empêche de faire de la biologie ou de la médecine. Tout l’effort des années suivantes va donc consister à essayer d’implanter un Centre hospitalo-universitaire (CHU) Evry afin de pouvoir bénéficier d’une proximité de la clinique. C’est ainsi qu’en 2001 – 2002, Génopole pousse à revenir sur les accords de départ et met en place un cursus de biologie à la fac.

Le programme génome du ministère de la Recherche

En 1999, quand Jacques Demaille fut appelé par Claude Allègre pour installer le programme génome au ministère de la Recherche (tel qu’il avait été initialement envisagé dans la lettre de mission de 1991), il m’a demandé d’en devenir le directeur adjoint. Puis, au bout de quelques mois, Demaille a jeté l’éponge et j’en suis devenu directeur par intérim, puis directeur à part entière jusqu’au début de 2003. Au début, ce programme génome avait été lancé conjointement par le ministère de la Recherche et par celui de l’Industrie (deux ministères qui avaient été réunis en 1981 par Jean-Pierre Chevènement, puis séparés en 1983 quand Hubert Curien fut nommé à la Recherche). Le programme comprenait le développement du réseau des génopoles et l’exécution d’actions incitatives dont les deux principales furent un programme destiné à faire le lien entre la génomique, le secteur médecine santé et un programme ‘Génoplante’ inspiré par Alain Hénaut dans un domaine non encore investi par l’Inra (comme il y a des différences de développement technologique entre le monde animal et le monde végétal, ‘Génoplante’ a fait l’objet d’un partenariat entre semenciers et recherche publique).
En termes de politique scientifique, Claude Allègre voulait donner la priorité aux sciences du vivant, mais sans donner l’impression de le faire au détriment de la physique, ceci afin d’éviter que le très puissant lobby physicien ne fasse des demandes équivalentes. Donc, il fallait imaginer le moyen que cette proportion croissante des SDV dans le BCRD s’effectue discrètement. Il y avait eu un précédent en 1982 à la suite des assises de la recherche. La loi instituant les Etablissements publics scientifiques et techniques (EPST) avait créé un Fonds de la recherche technologique (FRT) directement géré par le MRT, lequel avait permis l’émergence d’une première vague de start-up en France, ‘Transgène’ (créée en 1979) et ‘Immunotech’ (1982).
Allègre a donc créé un Fond national de la science (FNS) avec l’intention d’augmenter de 65% le budget dévolu aux sciences de la vie et il est allé le discuter directement avec Dominique Strauss-Kahn à Bercy. En effet, les Finances manifestaient une forte réticence au principe des GIP et des GIS, ‘des états dans l’Etat’ disait-on à Bercy. En fait, le GIS avait comme actionnaires des organismes de recherche, CEA, CNRS, Inserm, etc., les ministères de la Recherche et de l’Industrie. J’étais chargé de gérer ce fonds d’où le surnom dont m’avaient affublé les directeurs des autres départements du ministère : ‘monsieur plein aux as’. Ces moyens étaient destinés aux grands opérateurs, le CNRS, l’Inserm, l’Inra, etc., le principe consistant à affecter progressivement 1 MdF à la biologie. Lorsque Roger Gérard Schwartzenberg a succédé à Claude Allègre, le ministère de la recherche a poursuivi cette politique. Mais avec le retour de la droite au pouvoir et l’arrivée de Bernard Bigot, un élève d’Alain Devaquet, ce fut le retour de la ‘physique chimie’ et les 2 ou 3% de hausse annuelles de la génomique se sont retrouvés amputés. En fait, si l’effort avait été poursuivi jusqu’en 2007, on aurait obtenu une augmentation de 25 à 35% du budget des SDV dans le BCRD.

Essaimage de génopoles

En 1999, la deuxième idée du ministère était d’étendre le dispositif des génopoles à l’ensemble du territoire afin de disposer d’un volant national d’incubateurs de ‘start’up. J’ai donc prévu de lancer dix Génopoles. En fait, on en a réalisé 7 dont 3 ont bien marché, comme en région PACA avec Bertrand Jordan. L’idée était d’opérer des regroupements, mais nous avons rencontré quelques difficultés. Par exemple, Lyon et Grenoble refusaient de se réunir pour faire un génopole commun. J’ai mis en place la ‘charte’ des plateformes technologiques de chaque génopole : diffusion de l’information, autofinancement, au service des labos et ouverture sur l’industrie. En 2000, les EPST - Inserm, CNRS, Inra,.. - se sont réunis lors d’une Réunion inter-organisme (RIO) afin de valider le concept (après le RIO, il y aura le GIS IBISA puis naît le concept des très grands équipements biologiques. Mais ce changement d’habits s’est fait sans moi).
Pour la structure de gouvernance du GIS génopoles, on a imaginé un dispositif autogestionnaire. L’idée était de les faire sortir du giron du ministère de la Recherche, une fois qu’ils seraient devenus matures. Pour en assurer le fonctionnement, on annonçait un chiffre global en demandant à chaque génopole de présenter aux autres ses projets accompagnés de ses besoins financiers. Ainsi, les sept génopoles présentaient chacun leurs programmes et leur chiffrage devant tous les autres. Il s’agissait en fait de réunir une assemblée de quelque deux cents scientifiques selon un dispositif qui permettait une émulation bénéfique pour permettre le choix des propositions qui présentaient le meilleur rapport coût qualité. De la sorte, on obtenait ainsi une expertise et une évaluation de bien meilleure qualité que ce celle qu’aurait donnée une expertise externe. Évidemment, les réajustements permanents d’objectif entre différents génopoles m’obligeaient à multiplier les réunions, ne serait ce que pour rester dans le cadre de l’enveloppe globale. J’ai également suggéré que l’on fasse de l’évaluation a posteriori, une pratique étrangère comme l’on sait au fonctionnement des EPST. Trois évaluations ont été menées en 2002 : l’une par l'Observatoire des sciences et des techniques (OST) où l’on a développé un certain nombre d’outils biométriques pour mesurer leur production ; une deuxième évaluation comparative sur le management; enfin une enquête a été faite par L’EMBO (European molecular biology org.) afin d’appréhender l’opinion de la communauté scientifique étrangère. Cette dernière a montré que les scientifiques français pouvaient faire de l’excellent travail pour peu qu’on leur en donne les moyens.

Le programme génome et la médecine

En matière de cancer, la connexion avec la génomique se fait assez tôt, mais diverge aussi très rapidement. Jusqu’en 1976, il suffisait de lire trois livres et d’apprendre par cœur de l’anatomie et de l’histologie pour être un véritable Pic de la Mirandole en cancérologie. Mais quand on a commencé à maîtriser une technique de séquençage de gènes et non plus de protéines, on a vu les connaissances en biologie doubler pratiquement tous les neuf mois, séquençage de l’ADN, structuration du gène, concept d’exon et intron. Tous les mécanismes permettant de comprendre, ‘moléculairement’ parlant, ce que sont la réplication, la transcription et la traduction font qu’on s’est aperçu que le cancer n’était pas une, mais plusieurs maladies. Résultat, le lien entre la génomique et le cancer s’est rompu, ce qui a remis en question la définition du cancer comme prolifération anarchique de cellules agressant les organes. On a alors commencé à parler d’une agression produite quasiment en symbiose avec le corps humain, même si elle est susceptible d’engager le pronostic vital.
Mais aujourd’hui, on voit réapparaître la connexion cancer – génomique grâce à l’amélioration des technologies et à une diminution de leurs coûts. Les premières plateformes à avoir émergé après l’opération CNS – CNG à la fin des années 1990 était ‘Transcriptome’. La ligue contre le cancer a lancé un programme ‘carte d’identité tumorale’ (CIT) porté par François Sigaux avec un partenariat avec l’AP-HP. La Recherche amenait les plateformes transcriptomiques et la Ligue faisait le contrôle qualité. Pour avoir les meilleures données, pour déterminer les meilleures procédures de biopsies, on a comparé la pratique des différents génopoles dans l’organisation de la recherche clinique. Cela a remarquablement bien marché et, par rapport aux Etats-Unis où on a foncé tête baissée dans le marché des sondes moléculaires, nous disposons probablement à l’heure actuelle en France du meilleur ratio données-investissements.
Quant aux maladies rares, le GIS ‘Institut des maladies rares’ a été créé en avril 2002 à l’initiative des pouvoirs publics, des associations de malades et des organismes de recherche. Il a bien fonctionné et a permis de mettre en place un programme européen pour la recherche et le développement technologique (1998 -2002). Deux programme de thérapies géniques ont été lancés par le ministère de la Recherche. Mais on sait que ces projets ont suscité pas mal de remous dans la communauté scientifique. Au début des années 1990, les biologistes disaient que l’on allait ponctionner le budget de la recherche sans aucun résultat; remplacer un gène malade, sur le papier cela paraît simple, mais le vivant n’est pas un circuit imprimé sur lequel on enlève un transistor pour le remplacer par un autre. Ce que la génomique a permis de réinventer en médecine, c’est l’homéostasie de Claude Bernard, l’effet papillon qui résulte de la perturbation d’un équilibre. Pour expliquer les réticences des biologistes, il y a aussi le fameux principe de précaution qui agitait beaucoup le cabinet de Claude Allègre : il fallait que le patient, le citoyen, connaisse le risque provoqué par une thérapie génique. À l’évidence scientifique - ‘j’essaie quelque chose pour voir si ça marche car je n’ai aucune autre possibilité pour avancer’ - s’oppose le principe de précaution, ‘tant que je n’ai pas tout compris, imaginé, anticipé dans l’usage d’une nouvelle technologie, je ne l’utilise pas’.
Voyez l’intervention d’Alain Fischer à l’hôpital Necker sur les bébés bulles. Avec la thérapie génique, on entre dans un domaine qui relève à la fois de la connaissance et de l’ingénierie. Un médecin, au sens noble du terme, c’est un ingénieur en santé, quelqu’un qui cherche avant tout la réponse appropriée pour soulager ou guérir une maladie. C’est ainsi qu’Alain Fischer a utilisé un vecteur mis au point par les biologistes pour corriger le déficit immunitaire gravissime des petits enfants hospitalisés à Necker. De fait, il a reconnu un taux d’échec d’un tiers – mais pas supérieur à celui des premières immunothérapies réalisées quelques décennies plus tôt – provoqué par le dérèglement du système de prolifération cellulaire qu’il ne contrôlait pas. Cela a induit quatre cas de leucémies dont trois ont été bien corrigés par chimiothérapie. Il fallait donc comprendre ce qui s’était passé et ceci n’aurait pas été possible sans le programme du ministère qui a permis d’utiliser une technique qui n’existait qu’en Allemagne grâce au déblocage dans l’urgence de quelque 200 000 euros par le Fond national des sciences (FNS). Bien sûr, Alain Fischer a été critiqué pour son entreprise pionnière par certains de ses confrères comme Arnold Munnich, bien moins humaniste que lui, dont on note qu’il n’a jamais été confrontés aux mêmes urgences cliniques. De mon point de vue, le geste d’Alain Fischer était non seulement moral, mais techniquement parfaitement justifié.
Enfin une dernière difficulté de la thérapie génique concerne le rôle des instances de régulation, c’est-à-dire les responsabilités du ministère de la Recherche. Si on laisse le système se réguler tout seul, on obtient la situation des Etats-Unis : ‘j’injecte n’importe quoi, n’importe comment, au risque de provoquer la mort’. C’est le genre de problème qui est apparu en juillet 2006 sur un anti-corps monoclonal conduisant six étudiants en réanimation avec des séquelles, voire à l’affaire du ‘Mediator’ de Servier. Le problème est la responsabilité de l’Etat. J’ai essayé d’institutionnaliser des contacts entre la Recherche et les autres ministères, en vain. J’avais certes des relations avec Pascal Briand à la Santé, mais seulement au coup par coup. Avec l’Industrie, on a réussi à faire quelque chose, mais pas avec l’Agriculture dans le cas de ‘Génoplante’ par exemple.

Évolutions

Il reste que le modèle d’organisation des génopoles a fait des émules. Sous l’impulsion de Roger-Gérard Schwartzenberg, le ‘GIS cancéropole’ est devenu le plan cancer, le GIS Alzheimer piloté par Philippe Amouyel est devenu le plan Alzheimer, le GIS génomique marine a restructuré toute la génomique marine dans le grand Ouest et le GIS vision est devenu l’institut de la vision de José-Alain Sahel. Il n’en a pas été de même pour le GIS consortium en génomique (CNRG). Quand celui-ci fut créé en 2002-2003, le CNRS, le CEA, l’ Inserm, l’Inra, les génopoles, le Centre national de – Génoscope et le centre de génotypage (CNG) avaient accepté le principe d’une présidence tournante. Ce fut d’abord le tour de l’Inserm (sous Christian Bréchot), puis d’André Syrota pour le Commissariat à l’énergie atomique (CEA). Mais ce dernier a décidé de faire une O.P.A. sur le GIS. jusque-là, les SDV étaient relativement peu considérées au Commissariat et Syrota a voulu faire en sorte qu’elles deviennent un axe stratégique. Au départ, les prérogatives du CEA en matière de SDV se limitaient aux effets biologiques des rayonnements ionisants, il a y donc développé la biologie cellulaire en soutenant l’essor des plateformes techniques. Son idée était que le CNRS aurait la légitimité pour la Science avec un grand ‘S’, l’Inserm pour la recherche pour les pathologies et le CEA sur les plateformes technologiques. Moyennant quoi, le Commissariat a pu placer ses hommes partout, y compris au ministère de la Recherche (B. Bigot, A. Devaquet…). Or, le GIS consortium avec le CNS et le CNG, représentant un concurrent sérieux en la matière. Le CEA n’a donc eu de cesse de l’absorber, moyennant quoi Jean Weissenbach qui bénéficiait d’un vaste espace de liberté pour faire de la génomique voit le Génoscope désormais inscrit dans un cadre bien plus rigide, en termes de valorisation de la recherche et de programmation scientifique, que celui que nous lui avions ouvert au ministère de la Recherche.