Skip to main content

Entretiens avec Jean Weissenbach

Le 4 janvier 2002 au CNS (N. Givernaud et J.-F. Picard)  et le 30 mai 2011 au Génopole d'Evry
(L. Esterle, J.-F. Picard et J.-F. Prud’homme)
(source : https://histrecmed.fr/temoignages-et-biographies/temoignages)
Voir aussi :
Conférence à l'ENS le 20 octobre 2011 (comité d'histoire du CNRS),
'Le programme génome humain et la médecine, la part française' ,
Notice Wikipedia


DR 

Quelle définition donneriez-vous de la génomique monsieur Weissenbach ?

Aujourd'hui tout le monde s'approprie ce terme, on parle de génomique à tout propos et souvent à tort. Je dirais qu'on peut considérer comme génomiques des expériences en biologie qui prennent l'ensemble du génome d'un organisme en considération. Par exemple, lorsqu'on étudie l'expression de tous les gènes en parallèle : si on veut observer l'expression des gènes d'un tissu dans des conditions déterminées, on ne va plus se demander comment répond le gène (x) ou (y), mais comment répond l'ensemble des gènes du génome. A partir de la séquence on a pu procéder à l'inventaire des gènes, qui a son tour permet d'identifier les protéines. On peut alors rechercher des signatures de ces protéines, pour procéder à leur inventaire dans un tissu ou un organite cellulaire particulier. C'est un travail dérivé de la génomique, tout comme chercher à savoir comment ces protéines interagissent. Mais ceci fait-il de la génomique une nouvelle science ? Disons que la génomique consiste à faire de la biologie à une autre échelle qu'auparavant. Aujourd'hui la génomique fonctionnelle est souvent présentée comme la vraie science, par opposition à la vieille génomique centrée sur la séquence des génomes. Mais les termes génomique et fonctionnelle sont antinomiques. Le génome c'est de l'information et rien d'autre ; la fonction d'un gène, c'est de stocker de l'information et de la dupliquer ; c'est la fonction de chaque gène, c'est-à-dire du génome. Si l'expression génomique fonctionnelle est de plus en plus utilisée, c'est parce qu'on entend souvent par fonction d'un gène, la fonction de son produit, c'est-à-dire celle de la protéine... On parle également de protéomique, par exemple, quand on identifie les 30 ou 40 protéines des pores nucléaires et qui assurent le fonctionnement de cette machine cellulaire, nous sommes bien au niveau des protéines. Nous avons effectivement utilisé l'information génomique pour identifier les composants des pores nucléaires mais est-ce toujours de la génomique ? Il faut aussi rappeler que ces expériences à grande échelle donnent essentiellement des indices, elles ne démontrent rien. Le fait de savoir que 10 gènes sont corégulés est intéressant en soi. Si vous constatez que 5 ou 6 d'entre eux font partie d'une même voie métabolique, vous pouvez penser que les autres dont vous ignorez le rôle ont quelque chose à voir avec cette voie métabolique. L'approche génomique met en évidence des associations, des corrélations qui n'auraient pas été soupçonnées a priori, et pour lesquelles on n'aurait donc pas eu l'idée d'entreprendre des expériences spécifiques. Il est donc important de faire des expériences à caractère systématique, sans a priori, c'est là que réside l'intérêt de la génomique. Pour résumer, je dirais que la génétique et la biochimie sont les deux disciplines qui furent au centre de la biologie du vingtième siècle et qui nous ont permis de voir que le vivant reposait en premier lieu sur l'information. Aujourd'hui, cette question de l'information est, dans les grandes lignes, résolues : on peut dire qu'on dispose de la globalité de l'information nécessaire pour comprendre les mécanismes de la vie. Il s'agit maintenant de savoir comment tout ceci s'organise, comment tous ces éléments d'information que sont les protéines fonctionnent en harmonie. De la chimie de l'information qui a occupé la deuxième moitié du 20ème siècle, nous passons maintenant à la chimie de l'organisation qui va beaucoup nous occuper au 21ème et la génomique contribuera à la compréhension de la chimie de l'organisation du vivant.

L'ADN recombinant et la génétique humaine

Je suis pharmacien de formation. J'ai fait une thèse de sciences en biologie moléculaire sur les ARN de transfert (de la levure). A l'époque, c'était plus de la biochimie d'ailleurs que de la biologie moléculaire. Ensuite, au tournant des années 1970-80, je suis parti faire un post-doc à l'institut Weizmann, en Israël, où j'ai travaillé sur le clonage des gènes des interférons (humains). C'est comme cela que je suis rentré dans le domaine de l'ADN recombinant. Mais l'Institut Weizmann n'avait pas encore toutes les technologies disponibles et, à la suite d'un accord avec l'Institut Pasteur, j'ai rejoint le laboratoire de Pierre Tiollais à Pasteur en 1979. Par la suite, en 1981, toujours chez Pierre Tiollais j'ai démarré un projet appliquant les techniques de l'ADN recombinant à la génétique humaine. Pendant de nombreuses décennies précédantes, la génétique humaine était restée une discipline stagnante, où on se contentait d'étudier la transmission des maladies héréditaires au sein de familles. Bien sûr, on pratiquait du conseil génétique, mais son pouvoir de prédiction restait limité. On savait surtout faire des caryotypes. La génétique médicale avançait lentement. Le fait de pouvoir manipuler de l'ADN a bouleversé le paysage. L'identification des premiers polymorphismes de l'ADN humain laissait présager l'existence d'une source pratiquement illimitée de réactifs d'ADN pour faire des études génétiques. Il devenait possible de connaître le génotype des individus.

Les anomalies de la détermination du sexe...

Dans les années 1980, nous avons commencé à aborder par des méthodes de génétique moléculaire des anomalies de la détermination du sexe chez l'homme, qui avaient été identifiées auparavant. Chez les mammifères, il y a un déterminant positif du sexe masculin (un gène) porté par le chromosome Y. Nous avons d'abord essayé d'isoler des fragments d'ADN spécifiques du chromosome Y puis grâce à ces fragments, nous avons abordé de vieilles questions sur ces fameuses anomalies. Est-ce que, par exemple, chez des individus de sexe masculin qui avaient deux chromosomes X mais pas de chromosome Y (les mâles XX), il y avait un morceau d'Y resté inaperçu ? C'est une question que la cytogénétique n'avait pas su résoudre. Grâce aux techniques de l'ADN recombinant, on a pu découvrir que la réponse était effectivement positive dans un grand nombre de cas. Inversement, chez des femelles XY, y avait-il une délétion du chromosome Y ? La réponse était oui, de temps en temps. Les morceaux manquants du chromosome Y des femmes XY étaient précisément ceux qu'on retrouvait chez les mâles XX. Ceci nous a permis de faire une cartographie de l'ensemble du chromosome et, notamment, de cerner la région dans laquelle se localisait ce fameux gène, déterminant positif du sexe masculin que l'on appelait 'TDF' (Testis Determining Factor) et qui s'est appelé ensuite 'SRY' (Sex Determining Region, Y chromosome). Toujours grâce à ces fragments d'ADN du chromosome Y nous avons aussi relancéde vieilles hypothèses et montré qu'il y avait une région commune entre X et Y, une région pseudo-autosomique, dénommée ainsi du fait de ces propriétés génétiques particulières (absence de liaison au sexe), et qui était l'objet d'un crossing-over entre les deux chromosomes. Ce qui permettait aussi de faire la cartographie génétique de cette région.

...et les maladies génétiques

Dans le même temps, on assistait à toute une série de progrès dans d'autres domaines de la génétique humaine, notamment dans la cartographie d'un certain nombre de maladies génétiques. De nombreuses équipes s'étaient engagées dans ces travaux. On avait commencé par les maladies les plus fréquentes et les plus graves comme la mucoviscidose ou la myopathie de Duchenne. Que ce soit pour étudier les maladies génétiques ou le déterminant du sexe masculin, la problématique était très similaire. Il s'agissait de cartographier un locus génétique en s'appuyant sur des collections de patients ou de familles. La grosse différence étant toutefois que les anomalies de la détermination du sexe ne se transmettent pas puisque, sauf exception, les individus sont stériles.

Le Centre d'étude du polymorphisme humain (CEPH)

Ce sont ces travaux qui m'avaient fait prendre conscience, vers la fin des années 1980, que les outils de la cartographie génétique étaient très frustes. Il fallait envisager le problème autrement et procéder de manière ordonnée par un vrai travail d'infrastructure au cours duquel on développerait de nouveaux outils. J'en avais discuté avec Daniel Cohen que je connaissais (nos premières rencontres remontent au milieu des années 1980). Il m'a dit : "Si tu veux développer ce genre d'activité, j'ai de la place pour toi au CEPH". En 1989, j'ai donc commencé à développer de nouvelles méthodes de cartographie au Centre d'étude du polymorphisme humain. Le CEPH était déjà impliqué dans l'établissement d'une carte génétique du génome humain à partir d'une importante collection de familles de référence. En fait, le CEPH s'inscrit d'abord dans la tradition des recherches du laboratoire de Jean Dausset, qui avait très tôt réuni des familles pour ses travaux sur le système d'histocompatibilité HLA. Daniel Cohen et Jean-Marc Lalouel l'ont convaincu qu'on pouvait envisager de faire une carte génétique humaine, à l'aide du pool de famille dont il disposait. Leur idée, comme celle d'autres membres de l'équipe, Howard Cann, Mark Lathrop, était de s'appuyer sur une collection de familles de référence, utilisée par tout le monde. On pourrait ainsi localiser beaucoup plus rapidement les marqueurs génétiques les uns par rapport aux autres, puisque tous les utilisateurs travailleraient sur les mêmes événements méiotiques. Fin 1983, Dausset et ses collaborateurs ont organisé un petit colloque fondateur à Paris auquel participaient un certain nombre d'Américains. C'est là qu'il fut décidé de lancer un pool commun de familles : les familles de Dausset plus celles des Américains, notamment celles de Ray White qui disposait de familles de Mormons, sur trois générations avec beaucoup d'enfants, ce qui était très intéressant (plus les familles sont grandes, moins on a de parents à étudier par rapport au nombre de méioses que l'on veut analyser). En immortalisant les lignées cellulaires des différents individus de ces familles, il fut possible de préparer des quantités largement suffisantes d'ADN pour les distribuer aux laboratoires intéressés à contribuer à établir la carte génétique. Les données de génotype obtenues par les laboratoires du réseau étaient ensuite introduites dans une base de données accessible à l'ensemble des contributeurs et maintenue par le CEPH. A partir du traitement de ces génotypes, une carte génétique humaine commença à être établie.

La carte génétique (RFLP et microsatellites)

La carte génétique est une carte de points correspondants à des variations de la séquence de l'ADN (polymorphisme) localisées le long du génome. Ces variations sont stables, transmises de génération en génération et permettent de distinguer différents individus ainsi que chaque copie d'une paire de chromosomes chez un individu. Chaque point est identifié à un marqueur génétique. L'ordre et la proximité de ces marqueurs le long des chromosomes sont déterminés par une analyse de l'ADN des marqueurs des individus. Considérons chez un individu deux marqueurs A et B chacun caractérisé par deux allèles (a1 ou a2 pour A et b1 ou b2 pour B). Ils sont proches si les allèles ne sont pas réassortis au hasard, c'est-à-dire qu'on retrouve majoritairement dans la descendance de l'individu deux associations par exemple a1 avec b2 ou bien a2 avec b1.
Vers le milieu des années 1980, le réseau constitué par le CEPH a donc commencé à faire une carte génétique, mais elle avançait très lentement et manquait de précision parce qu'elle était basée essentiellement sur des marqueurs bi-alléliques, les RFLP (Restriction Fragment Length Polymorphism). Très souvent, parce que les individus sont homozygotes (1 seul allèle), on n'a pas d'information quant à la transmission de ces marqueurs. L'avantage des marqueurs que nous avons utilisés par la suite, les microsatellites, est d'être multi-alléliques ; ceci permet d'obtenir beaucoup plus d'informations. En 1989, l'idée était donc d'utiliser ces nouveaux marqueurs, dont Jim Weber venait de montrer le polymorphisme. Il s'agit en fait de courtes séquences constituées de quelques nucléotides répétés plusieurs fois (par exemple 'AC') que l'on retrouve à plusieurs dizaines de milliers d'exemplaires dans le génome avec, pour un marqueur donné, des longueurs différentes d'un individu à l'autre ou même entre les deux copies du génome de l'individu. Par exemple, pour un individu on peut trouver un marqueur sur un chromosome d'une paire avec 14 'AC' répétés, et 13 'AC' au même endroit sur l'autre chromosome de la paire ; pour un deuxième individu, on en comptera 17 et 15 etc. Cette approche est cependant extrêmement lourde : il faut repérer un microsatellite, le séquencer, déterminer les séquences uniques qui le bordent et qui serviront ensuite comme sondes spécifiques pour repérer le microsatellite chez d'autres individus ... Au CEPH, nous avons donc d'abord cherché à mettre au point des méthodes efficaces. C'est ainsi que nous avons développé un procédé de génotypage qui fut ensuite appliqué à grande échelle à Généthon. En 1992, nous avons publié la première carte génétique entièrement basée sur des microsatellites (la carte comptait 813 marqueurs) ; deux autres versions de cette carte génétique de Généthon avec 2066 puis 5264 marqueurs furent publiées ensuite en 1994 et 1996.
La première carte génétique du génome humain publiée par Helen Donis Keller en 1987, comportait environ 400 marqueurs RFLP. Elle n'était adaptée que pour les maladies les plus fréquentes, dès lors qu'on rassemblait suffisamment de familles de malades, mais on perdait énormément d'information. Les laboratoires du réseau du CEPH l'ont bien améliorée par la suite ; ils en ont publié une nouvelle version en 1992 dans un numéro spécial sur le génome de Science. Nous avions nous aussi soumis notre papier à Science au même moment. Il a notamment été évalué par Donis Keller qui a écrit dix pages dans lesquelles elle essayait de nous démolir. La rédaction de 'Science' a finalement décidé de ne pas prendre "the French Map"... Barbara Jasny du comité éditorial de la revue était fort embarrassée, elle m'a dit : "It hurts me to turn down your paper". Je lui ai dit de ne pas s'en faire, nous nous sommes tournés vers 'Nature' qui était ravi de l'aubaine. Si nous avions pu imaginer ces réactions américaines, nous aurions soumis directement notre papier à 'Nature' et nous aurions gagné deux mois. Howard Cann me disait d'ailleurs : "On a eu le papier de 'Science' fin septembre et puis fin octobre on a eu ta carte, et on a jeté celle de 'Science'..." Il est vrai qu'au point de vue précision et fiabilité, entre les microsatellites et les RFLP, c'était le jour et la nuit.

Le lancement du Généthon

Lorsque Bernard Barataud a décidé de lancer Généthon en 1990, l'idée était de créer un laboratoire non conventionnel doté de très importants moyens. Cela a suscité des résistances au sein du conseil scientifique de l'AFM, mis à part quelques fortes personnalités en faveur du projet, comme Jean Rosa, les médecins généticiens comme, Jean FrézalArnold Munnich ou d'autres étaient assez hostiles au projet. Mais ils s'y sont ralliés par la suite en reconnaissant très honnêtement leur erreur. Reste que la décision initiale de lancer Généthon n'a pas été prise de manière démocratique. Le choix retenu par l'AFM fût de concentrer les moyens sur deux à trois programmes en un lieu unique, au détriment d'autres programmes qui émanaient de nombreux demandeurs. Une telle politique n'est jamais populaire.

Comment a réagi la recherche publique ?

Du côté de l'Inserm, c'est peu dire qu'on a loupé le virage du génome humain. Il y avait dans l'entourage de la direction générale de l'époque des gens qui ont freiné des quatre fers et qui exprimaient leur scepticisme quant à l'intérêt scientifique du programme génome. D'autres disaient : "Cela coûte trop cher, laissons faire les Américains. Quand les données seront publiques, nous les utiliserons..." Certains ajoutaient : "D'ailleurs on peut faire de la biologie sans la séquence". Ce qui est vrai bien sûr. Mais quand on a la séquence, c'est tout de même autre chose ! Il faut se rappeler que le fond de commerce de la biologie moléculaire dans les années 1980 était de cloner des gènes, de les séquencer, d'étudier leur expression et de publier gène après gène... D'où peut-être la réaction de certains : "Si on fait tout d'un seul coup, qu'est-ce qui nous restera après ?"

Le scepticisme de la recherche académique pour la biologie à grande échelle

Dans les milieux de la recherche académique on n'aimait pas la génomique. Pourquoi ? Parce qu'un programme de séquençage, c'est avant tout de l'acquisition de données, cela n'a pas ce côté élégant qui motive tant les fondamentalistes. Il est vrai que de superbes travaux, comme le modèle de l'opéron lactose (partir d'une collection de mutants et déduire de leurs propriétés un mécanisme de régulation génétique) sont plus satisfaisants pour l'esprit. Pourtant, même dans le milieu académique aujourd'hui, ce type de recherche semble avoir quelque peu disparu au profit d'une recherche qui prend de fait un tour beaucoup plus laborieux ! Aujourd'hui, beaucoup de travaux passent par une démarche expérimentale lourde qui a un côté quasi mécanique. D'autre part, les approches systématiques comme les programmes de mutagenèse sur la souris en Angleterre et en Allemagne sont parfois considérées avec dédain : c'est un travail ou la part laissée au hasard est énorme et où les résultats intéressants tiennent plutôt de la chance que d'une hypothèse bien conçue. Il est vrai qu'il est plus satisfaisant de partir d'une belle hypothèse, mais si c'est pour ensuite mettre en oeuvre une expérimentation qui a elle aussi de grandes chances d'être très lourde et contraignante où est vraiment la différence... Toutes ciblées qu'elles soient, les expériences de knock out reviennent quand même à "casser et regarder" une démarche finalement très classique en science : vous avez un moteur, vous enlevez une pièce et vous regardez s'il tourne encore. S'il ne marche plus, vous commencez à réfléchir sur le rôle de la pièce.
Mais les expériences où il faut beaucoup "d'huile de coude" ne sont pas toujours très appréciées chez nous. Regardez Roger Guillemin qui a imaginé une démarche très lourde consistant à sortir des quantités dérisoires d'hormones du système neuroendocrinien à partir de quantités massives de glandes pituitaires et qui devra s'expatrier pour réaliser ces expériences faute de financement par notre recherche institutionnelle. Pour rester dans les approches lourdes on pourrait également prendre le cas des maladies génétiques. Il y a environ 5000 maladies monogéniques. Donc, autant d'indications auxquelles on va pouvoir associer un gène, peut-être pas une fonction, mais au moins un phénotype. Les rétinites pigmentaires, par exemple, sont des maladies qui aboutissent à la cécité. Sur le plan génétique, on arrive à distinguer une centaine de rétinites pigmentaires, des maladies qui sur le plan physiologique sont toutes identiques. C'est quand même fantastique d'arriver à identifier une centaine de protéines qui sont impliquées dans un mécanisme physiologique. Mais on entendait les commentaires suivants : "Vous allez les trouver des gènes, bon, très bien. Mais ce n'est pas du beau travail d'en trouver comme cela. C'est trop facile !" Pourtant établir un lien entre un phénotype et un génotype quelle que soit la manière, est intéressant. Je crois qu'il faut d'abord être pragmatique, comme nos collègues anglo-saxons qui sont plus réalistes que nous et font avancer les connaissances plus vite. Intellectuellement, séquencer un génome n'est peut être pas la manière la plus élégante de faire de la biologie, mais est-elle vraiment la moins pertinente ?

Le séquençage

L'AFM a financé la phase préliminaire au séquençage du génome humain, la cartographie du génome, parce qu'elle avait compris l'intérêt de disposer de bonnes cartes. La carte génétique établie à Généthon a été extrêmement utile, notamment pour localiser les gènes responsables de maladies héréditaires. La suite logique c'était le séquençage. Lorsque la question s'est posée vers 1994-95, Bernard Barataud a décidé de retirer l'AFM de l'entreprise : "Nous avons financé la cartographie. Nous avons largement contribué au programme génome, l'Etat doit prendre le relais, notre objectif premier reste de guérir les malades". Un argument d'autant plus recevable que Barataud savait que le séquençage dépassait les moyens dont disposait l'AFM. Surtout à l'époque où le devis était probablement dix fois ce qu'il serait aujourd'hui. La question de l'organisme à séquencer se posait aussi. Tout le monde savait que le génome humain se prêtait mal à un travail expérimental et qu'il était nécessaire d'avoir en parallèle un certain nombre de systèmes modèles sur lesquels on puisse travailler. Le mammifère le mieux connu sur le plan de la génétique, de la virologie, de l'immunologie, etc., c'est la souris. Il était donc clair qu'il faudrait aussi séquencer le génome de la souris. De leur côté, les agronomes et les biologistes des plantes avaient leur modèle, l'arabète, Arabidopsis thaliana. Quant aux biologistes du développement, ils étaient intéressés par les organismes faciles à faire muter, des eucaryotes multicellulaires, comme la drosophile ou le nématode, ou unicellulaire, comme la levure. Et puis il y avait aussi un certain nombre de bactéries qui intéressaient beaucoup les microbiologistes et les biologistes moléculaires, comme E. coli, bactérie gram (-), et B. subtilis, gram (+), par exemple, sans compter tous les pathogènes qui sont incontournables. Bref, il y avait beaucoup de cibles possibles. Je ne pense pas qu'il y avait pour autant des tensions entre les partisans des différents programmes. Tout biologiste sait que l'on ne fait pas jaillir la vérité à partir d'un seul système.

Le Groupement de recherche et d'étude des génomes (GREG)

On sait que Piotr Slonimski s'était impliqué très tôt dans le programme européen pour séquencer le génome de la levure. Avec André Goffeau, ils ont pu instituer une coopération entre une multitude de laboratoires. Entre la levure et l'homme, l'échelle n'est pas la même : d'un côté 12 millions de paires de bases (pour la levure), de l'autre, 3 milliards (pour l'homme). De plus, la levure est plus 'économique'. Lorsqu'on séquence quelques milliers de bases de son génome, on identifie plusieurs gènes. En séquençant un morceau de cette taille chez l'homme, on n'obtient pas même un gène entier, juste un morceau. Je pense que Slonimski lui-même était cependant convaincu que le modèle de dispositif mis en place pour séquencer la levure ne pouvait s'appliquer aux grands programmes de séquençage. Il avait aussi raison de ne pas chercher à concurrencer le Human Genome Project de Jim Watson, d'autant que le budget du GIP GREG était négligeable par rapport à ceux engagés aux Etats-Unis. Il était de l'ordre de 80 MF et devait en plus servir à tous les programmes génomes de l'Inra, du CNRS, de l'Inserm. En réalité, je ne sais pas très bien quelles étaient les intentions du Gouvernement en créant le GIP GREG. La fameuse lettre de mission de Piotr Slonimski a abondamment circulé à l'époque, mais les termes en étaient pour le moins ambigus. En fait, Piotr a géré le GREG comme un fond qui distribuait des moyens auprès de ceux qui répondaient à des appels d'offre, un peu sur le modèle du programme levure. Et puis, du jour au lendemain le GREG s'est vu couper ses crédits. Que s'est-il passé ? Le ministère de la Recherche a récupéré le budget pour le mettre dans le Centre de séquençage, une application classique du principe des vases communiquants. 

Les centres de séquençage

Au début des années 1990, on espérait que pendant toute la phase exploratoire du programme génome de nouvelles techniques qui rendraient le séquençage infiniment plus efficace allaient apparaître, or cela ne s'est pas produit. Les techniques de séquençage utilisées aujourd'hui sont celles que Fred Sanger avait élaborées dans les années 1970. Les techniques de substitution comme le séquençage par hybridation ne sont pas d'une fiabilité fantastique, quant à la spectrographie de masse, elle va pour des petits fragments. Il y a eu aussi la microscopie à champs proches, mais elle n'a jamais vraiment fonctionné pour l'ADN. Bref, les voies qui semblaient un peu prometteuses n'ont pas débouché. Dans le même temps, le coût des techniques existantes a considérablement baissé. Au milieu des années 1990, de gros centres ont commencé à se constituer, le Sanger Center, quelques centres américains, etc. L'idée était de travailler pendant une dizaine d'années en perfectionnant les installations. A partir de la fin de la décennie, de nouvelles machines ont permis d'accélérer les choses, surtout en réduisant les besoins en personnel, l'un des facteurs qui limitait l'expansion des centres de séquençage. Avec les nouvelles machines multicapillaires, on n'avait plus besoin d'avoir un millier de personnes au même endroit pour séquencer un tiers du génome humain en dix ans, cent à deux cents suffisait à faire tourner un grand centre de séquençage. 

Le Centre national de séquençage (Génoscope)

Je me souviens d'avoir participé au milieu des années 1990 à un débat au sein du conseil scientifique du GREG. Le thème était : que peut-on faire en matière de séquençage ? Va-t-on faire comme les Anglais qui étaient alors en train de monter le Sanger Center, ou s'orienter vers des solutions plus hexagonales du type saupoudrage des crédits entre des petits centres à droite, à gauche. Je m'étais opposé à cette solution, je venais de Généthon et je savais ce que permettait la concentration des moyens, mais j'étais très minoritaire. Puis la décision de monter un seul centre fut prise. Pour le Centre national de séquençage (Genoscope), j'ai pu récupérer un noyau de gens qui venaient de Généthon. Quant à l'installation à Evry, c'est une aberration, un accident de l'histoire ! Que Bernard Barataud ait créé Généthon à Evry parce qu'il y disposait des surfaces pour installer un grand laboratoire, on le comprend bien. Cela nous embêtait plutôt de venir à Evry, mais c'était les moyens de l'AFM et donc leur liberté de décider ainsi.
Mais qu'ensuite il réussisse à induire des financements publics très importants pour que l'on y installe le Genoscope - Centre national de séquençage, le Centre national de génotypage (CNG), la Génopole etc., c'est quand même difficilement compréhensible. Reste qu'il l'a fait. Est ce viable à terme ? Attendons encore. Quelle est la durée de vie des start-upqui se sont installées ici ? Je crois que cela reste très fragile. Personnellement, je pense qu'il eût mieux valu installer le Genoscope et le CNG à Orsay, c'est-à-dire à proximité d'un pôle universitaire conséquent. Je crois que la recherche fondamentale reste la motivation première d'un jeune chercheur, heureusement d'ailleurs. Les bonnes idées en matière d'application viennent toujours de la recherche de base et ce qui manque le plus de tout temps, me semble-t-il, est certes l'argent mais surtout les bonnes idées. Or, statistiquement, les bonnes idées d'application, celles qui sont originales, ont les meilleures chances d'émerger dans des endroits où fourmillent les idées, c'est-à-dire les grandes universités. Une bonne recherche appliquée ne se construit qu'à partir d'une bonne recherche fondamentale, réservoir de compétences nouvellement formées et d'idées novatrices.

'Celera', la concurrence des Américains

C'est en 1998, juste au moment où nous étions en train de monter en puissance à Evry qu'a surgi l'affaire Celera, c'est-à-dire l'annonce faite par Craig Venter qu'il allait séquencer le génome humain à lui tout seul. Il faut se souvenir que depuis 1996, fonctionnait, un consortium public international, rassemblant les centres de séquençage publics des différents pays qui participaient au programme de séquençage du génome humain. Cette annonce a donc posé d'emblée la question de la poursuite du projet public. Et au plan national, en plus, se posait la question de "Est-ce qu'un centre de relativement petite taille comme le Genoscope reste d'actualité ?". L'intention de Celera était de monnayer ses données de séquence et donc d'éliminer la concurrence du projet public pour se trouver en situation de monopole. L'accès payant aux données de séquences est une mauvaise idée. En effet, sur le plan scientifique, des données qui gardent un caractère confidentiel, sont de qualité incontrôlable, puisqu'elles échappent à toute remise en question publique. En outre, compte tenu de la nature des données en question, de leur intérêt général, il me semble qu'elles devaient rester dans le domaine public. Il était impensable que s'établisse un monopole autour de la séquence du génome humain, même si l'industrie était prête à accepter de les payer un prix faramineux. Pour nous (Genoscope), pour jouer un rôle majeur dans le projet, il aurait fallu multiplier notre budget par un facteur trois ou quatre, ce qui était impensable. Donc, et bien qu'initialement le centre ait été prévu pour servir l'ensemble des besoins de la communauté scientifique française, tous génomes confondus, nous avons alors décidé de nous concentrer sur le génome humain en y consacrant la totalité de notre budget, ce qui nous a permis de rester dans le projet en y contribuant d'une manière, certes modeste, mais significative.

ADN complémentaires ou séquence intégrale ?

En fait, il faut les deux. Les ADNc seuls ne sont pas suffisants mais inversement, la séquence génomique non plus. Il est vrai qu'il semblait beaucoup plus économique d'essayer de faire un inventaire à partir des séquences d'ADNc parce qu'on ne séquence pratiquement que du codant, ce qui explique d'ailleurs que les gens intéressés par les protéines soient très heureux avec les ADNc, puisqu'ils trouvent à peu près l'information qu'ils recherchent. Mais, dès le début, on savait que c'était  une approche limitée. On savait que l'on n'aurait jamais la totalité des ADNc parce qu'on ne savait pas dans quel tissu certains sont présents, qu'ils s'expriment parfois de façon très minoritaire, ce qui rend leur détection encore plus difficile, et qu'il est pratiquement impossible d'obtenir chaque ADNc dans son intégralité. Par ailleurs, l'ADNc ne permet pas de savoir comment un gène s'exprime, puisqu'il ne comporte pas la région promotrice. Pour cela, il faut avoir accès à l'ADN génomique. N'oublions pas non plus que les premiers gènes de maladies n'ont pas été identifiés par les ADNc, mais par l'isolement du segment d'ADN génomique qui couvrait l'intervalle génétique dans lequel était localisé le gène. Avec l'ADNc, on ne pouvait pas faire cela. Donc, pour l'identification des gènes des maladies, il fallait la séquence génomique. Aujourd'hui, on dispose de la séquence du génome et on se rend compte qu'il nous faut aussi les ADNc, par exemple pour tous les problèmes de variants d'épissage. Or, actuellement, on a seulement 16 000 ADNc complets à notre disposition. Cela dit, je crois que la séquence génomique était quand même la moins mauvaise des méthodes. Avec le séquençage, même si on n'arrive pas à identifier tous les gènes facilement, on a quand même réussi à identifier 80 à 90 % des gènes codant pour des protéines. Et puis on a trouvé autre chose... Il y a dix ans on se disait qu'en séquençant le génome, on ne savait pas exactement ce que l'on allait trouver, mais qu'on allait sûrement trouver des choses inattendues. C'est bien ce qui est en train de se produire. En fait, il y a un tas de choses exprimées sur le génome qui ne sont pas traduites en protéines, il existe des transcrits non codant. On ne sait pas à quoi ils servent, peut-être à rien, mais ils sont là. La découverte des ARNi et des micro ARN indique qu'une partie d'entre eux, sans doute pas les plus nombreux, ont vraisemblablement une fonction régulatrice. Mais il y a probablement plus de bruit de fond. On peut notamment concevoir qu'à la suite de mutations, des promoteurs apparaissent spontanément sur une séquence d'ADN au cours de l'évolution. Ces promoteurs seront souvent peu efficaces mais pourront donner naissance à des transcrits, qui seront épissés, polyadénylés et passeront dans le cytoplasme... Ils existent, même si leur niveau de transcription est très faible. On peut penser qu'ils représentent une sorte de réservoir d'évolution. Avec quelques mutations bien placées, cet ADN aujourd'hui non codant pourrait le devenir. Il pourrait donner une protéine susceptible de conférer un avantage sélectif à l'espèce dans laquelle il s'exprime, et se transmettre de génération en génération. Ce n'est qu'une hypothèse. Et puis on observe aussi de nombreusesrégions conservées entre différents génomes de mammifères qui ne sont pas transcrites, mais auxquelles on est tenté d'attribuer un rôle biologique.

La recherche et la société

Un des problèmes majeurs aujourd'hui, reste l'ignorance du public, mais je ne sais pas comment on pourrait le résoudre. Nous sommes clairement confronté à toute une série de choix de société qui vont devenir de plus en plus aigus, mais nous ne savons pas comment en faire comprendre les tenants et les aboutissants. Au lancement du programme génome américain (HGP), on a très vite réalisé que la question de l'eugénisme allait se reposer. L'une des premières actions du HGP fut d'essayer d'éduquer le public. On s'est donc efforcé d'expliquer exactement ce que l'on allait faire et pourquoi et de mettre à plat les aspects éthiques. Ce fut un échec. Imprimer des millions de plaquettes que les gens ne liront pas, n'est pas efficace. Mais le fait d'avoir soulevé ces questions a eu pour conséquence d'obliger les chercheurs aux Etats-Unis à remplir des tonnes de paperasses pour lancer des études génétiques sur les familles. C'est devenu rédhibitoire et plus personne ne veut prendre de risque. On demande toujours d'évaluer le risque éventuel d'une action, mais jamais celui de l'inaction.



Nouvel entretien avec Jean Weissenbach réalisé le 30 mai 2011 au Génopole d'Evry


L. Esterle, J.-F. Picard et J.-F. Prud’homme (script K. Gay)


J-F Picard : Un point intéressant dans l’histoire du programme génome concerne les relations entre la recherche médicale et les sciences biologiques. Aux Etats-Unis, au cours des années 1980, la recherche sur le génome humain est lancée par des biologistes par l'administration fédérale, alors qu’en France les premiers à avoir réagi sur la question sont des médecins, notamment Jean Dausset ou Daniel Cohen dans un organisme de droit privé, le Centre d’étude du polymorphisme humain (CEPH).

J. Weissenbach : En France, c’est Daniel Cohen qui a été le grand moteur dans cette histoire.

J-F Picard : Mais il semble avoir été dépité par le manque d’intérêt de la recherche publique. D’où la question : pourquoi l’Etat n’a-t-il pas investi dans le programme génome à ses débuts?

J. Weissenbach : C’est un problème récurrent, comme sur tout un tas de thématiques scientifiques en France. L’Etat ne met pas les moyens, on le sait très bien, sauf circonstances exceptionnelles. En fait, Philippe Lazar, le DG de l’Inserm, ne voulait pas du programme génome parce qu’il n’y avait pas les moyens de le financer. Je me souviens qu’il y a eu de grands débats à l’époque sur le thème faut-il y aller ou pas ? En réalité, un tas de gens avaient d’excellentes raisons pour ne pas y aller.

J-F Picard : A Pasteur, votre confrère Philippe Kourilsky par exemple ?

J. Weissenbach : Exactement. À Pasteur de toutes les façons, c’est une bande d’intellos auxquels un projet comme celui-là déplaisait profondément.

J-F Picard : Certains d'entre eux parlaient alors d’un travail de ‘primates évolués’...

J. Weissenbach : ...comme Jim Watson, on appuie sur un bouton et l’on a un résultat. Ce n’est pas de la science disaient-ils, encore qu’il y avait encore quelques problèmes technologiques à résoudre qui n’étaient pas triviaux. Donc, de ce point de vue c’était tout de même de la science.

J-F Picard : D’où votre rôle essentiel, unanimement reconnu, dans la cartographie du génome.

J. Weissenbach : Je n’ai pas résolu tous les problèmes, il s’en faut. Mais si on veut faire de la science, il faut aussi faire ce genre de choses.

J-F. Prud’homme : Dans les archives, j’ai lu que l'idée initiale de Jean Dausset était de faire au CEPH un laboratoire qui s’appelait ERGAM (espace de recherches génétiques appliquées aux maladies neuromusculaires). Daniel Cohen a vendu ce projet à l’AFM et lui a dit qu’il allait localiser tous les gènes avec des sondes d’ADN. Il voulait repérer les maladies sur les chromosomes avec des sondes proches des gènes des maladies. Le problème auquel il s’est heurté très rapidement c’est qu’il n’avait pas de familles. Il a donc été voir Berrnard Barataud et il lui a dit "je suis désolé, je vous ai dit que j’allais faire des localisations de gènes de familles atteintes de maladies génétiques, mais en fait je n’ai pas de malades, est-ce que vous accepteriez que je transfère l’argent que vous m’avez donné non pas sur la localisation de gènes de maladies mais sur la localisation de marqueurs sur les chromosomes". C’est comme ça qu’on est passé de gènes de maladies aux marqueurs. Et ensuite les marqueurs polymorphes apparaissent avec PCR et l’on passe des sondes qui repèrent les régions bien précises de l’ADN au PCR développé par Jean Weissenbach. Comme il me l’a rappelé récemment, en 1989, il engage avec une bourse AFM Jamilé Hazan, alors qu’il était à l’Institut Pasteur, pour aller travailler au CEPH sur la carte du chromosome 20.

J. Weissenbach : Jamilé Hazan met au point les technologies analytiques pour suivre les produits d’amplification génique pour faire aboutir le projet.

J-F Picard : Sur cette histoire d’ERGAM et sa transformation en Généthon, vous avez dû en discuter avec Daniel Cohen.

J. Weissenbach : J’ai commencé à en discuter avec lui au printemps 1989 quand je lui ai dit que je voulais développer quelque chose en cartographie. Il m’a dit que je pouvais venir si je n’avais pas de place à Pasteur. Mais il a ajouté qu’il n’avait pas de sous pour moi, qu’il fallait donc que j’en trouve. Or, j’avais ce qu’il fallait, donc ça tombait bien. J’avais aussi deux techniciennes payées par Pasteur avec lesquelles je suis allé au CEPH en septembre. À ce moment, je discutais quasiment tous les jours avec Daniel, Il me disait son intention de faire la carte physique et je lui répondais qu’il fallait faire une carte génétique avec les microsatellites.

J-F Prud’homme : J-M Lalouel et M Lathrop étaient encore au CEPH ?

J. Weissenbach : Jean-Marc Lalouel était reparti aux Etats-Unis, mais Mark Lathrop était là. J’ai discuté aussi avec lui, il était clair qu’il interviendrait à un moment donné dans (mon) projet. Et bien sûr, j’ai utilisé ses logiciels pour situer les marqueurs sur la carte du chromosome.

J-F Prud’homme : Jamilé Hazan a positionné combien de marqueurs, 20-25 ?

J. Weissenbach : Oui, c’est de cet ordre-là. Il y a un papier là-dessus dans ‘Genomics’.

J-F Prud’homme : A ce moment-là, tu vas voir Daniel Cohen et tu lui dis que tu es d’accord pour faire 500 marqueurs. Il te répond : "mais ça ne va pas mon gars ! ce n’est pas 500 qu’il faut, c’est 5 000…".

J. Weissenbach : Exactement.

J-F Prud’homme : Et tu lui dis que c’est un problème de moyens, il te répond alors : « t’en fais pas, on trouvera le pognon ». Charles Auffray, lui, arrive en 1991 et il dit qu’il fait les cDNA. C'est-à-dire du séquençage de cDNA et en particulier ceux exprimés dans les maladies neuromusculaires. Donc tout ce petit monde démarre Généthon. En 1992 c’est l’époque la plus grandiose car les Américains ne savaient pas ce que les Français faisaient. Jean fait la première version de sa carte en 1992 ensuite Daniel fait la carte physique du chromosome 21.

J. Weissenbach : Non, lui c’est mi 1992 et nous c’était fin 1992.

J-F Prud’homme : Ensuite vous sortez tous les deux une carte de l’ensemble du génome.

J. Weissenbach : Une carte physique fusionnée à la carte génétique en 1993. Mais elle était de mauvaise qualité. Cette carte était basée sur les YAC (yeast artificial chromosomes) qui ont été très fortement remaniés et elle s’est révélée inutilisable.

J-F Prud’homme : Puis, en 1993, Daniel Cohen décide de partir. Pour quelles raisons ?

J. Weissenbach : Il y a eu les discussions avec Eric Lander. C’est le lancement de Millennium.

J-F Picard : Est-ce Eric Lander qui est venu chercher Daniel Cohen ou l’inverse?

J. Weissenbach : Je n’étais pas dans le secret des dieux, mais sans doute Daniel devait-il considérer qu’il manquait de financement à Généthon.

J-F Prud’homme : Est ce qu’il considérait que sa carte était bonne ? Je me souviens d’une discussion entre toi et Daniel à l’époque. Tu avais dit : "c’est dommage, tu devrais utiliser mes marqueurs pour les positionner sur tes cartes
- Ce n’est pas la peine, t’avait répondu Daniel.
- Mais tes trucs sont chimériques.
- Non, ils le sont très peu. C’est négligeable.
- Allons donc! Tu n’en sais rien…".
La carte était alors quasiment finie. Et puis il y a également eu une engueulade avec Bernard Barataud parce que Daniel trouvait qu’il n’avait pas assez de fric. Finalement pourquoi est-il retourné au CEPH après l’épisode Généthon ?

J. Weissenbach : C’est pour de sombres histoires internes à Généthon qui relèvent de considérations extra scientifiques.

J-F Prud’homme : A ton avis quand Daniel s’aperçoit-il que sa carte n’est pas bonne ?

J. Weissenbach : En 1993, il y a eu des engueulades. Les Américains s’aperçoivent que la carte n’est pas bonne et des papiers sortent dans ‘Science’ et dans ‘Nature’ en disant qu’il y a un problème à Généthon. Daniel répond et il retourne au CEPH. Puis c’est l’histoire de Millennium et la suite.

J-F Picard : En 1993, on a toujours comme objectif le génome humain donc les implications médicales de la génomique, or vous commencez à vous intéresser à d’autres génomes.

J. Weissenbach : C’est vrai.

J-F Picard : Au cours d’un précédent entretien avec Jean-François Prud’homme, je lui avais demandé : "pourquoi Jean Weissenbach quitte t-il le génome humain pour s'intéresser à d’autres génomes ?"

J-F Prud’homme : … Et je vous ai répondu par une blague : "parce que l’avantage des bactéries, c’est que ça ne parle pas !"

J. Weissenbach : Et moi je répondrais que je suis quand même resté impliqué dedans jusqu’en 2003, c’est-à-dire jusqu’à la fin du HGP.

J-F Picard : Mais, est ce que votre évolution vers d’autres génomes coïncide avec un retour dans le giron de la recherche publique ?

J. Weissenbach : Je n’ai jamais quitté le public. Effectivement, il y a la parenthèse Généthon, mais j’étais toujours payé par le CNRS.

J-F Prud’homme : Cependant, Pasteur t’a obligé à démissionner.

J. Weissenbach : C’est assez compliqué, mais effectivement à un moment donné ils m’ont dit que je ne pouvais pas avoir les deux appartenances.

J-F Prud’homme : C’est ce qu’on aurait dû dire à Charles Auffray, mais que l’on t’a dit à toi.

J. Weissenbach : Auffray n’était déjà plus à Pasteur. Pasteur avait été en conflit avec l’AFM pour une histoire de collecte de fonds. Et donc, étant à la fois à Pasteur et ici j’étais en conflit d’intérêt d’une manière ou d’une autre du point de vue de l’Institut. Évidemment ils ont mis en avant l’argument scientifique et moi grand naïf, j’ai considéré que c’était fondé. À bien y réfléchir aujourd’hui, je pense il n’y avait pas que de la science dans l’affaire. Bref, il s’agissait aussi d’un prétexte.

J-F Prud’homme : Puis tu publies la deuxième version de la carte en 1994 (celle qui fera référence). Mais les discussions avec Charles Auffray sur les cDNA (ADN complémentaires), c’est quand ?

J. Weissenbach : En même temps que les chimères de YACs. Dans le même numéro de ‘Science’, ‘on parle des deux.

J-F Prud’homme : Revenons à Daniel Cohen et à l’épisode de ‘Genset’ et du très grand séquençage, celle des promoteurs. Nous sommes en 1995. En fait Genset a été créé en 1989 à Saint-Louis indirectement par Daniel Cohen qui a dit à Luc d’Auriol, Pascal Brandys et à Marc Vasseur : "on va avoir besoin d’oligos (des amplificateurs d’acide nucléique), vous devriez créer une société ad hoc".

J. Weissenbach : Je me souviens avoir discuté une fois avec Luc d’Auriol fin 1990. Il était intéressé à savoir de quoi il retournait, car les gros consommateurs d’oligos c’était nous. Mais c’était quand on a monté le projet, en 1990. En 1989, on n’avait pas besoin de milliers d’oligos, la création de 'Genset' est antérieure au projet de cartographie de Généthon.

J-F Prud’homme : Ce que je voulais dire est que Daniel Cohen a dit à Auriol « on aura besoin d’oligos » pour expliquer l’origine de ‘Genset’. En 1995, il y a un accord passé entre l’AFM et ‘Genset’ pour un programme de très grand séquençage. Il en sort le labo installé au troisième étage au Généthon afin de séquencer les promoteurs notamment dans les maladies neuromusculaires.

J. Weissenbach : C'était un projet de Marc Vasseur à Genset. Il s’agissait en effet de séquencer les promoteurs, mais la stratégie envisagée était plutôt fumeuse. Elle a été remplacée par le séquençage des extrémités 5' des cDNA qu'on estimait proches des promoteurs. Le très grand séquençage c’était donc séquencer les extrémités 5’ des cDNA. Ils avaient une méthodologie montée par Jean-Baptiste Dumas, du temps où celui-ci était chez Charles Auffray. Ils ont appliqué cette technique en grand, d’abord à Généthon et ensuite dans les anciens locaux de la SNECMA. C’était effectivement au milieu des années 1990. Mais ces données n’ont jamais été publiées. ‘Genset’ pensait être assis sur un sac d’or et il voulait le garder.

J-F Prud’homme : L’AFM ne les a jamais obligé à ouvrir leur sac?

J. Weissenbach : Question très intéressante, celui qui en sait sûrement un peu plus que moi est Jacky Beckmann.

J-F Prud’homme : Les gens de ‘Genset’ sont restés peu de temps à Généthon et ensuite ils sont venus ici au Génopole ?

J. Weissenbach : Je ne sais pas exactement. A Généthon, ils ont monté un bazar qui était n’importe quoi. Il y avait je ne sais pas combien de consoles d’ordinateurs derrière une vitre… Ça ne servait à rien ! C’était de la frime. Un truc à faire visiter aux actionnaires, à des sponsors, à des financiers… "Nous, Genset, on a compris que ce qui est important, c’est l’informatique". Sur tout ça, il y a quelqu’un à interviewer, c’est Pierre Le Ber, le directeur du séquençage à ‘Genset’.

J-F Picard : Confronté à des collègues engagés dans ce genre d’affaires, quelle était votre réaction ?

J. Weissenbach : C’était très désagréable, c’était du commerce, on parlait business…

J-F Prud’homme : Donc en 1995-96, tu publies la dernière version de la carte génétique et tu dis qu’il faut voir avec Généthon s’il est possible de mettre à la disposition de la communauté scientifique un outil plus performant que les technologies que chacun utilise dans son coin. Un outil qui permet de localiser et d’identifier les gènes responsables des maladies.

J. Weissenbach : C’est Généthon 2, un labo où l’on utilisait un peu l’infrastructure qu’on avait créée à Généthon 1 pour identifier les gènes responsables des maladies avec la stratégie de clonage positionnel.

J-F Prud’homme : Avec une restriction, c’est qu’à l’époque la carte permettait de localiser rapidement les gènes, mais qu’il restait un boulot gigantesque à effectuer entre la localisation et l’identification. C’est le séquençage du génome humain qui a considérablement permis d'accélérer cette étape.

J. Weissenbach : Généthon2 utilisait la carte génétique en se servant des outils qui existaient à l’époque. Ce n’était pas fantastique, mais on a réussi à sortir quelques gènes.

J-F Prud’homme : Très peu et ça a coûté très cher. À partir de quand l’AFM décide de cesser d’investir dans ce domaine?

J. Weissenbach : D’emblée, on voyait bien qu’ils n’étaient que modérément enthousiastes. Ce n’était pas leur truc de chercher les gènes responsables de maladies. Ils savaient très bien que cela se ferait ailleurs et ils avaient une autre idée en tête qui est celle de soigner les gens. C’est le fameux ‘schéma de Barataud’, la carte, la séquence, les gènes, la thérapie. C’était fantastique ! Pendant des années, il a vécu avec ça. Mais je reconnais qu’en termes de marketing, c’était excellent. L’argumentaire mis en avant pour vendre le programme génome relevait essentiellement d’arguments de santé. Pour les gènes de maladies génétiques rares la séquence a été une accélérateur de découverte formidable Or, dans le domaine des maladies communes on voit que la génétique ne compte que pour 20 à 30 % de la cause dans le meilleur des cas, ce qui est d’ailleurs loin d’être négligeable.

L. Esterle : Les scientifiques n’ont-ils pas soutenu Bernard Barataud en matière de thérapies géniques ?

J. Weissenbach : Bien entendu, l'idée a été portée par des scientifiques. Mais les positions étaient controversées. Au niveau du conseil scientifique de l’AFM par exemple, il y avait de fortes discussions au sujet des thérapies géniques.

L. Esterle : Du côté de l'industrie, Michel Perricaudet à l’AFM disposait d’un gros contrat avec Rhône-Poulenc.

J. Weissenbach : Effectivement, Rhône-Poulenc-Rohrer était aussi dans le circuit.

J-F Prud’homme : Au conseil scientifique de l’AFM, il y avait également des gens très hostiles à la thérapie génique. Arnold Munnich a toujours dit que ça ne marcherait jamais, au moins pas avant un tiers de siècle.

J. Weissenbach : Et il n’était pas le seul. Je me souviens de m’être fait engueuler pour avoir dit dans une interview réalisée au moment du Téléthon que "ça n’arriverait pas avant dans dix ans". Et dans dix ans, à l’époque ça voulait dire après l’an 2000. Le lendemain, je me suis retrouvé dans le bureau de Bernard Barataud en présence de Daniel Cohen : "Tu ne te rends pas compte de ce que tu as dit à la radio… !". Alors, je lui ai répété mot pour mot ce que j’avais dit la veille et il me répond : "Mais si, la science va beaucoup plus vite qu’on ne le croit".

J-F Picard : Quel était l’avis de Daniel Cohen à propos des thérapies géniques ?

J. Weissenbach : Je pense qu’il y croyait. En tout cas, il soutenait Bernard Barataud. Quant à moi, il me disait souvent que j’étais pessimiste, que j'avais trop de doutes.

J-F Prud’homme : En 1996 tu estimes qu’ils ne sont pas très favorables à la création d’un laboratoire pour localiser les gènes des maladies génétiques et tu t’aperçois aussi probablement que le Généthon ne peut pas apporter un plus important par rapport aux technologies environnantes.

J. Weissenbach : Exactement. La seule manière d’aller plus vite était de disposer de la séquence. De toutes les façons, une fois devenu Généthon2, on redevenait un acteur parmi beaucoup d’autres, d’autant plus qu’on n’était pas directement liés à aux cliniciens qui s’intéressaient aux pathologies génétiques. L’AFM, à bon droit, refusait de financer le séquençage. On a eu une ou deux discussions à ce sujet au ministère de la Recherche avec Bernard Bigot et Gérard Tobelem.

L. Esterle : A l’époque, Gérard Tobelem s’occupait de la mission des sciences du vivant et Bernard Bigot était directeur de la recherche.

J-F Prud’homme : Et toi même, voulais tu aller dans le séquençage ?

J. Weissenbach : Est-ce que je voulais aller dans le séquençage? Je n’en suis pas sûr. Je m’interrogeais. En fait, je ne savais pas où je voulais aller. Alors qu’aujourd’hui, je le sais, mais il est trop tard…

J-F Picard : Cependant, au ministère de la Recherche surgit la volonté de participer au programme de séquençage.

J. Weissenbach : Avec Bernard Barataud, au cours d’une réunion au ministère, on leur a effectivement dit qu’il serait important que la France participe au projet. Mais ça allait coûter de l’argent et Barataud les a prévenu que l’AFM ne financerait pas ce programme.

J-F Prud’homme : En fait, le ministère a pris l’argent du GREG (GIP Groupement de Recherche et d’Etudes des Génomes) pour faire le centre de séquençage. Or, tu étais dans sa commission scientifique, que peux-tu en dire ?

J. Weissenbach : Je n’ai pas été au début du GREG, mais au bout d’un certain temps. En fait, que voulais-tu que fasse cet organisme avec 50 millions de francs pour aider des gens qui voulaient faire des génomes de plantes, séquencer la levure, s’occuper du génome humain ? Bref, où il fallait tout faire et personne n’était capable de définir des priorités. Les réunions du GREG étaient des réunions scientifiques extrêmement intéressantes,mais où l'on évitait de conclure pour ne fâcher personne. 

J-F Picard : Donc le ministère a récupéré les modestes moyens dévolus au GREG pour lancer le programme de séquençage…

J. Weissenbach : …Ce qui permettrait en outre à l'AFM de recaser une partie du personnel de Généthon. Bernard Bigot et Gérard Tobelem sont donc d’accord pour que la France participe au programme international de séquençage. Ils installent une commission qui conclut à l’idée de centres multipolaires concoctée par Jacques Demaille et Francis Galibert. Je faisais partie de ce comité où j’étais complètement isolé. Je leur disais de faire plutôt comme les Anglais ou les Américains, un gros truc, mais pas des petits machins dans tous les coins qui ne serviraient à rien. Ils m’ont rétorqué qu’ils allaient s’organiser dans un ensemble multipolaire où les gens se concerteraient …

J-F Picard : C’est comme ça qu’avait fonctionné le programme européen de séquençage de la levure.

J. Weissenbach : Oui, mais de manière pas très efficace et surtout hyper chère.

J-F Prud’homme : En 1996-1997, lorsque tu quittes le Généthon, c'est ce pour créer le Centre national de séquençage ou parce que tu t’engueules avec Bernard Barataud ?

J. Weissenbach : Les deux ! En 1996 j’ai dit à Bernard Barataud que Gérard Tobelem me convoquait au ministère pour le projet de centre de séquençage, le ministre de l’époque étant François d’Aubert. Donc Tobelem me convoque un soir au ministère et me dit qu’ils vont faire le centre de séquençage. J'avais été prévenu avant par Pierre Tambourin, alors directeur des Sciences de la Vie au CNRS, qui m'avait dit que le consensus autour du séquençage avait fini par se faire et que même Pierre Chambon ne s'y opposait plus. Il y a donc eu d’abord le rapport pour des centres multipolaires établi par Jacques Demaille et Francis Galibert. Puis est venu le rapport de Jean-Marc Egly qui concluait exactement le contraire, i.e. un centre national de séquençage. Il était allé voir ce qui se passait chez les Anglais, ce dont il avait conclu qu’il fallait faire un organisme unique. Tobelem et Bigot se sont demandés à qui ils allaient confier le projet et sur les conseils d’Egly, ils ont décidé de me le refiler…

J-F Prud’homme : Et le CNS (Génoscope) se retrouve directement doté d’un budget par le ministère.

J. Weissenbach : Au début, 80 millions de francs, puis on a dû monter jusqu’à un peu plus de 100 millions pendant la période de rééquipement. Le ministère était assez sympa avec nous, il nous donnait des rallonges régulièrement. En fait, nous disposions des sommes suffisantes pour ce que nous avions à faire dans la perspective du HGP, c’est-à-dire séquencer le chromosome 14 du génome humain.

J-F Prud’homme : N’était-il pas prévu d’installer le CNS à Paris, rue des Saints-Pères ?

J. Weissenbach : Ecoute, je ne vais pas recommencer à te raconter l’histoire pour que l’on me ressorte que "c’est l’AFM qui a  fait les cartes" et qu'il était donc légitime que le centre de séquençage s'installe à Evry ! L’AFM s’imaginait, et c’était son gros problème, que puisqu’elle avait réussi à faire les cartes, dès lors elle savait gérer la science. Alors qu’en fait, c’est Daniel Cohen qui les avait convaincu de les faire.

J-F Picard : L'idée vient effectivement du CEPH, mais c'est grâce à un financement de l’AFM que les chercheurs ont pu travailler. Vous disiez vous-même que l’Inserm n’avait pas pu s’occuper de la génomique parce qu’il n’en avait pas les moyens…

J. Weissenbach : Comme tous les organismes publics de recherche en France, ils ne peuvent pas faire de politique scientifique car ils n’ont pas de marge de manœuvre financière.

J-F Picard : Ce qui en laissait une, superbe, à l’AFM.

J. Weissenbach : Evidemment.

J-F Prud’homme : Initialement, il y avait une séparation nette entre l’AFM et le Généthon. C’est ensuite que l’AFM a essayé de récupérer Généthon et comme Bernard Barataud considère qu’il est capable de gérer la science, il devient président de Généthon... Mais revenons sur la demande du Genoscope à Paris.

J. Weissenbach : Ca commence dans le bureau de Gérard Tobelem le jour où il me dit : "il faut que tu prennes la direction du centre de séquençage". Je lui réponds : "on le met n’importe où, mais pas à Evry". Barataud savait que j’avais cette discussion avec Tobelem ce jour-là. Le lendemain matin, il me téléphone : "alors, qu’est-ce que vous avez décidé ?". Je lui ai donc expliqué qu’ils étaient prêts pour faire un centre de séquençage et j’ajoute que ça ne se ferait pas à Evry. Tobelem m’avait dit : "tu ne dis rien à Barataud". Mais je ne pouvais pas ne pas le faire, dont acte. Dans la foulée Barataud a donc demandé une entrevue avec le ministre : "voilà, lui a-t-il dit, je mets tant de moyens dans le projet, mais vous mettez le centre de séquençage à Evry". Et le ministre a acquiescé. J’ai alors eu plusieurs conversations avec Bernard Bigot pendant l’été 1996. J’essayais de convaincre de l’intérêt des Saint-Pères, mais il pensait qu'il ne fallait pas se fâcher avec l'AFM afin qu'elle continue à financer la recherche et il a conclut qu'il valait mieux aller à Evry. Le ministre disait qu’il soutiendrait le projet d’une université à Evry, etc. Mais on sait ce que valent les promesses des politiques. Bref, on a fait cette université, mais le résultat est que les bons étudiants n'y restent pas. J’avais dit à Barataud que jamais l’Etat ne financerait cette université le temps qu’il faudrait pour qu’elle sorte la tête de l’eau et aujourd’hui il n’y a plus de sous.

J-F Picard : Pourquoi Barataud ne vous a t il pas entendu?

J. Weissenbach : Parce que politiquement, ce ne l’intéressait pas. Ce qu’il voulait, c’était un environnement autour du Généthon. Il l’a eu, mais pas de façon optimale. Les sites sont tellement éloignés les uns des autres qu’ils ne se parlent pas. Ce problème de site, on le lui a dit et répété, mais sa réponse était : "taisez-vous, vous êtes des nuls !"

J-F Prud’homme : Donc tu t’es fâché avec Barataud…

J. Weissenbach : En fait, j’étais déjà fâché avec lui depuis le Téléthon 1996. À l’occasion, je lui avais dit que je n’y participerai pas. Je protestais parce qu’il était à l'origine d'une mauvaise décision pour la France. J’avais préparé une lettre que je crois ne lui avoir jamais envoyée, mais j’avais faxé pour prévenir que je ne venais pas et pour lui dire que c’était à cause du choix d’Evry. Il était impossible de démarrer ex nihilo une université à 35 kilomètres de Paris alors qu’il y avait déjà Orsay.

J-F Prud’homme : Tu as été un moment professeur à l’université d’Evry, je te le rappelle, même si tu en as démissionné.

J. Weissenbach : En fait j’y étais sans y être. C’est le CNRS qui m’a toujours payé.

J-F Prud’homme : En 1997, tu démarres donc le CNS (Génoscope). Le programme du chromosome 14 a roulé facilement ?

J. Weissenbach : Ca s’est bien passé et puis on a lancé un tas de programmes latéraux, le poisson par exemple.

J-F Prud’homme : Le séquençage du 'fugu' que Sidney Brenner aurait dû faire.

J. Weissenbach : Oui, mais Sidney Brenner n’avait pas le financement nécessaire. L’idée de départ était qu’on ne pourrait pas interpréter le génome humain si on ne disposait pas d’outils de comparaison, de génomes à comparer. Sidney avait choisi le 'fugu' parce qu’il avait remarqué que son génome était dix fois plus petit que le génome humain. Comme celui de la souris était aussi grand que le génome humain, il fallait prendre quelque chose de beaucoup plus petit. A posteriori, on voit bien qu’il fallait les deux, qu’il fallait à la fois des espèces proches et des espèces plus lointaines.

J-F Prud’homme : En 2000, tu fais une découverte importante qui a étonné les scientifiques lorsque tu as dit qu’il n’y ait que 30 000 gènes dans le génome humain, alors que tout le monde pensait qu’il y en aurait au moins 100 000.

J. Weissenbach : On en est aujourd’hui à 22 000. J’ai dû écrire en 1996 qu’on arriverait à avoir une idée du nombre de gènes du génome humain en comparant des fractions des deux génomes. Il fallait faire des comparaisons. Ce qui est difficile et que j’avais sous-estimé, c’est que nous ne disposions pas de suffisamment de gènes de référence du génome humain. Ça veut dire que pour un gène, on ne voit pas la totalité des exons. On n’avait pas à l’époque, fin des années 1990, la totalité des exons des gènes séquencés.Il y en avait quelques centaines, mais ils étaient biaisés. En se basant sur les chiffres de l’époque, on arrivait à 28 000 ou 29 000. Il y a eu deux estimations en parallèle. Il y en avait une qui arrivait au même nombre que nous et une autre qui arrivait à 60 000 - 70 000. Mais la plupart des gens étaient incrédules. Si tu regardes le fameux pari sur la prédiction du nombre de gènes, la plupart des chercheurs avaient parié sur beaucoup plus. Sauf un type qui a dit : "je vais prendre le nombre le plus petit parce que c'est ma seule chance de gagner. Si je ne me distingue pas des autres je n'ai aucune chance de gagner, Donc en faisant un choix risqué je perdrai sans doute, mais dans la masse je perdrai sûrement. Ce n’est pas la peine que je me noie dans la masse. Ma seule chance c’est de prendre le nombre le plus petit".

J-F Prud’homme : Quand avez vous publié la séquence du chromosome 14 ?

J. Weissenbach : En 2003. En 2002 le travail était achevé, mais on a passé un an à faire les annotations.

J-F Prud’homme : Et les autres bestiaux séquencés au CNS ?

J. Weissenbach : Les autres bestiaux, ce sont des projets en collaboration. À part le poisson ce sont des projets français dont nous n’avions pas l’initiative. D'autres organismes ont été proposés par des gens de la communauté savante et choisis par le comité scientifique du Genoscope. On a eu une petite contribution dans le génome de l’anophèle, pour le riz, on était membres d’un consortium. Dans ces projets-là, nous n’étions pas les leaders alors que nous l’étions pour la vigne et la paramécie.

J-F Picard : Quand avez-vous commencé à vous occuper de bactéries ?

J. Weissenbach : Dès le début du Genoscope, il y a eu des séquençages de génomes bactériens. C’étaient des petits trucs pour se faire la main aussi bien en termes de techniques qu’en termes d’analyses de séquences. Puis on a démarré le projet ‘cloaca maxima’ au début des années 2000, mais avec des moyens insuffisants. Si on avait mis le paquet, on serait passés devant Craig Venter et son projet de métagénome. Le métagénome, c’est un mélange des génomes de tout un tas d’espèces de bactéries qui vivent en communauté. Il y a des échanges dans la communauté : le substrat d’une espèce de bactéries est produit par une autre. C’est-à-dire que l’on met le doigt sur un véritable écosystème. Dans le même ordre d’idée, on a un autre projet en cours de démarrage (tara océan) qui concerne le phytoplancton.