Entretien avec Bertrand Jordan réalisé le 18 avril 2002 à la Cadière suivi d'une causerie à l'ENS Ulm, le 22 mai 2012

(script Karine Gay)


 B. Jordan à l'ENS 2012 (Histrecmed)

Entretien du 18 avril 2002 à la Cadière (N. Givernaud, S. Mouchet, J.-F. Picard)

L'origine américaine du programme génome

Au tout début, je ne suivais pas les choses de très près. C'est au milieu des années 1980 aux Etats-Unis que l'on a commencé à parler de programmes génomes. Assez rapidement, on a évoqué la question en France et François Rougeon a dû être sollicité par le ministère de la Recherche en 1986-87, je me souviens qu'à l'époque il m'avait demande s'il fallait séquencer le génome humain. A l'époque, en Amérique, des crédits alloués au projet d'un grand télescope non construit avaient été réorientés vers la biologie, c'est-à-dire le séquençage du génome. Des machines à séquencer était en cours de développement et on pouvait imaginer que des progrès technologiques allaient suivre rapidement. La plupart des opérateurs estimaient qu'on allait mettre au point de nouvelles méthodes dix ou cent fois plus rapides et qui coûteraient cent fois moins cher. Tout au long des dix premières années du programme (les plus importantes), il y a eu une intrication forte entre le programme génome humain et la génétique médicale. Les promoteurs du programme évoquaient le séquençage du génome humain parce que c'était la manière la plus évidente de susciter un effort budgétaire conséquent du Congrès des Etats-Unis. Le 'Human Genome Project' (HGP) a donc été lancé, d'abord par le Department of Energy (DoE) puis repris par les National Institutes of Health (NIH) en 1989-90. Or, assez rapidement, les Américains n'ont plus parlé de séquençage systématique, mais de cartographie (génétique et physique) et plus tard du séquençage partiel de l'ADN complémentaire (cDNA). Finalement, le séquençage du génome humain n'est revenu sur le devant de la scène que dans la deuxième moitié des années 1990.

Séquençage et cartographie

Au début des années 1990, on n'avait guère séquencé que le 'PhiX 174' (qui comporte quelques milliers de bases), puis le phage Lambda (50 000 bases), en fait des bactériophages qui ne sont même pas des bactéries capables de vivre de manière indépendante. Et pourtant, cela nous avait enthousiasmés. La suite logique, c'était E. coli, bactérie utilisée dans tous les laboratoires de biologie moléculaire et dont on a commencé le séquençage au milieu des années 1980. En fait, les laboratoires japonais et américains qui se sont lancés dans le séquençage d'E.coli se sont plantés car les techniques n'étaient pas mûres et surtout on n'avait pas intégré à l'époque la nécessité d'organiser le séquençage de manière industrielle. Les Japonais avaient tenté la mise au point de robots automatisant les différentes opérations, mais cette tentative avait échoué car les laboratoires travaillaient encore de façon artisanale, moyennant quoi ils ont arrêté au bout d'un an ou deux en ayant consommé leurs crédits et après avoir fait cinq ou dix fois moins de séquences que prévu. Cet échec a permis de prendre conscience que ce dont on avait besoin pour le génome humain, c'était d'abord d'avoir de bonnes cartes immédiatement utiles à la génétique médicale qui permettraient, ensuite, de faire le séquençage du génome humain de façon ordonnée. C'est grâce à la constitution de ces cartes que l'on a pu aller plus vite dans la mise en évidence des gènes impliqués dans les différentes maladies. C'est ainsi qu'en 1990, les Anglais ont lancé leur programme Human Genome Mapping (HGMP) et que les Français ont ouvert le Généthon. Les Allemands sont longtemps restés en retard puisqu'ils n'ont commencé à lancer leur programme qu'en 1995-96.

Le scepticisme du milieu scientifique

Au lancement du projet génome, il y avait une forte opposition dans le milieu des biologistes. J'ai gardé des coupures de presse de l'époque. Il y a eu une campagne montée contre le programme génome humain où on disait que c'était de la 'mauvaise science', qu'on allait mobiliser des armées de techniciens pour faire un travail totalement inintéressant et qu'il valait beaucoup mieux mettre cet argent dans de la "vraie biologie". Les premières méthodes permettant de séquencer l'ADN, c'est à dire de lire quelques dizaines ou quelques centaines de bases dataient de la fin des années 1970. Elles avaient été mises au point par Maxam et Gilbert aux Etats-Unis (cette méthode n'est pratiquement plus utilisée), et par Sanger et Coulson en Angleterre. Avec ces techniques, on pouvait faire une dizaine ou une vingtaine d'expériences en parallèle et donc lire dix ou vingt fois 200 ou 300 lettres. Au milieu des années 1980, ces méthodes étaient utilisées de façon manuelle dans les laboratoires et on commençait à les automatiser. Mais de là imaginer le séquençage du génome humain, l'entreprise paraissait osée. La plupart des chercheurs n'avaient pas perçu que la recherche biologique devait connaître une mutation en profondeur, un véritable changement d'échelle, principalement dû au développement des technologies. Aux Etats-Unis, par exemple, les chercheurs réunis en 1985 à l'université de Santa Cruz pour parler de génome humain apparaissaient comme des marginaux : des physiciens, des administratifs de haut vol comme Robert Sinsheimer ou des types comme Leroy Hood qui avaient fait à la fois à la fois du développement technologique et de la très bonne recherche (ce type de personnage est beaucoup plus fréquent aux Etats-Unis qu'en France où la technologie est assez dévalorisée). Moi-même, je partageais le scepticisme des biologistes. Je suis physicien de formation, j'ai une thèse de physique des particules, mais j'avais choisi de faire de la biologie parce que cette discipline m'apparaissait comme un domaine où l'on pouvait faire de la recherche sans mobiliser des moyens énormes, c'est-à-dire une expérience toutes les semaines et non pas une fois par an comme en physique des particules. J'ai commencé à raisonner autrement beaucoup plus tard, c'est à dire lorsque après une année sabbatique en 1991 consacrée à faire le point des programmes Génome à travers le monde j'ai introduit des approches génomiques au Centre d'immunologie Inserm-CNRS de Marseille-Luminy. J'ai commencé la recherche à grande échelle quand on s'est lancé sur l'analyse "en grand" des cDNAs avec des équipements qui coûtaient 2 MF. Mais je me souviens des réactions horrifiées de mes collègues... L'idée que l'on puisse dépenser autant pour équiper un labo de biologie avec un robot leur paraissait incongrue.

Colloque Inserm 'génétique moléculaire et pathologie' (1985) de g. à dr. B. Malissen, B. Jordan, J. Tavlitzky, M. Cohen-Solal, P. Lazar et. J.- P. Changeux (Inserm-Actualité n° 34)

Le Généthon

Les projets de recherche soutenus par l'AFM portaient sur les maladies neuromusculaires, les thérapies géniques. Mais on avait identifié un point de blocage dans le travail sur les maladies génétiques et l'AFM trouvait que le travail sur le génome n'avançait pas assez vite. Donc l'association a investi dans du génome 'pur et dur' grâce au Généthon qui a représenté pendant trois ans la moitié de ses subsides à la recherche. Certes, le Généthon n'a pas été le succès sans mélange que l'on se plaît à évoquer, mais globalement ce fut une réussite qui a fait avancer la position de la France dans la recherche, comme celle de la recherche en génomique sur le plan mondial. Le principal artisan du Généthon est Daniel Cohen qui avait acquis la conviction qu'il fallait faire les choses en grand pour s'attaquer sérieusement au génome, qu'il fallait beaucoup d'argent, beaucoup de machines, toutes choses que l'on n'avait pas l'habitude de faire à l'époque en biologie, même aux Etats-Unis. Donc, Daniel Cohen a su convaincre Bernard Barataud de financer l'opération (les machines ayant été fabriquées par Bertin). Même si la carte physique qu'il a réalisée au Généthon était approximative et comportait beaucoup d'erreurs, son mérite est d'avoir montré qu'il était envisageable de s'attaquer à l'ensemble du génome humain, d'un seul coup, et cela grâce à des méthodes à grande échelle en mettant au point cette banque de YACs (Yeast artificial chromosomes ). En fait le problème avec les YACs est que plus ils sont grands, plus ils sont chimériques et on peut y retrouver des morceaux provenant de 2 ou 3 chromosomes différents (par la suite, la carte physique a été reprise par Eric Lander au Whitehead Institute). L'autre mérite de Daniel Cohen est d'avoir attiré Jean Weissenbach au Généthon. Ce dernier a mené sa carte génétique de façon extrêmement rigoureuse, il a réussi à produire une carte génétique de deuxième génération d'excellente qualité, toujours utilisée dans le monde entier pour accélérer la découverte des gènes impliqués dans les maladies génétiques.

ADN complémentaire

Le troisième programme du Généthon, confié à Charles Auffray, était le séquençage partiel du génome grâce à l'approche ADNc et à la méthode des 'EST' (Expressed Sequence Tags) mise au point par Craig Venter au début des années 1990. Celle-ci reste aujourd'hui une façon efficace pour avoir rapidement de l'informati