Biologie de synthèse : le vivant, simple machine…
En plein essor depuis le début des années 2000, la biologie de synthèse prétend créer la vie. Elle se distingue à la fois par des voies de recherche et technologiques originales et des positions épistémologiques et philosophiques particulières. L’engouement qu’elle suscite chez les uns n’a d’égal que le rejet qu’elle suscite chez les autres. Bernard Eddé, biologiste au CNRS (université Pierre et Marie Curie), fait le point.
oLe terme, initialement proposé par Stéphane Leduc au début du XXe siècle, dans le cadre d’une recherche sur les conditions d’émergence de la vie, est réapparu vers la fin des années 1990 pour désigner un ensemble de démarches qui visent à concevoir et synthétiser des organismes vivants possédant des propriétés qui n’existent pas dans la nature. C’est aujourd’hui une discipline reconnue, ou plutôt une rencontre de différentes disciplines : biologie, ingéniérie, mathématiques, informatique, chimie, physique… à laquelle contribuent plusieurs centaines d’entreprises et des milliers de laboratoires situés pour la plupart en Europe, aux Etats-Unis et au Japon, et qui bénéficie d’un soutien financier public et privé considérable. Ses objectifs affichés sont à la fois cognitifs (ses partisans soutiennent que c’est en reconstruisant la vie qu’on la comprend) et orientés vers des applications extrêmement ambitieuses : « satisfaire les besoins illimités de l’homme dans le cadre de ressources limitées » [1], qui concernent aussi bien la médecine régénérative et curative que la chimie dite propre et le traitement des pollutions, les produits agricoles et alimentaires, l’énergie… La biologie de synthèse est un exemple type de technoscience, où les découvertes scientifiques et les applications techniques sont étroitement liées, jusqu’à en être confondues. Nous n’aborderons ici que certains aspects de cette biologie qui se met en place et renvoyons le lecteur à deux fascicules qui traitent de façon plus large de la biologie de synthèse et des autres technologies nouvelles qui émergent ces dernières années [2].
Les êtres vivants, entre bricolage et rationalité
Depuis les années 1950, la découverte de l’ADN et de sa structure comme support de l’hérédité domine les schémas explicatifs d’une grande partie de la biologie. Les molécules d’ADN sont très simples du point de vue physico-chimique, bien plus simples que d’autres composants moléculaires comme les protéines, et l’on a pu relativement facilement manipuler les gènes, interférer avec leur expression, progresser dans la recherche… et obtenir des organismes génétiquement modifiés. L’essor des biotechnologies durant le dernier quart du XXe siècle repose sur le paradigme selon lequel les gènes déterminent les caractères, en sont la cause principale, sinon unique, et que manipuler les gènes permet de modifier les caractères et les comportements.
Cependant, l’échec des OGM à exprimer des caractères complexes d’une part, et une série de découvertes successives montrant l’importance d’autres types de causalité d’autre part, ont fragilisé ce paradigme et abouti à une critique de plus en plus forte de ce qui a été appelé le « tout-génétique » et au développement d’un mode de pensée plus systémique prenant en compte la grande complexité des phénomènes biologiques.
La biologie de synthèse entend répondre aux difficultés rencontrées par les biotechnologies classiques en appliquant des stratégies issues des sciences de l’ingénieur. Pour elle, la complexité comporte deux composantes : l’une issue de l’histoire évolutive et l’autre intrinsèque au fonctionnement des êtres vivants. Il s’agirait de supprimer la première grâce à la conception de « cellules minimales » et de maîtriser la seconde par les méthodes de modélisation utilisées dans la construction des machines. Il ne s’agirait donc plus d’obéir aux processus naturels à l’origine des êtres vivants, considérés comme imparfaits du fait des contingences historiques liées à l’évolution, mais de les rationaliser, de les traduire en principes « ingéniériques » simples, de les penser comme un agencement (sur le mode par exemple d’un circuit électronique) de pièces détachées conçues de novo plutôt que comme des totalités, bref comme des machines vivantes.
Modifier, synthétiser, combiner ces pièces détachées…
La conception de nouveaux organismes vivants repose sur l’obtention de briques élémentaires en grand nombre. Un vaste programme international coordonné par Drew Endy du Massachussets Institut of Technology (MIT) tente de réunir les efforts de milliers de chercheurs et d’étudiants (pour ces derniers un concours international appelé IGEM leur est destiné) à travers le monde pour établir une vaste collection de « bio-briques ». Ce sont des segments d’ADN, modifiés à partir de séquences d’ADN naturelles ou imaginés et obtenus par synthèse chimique directe, qui codent pour des protéines et des éléments de régulation ou de manipulation divers. L’objectif est de fournir les éléments de base pour assembler des dispositifs ou modules capables d’assurer des fonctions diverses. La présence d’interfaces standardisées permet de combiner les éléments entre eux au gré de l’imagination des chercheurs et des ressources des méthodes ingéniériques, plus ou moins comme on assemblerait un ordinateur à partir de ses différents éléments.
Une fois insérés dans des vecteurs adaptés, ces assemblages d’ADN peuvent être introduits dans des organismes hôtes, soit par les techniques classiques de transfection, soit via des projets beaucoup plus ambitieux comme les génomes synthétiques. Le nec plus ultra, qui constitue l’essence même du paradigme de la biologie synthétique, est de construire complètement de novo, à partir des composants inertes que sont les bio-briques, des cellules synthétiques sous la forme de machines autoreproductibles. Des recherches vont dans ce sens, mais nous n’en parlerons pas ici car elles semblent encore loin, très loin, d’aboutir.
Quelle différence avec le génie génétique classique ? Il s’agit, pour les scientifiques engagés dans cette voie de recherche, de contourner précisément les limites inhérentes à cette démarche. Le grand hiatus entre les « perspectives » annoncées de produire des plantes génétiquement modifiées (PGM) possédant des caractères utiles, comme la tolérance à la sécheresse, et les réalisations concrètes (99% des PGM cultivées aujourd’hui sont des plantes insecticides Bt et/ou tolérantes à l’un des herbicides totaux commercialisés par les entreprises semencières et agrochimiques) est à cet égard significatif. Rappelons que la plupart des fonctions complexes impliquent de nombreux gènes. Dans le cas de l’artémisinine, un composé anti-paludisme présenté comme l’une des rares réussites de la biologie de synthèse [3] dans le domaine de la médecine, plus de onze gènes différents ont été introduits dans des bactéries pour en assurer la synthèse. Les enzymes codés par ces gènes doivent être régulés de façon extrêmement fine pour assurer la production optimale de la molécule au plus faible coût. La complexité qui en résulte ne peut être maîtrisée par les techniques classiques. Pour les nouveaux synthétiseurs du vivant, seules la maîtrise apportée par les sciences de l’ingénieur et les méthodes de modélisation permettraient de prédire et optimiser le fonctionnement de ces dispositifs.
Des cellules minimales pour rationaliser la vie
Les chercheurs engagés dans cette voie supputent que les obstacles rencontrés par le génie génétique classique risquent de se reproduire avec les bio-briques, en raison de l’interférence avec les organismes receveurs, d’autant moins prévisible que les organismes sont plus complexes et le résultat d’une histoire évolutive qui procède d’événements non rationnels. Supprimer ce qui est contingent pour ne conserver que ce qui est essentiel à leur survie et à leur reproduction permettrait donc, selon cette logique, de réduire leur complexité et de minimiser les interférences qu’ils pourraient produire sur le fonctionnement des dispositifs insérés.
Il s’agit concrètement de remplacer les génomes d’organismes existants par des génomes simplifiés. Les organismes ainsi modifiés serviraient de « châssis cellulaires » dans lesquels on pourrait insérer « à la demande » les combinaisons de dispositifs requis en vue des applications que l’on souhaite.
Avec l’augmentation constante des performances des appareils, la synthèse chimique d’ADN devient la technique prépondérante. Elle a ainsi permis la synthèse de petits ADN viraux, puis du génome entier d’une petite bactérie. Enfin, en mai 2010, J.C. Venter et son laboratoire ont annoncé la synthèse complète du génome de la bactérie Mycoplasma mycoides (un million de bases) et sa transplantation dans une espèce apparentée. Cette expérience n’est, selon les auteurs, qu’une première étape qui vise à apporter la « preuve du concept » : on peut fabriquer un génome entier de façon artificielle et le substituer au génome naturel d’une bactérie. La bactérie ainsi « créée » [4] est viable, peut se reproduire et possède au moins certaines propriétés de la bactérie donneuse.
Une simplification contre-nature ?
Selon cette logique, contrôler le génome revient à contrôler les propriétés d’un organisme vivant et sa réponse à toute modification que l’on voudrait y introduire. Les dispositifs de production qui y seront insérés (soit sous la forme d’un ADN autonome, soit directement dans le génome lors de sa synthèse) fonctionneront sans crainte d’une réponse perturbatrice de la part de l’organisme hôte, si l’on peut encore appeler organisme un châssis conçu pour héberger des dispositifs dédiés à des tâches si diverses que produire des biocarburants, dépolluer l’environnement à la demande, ou encore synthétiser des médicaments et des alicaments…
Deux types d’arguments mettent en doute la prétendue maîtrise associée à cette démarche :
Les génomes, même les plus simples, sont des entités complexes que les sciences biologiques commencent à peine à entrevoir. Être capable de synthétiser de longues séquences d’ADN, voire des génomes entiers (qui ne sont finalement que de longs polymères constitués de quatre entités chimiques que les appareils de synthèse sont capables aujourd’hui de fabriquer), ne signifie pas posséder la clé de leur fonctionnement. Celui-ci réside dans l’information contenue dans la séquence de ces quatre entités chimiques mais nous n’en comprenons aujourd’hui qu’une infirme partie. Le génome reste un constituant d’une grande complexité inaccessible à notre entendement. Penser que de sa séquence, l’organisme et son comportement pourraient être déduits, est une chimère.
La complexité des organismes n’est pas réductible à celle de leur génome et ne peut être appréhendée en dehors de l’organisme lui-même et des millions d’éléments divers qui le composent et qui interagissent entre eux et avec le génome selon des mécanismes dits non linéaires, en d’autres termes difficilement prévisibles par les méthodes actuelles.
Prétendre maîtriser tout cela apparaît donc aujourd’hui illusoire ! Il y aura peut-être une avancée par rapport aux limites que rencontre actuellement le génie génétique classique, mais la zone d’incertitude reste énorme. Peu importe ! L’incertitude est aujourd’hui masquée par les discours enthousiastes des nouveaux synthétiseurs du vivant. Des recherches intenses dans le domaine de la médecine, de l’environnement, de l’énergie… risquent d’aboutir dès demain à la dissémination de super organismes modifiés, entourés de l’aura d’une technologie triomphante mais au comportement aussi incertain que nos OGM actuels.
Il y a un étrange paradoxe entre la prétention affichée de maîtriser et « créer la vie » et le champ plus terre à terre des réalisations beaucoup plus modestes qui se profilent à l’horizon. On peut s’interroger sur la fonction de ces discours qui tournent autour de la maîtrise et de la création. Fonction de fascination vis-à-vis de la puissance de la science qui nous permettrait de nous positionner en tant que créateurs de toutes choses ou au contraire de banalisation de la vie que nous serions capables de fabriquer à partir de rien ?
Car ne nous leurrons pas, les futurs organismes synthétiques, s’ils apparaissent un jour, n’auront rien à voir avec les êtres vivants que nous connaissons, mais ressembleront essentiellement à des usines vivantes conçues pour assouvir nos besoins. Serons-nous alors prêts à intégrer au sein de notre planète un troisième monde aux côtés des mondes vivant et inanimé ? Un troisième monde dit vivant, mais tellement différent de celui que nous connaissons, que les ingénieurs du vivant pourraient construire, modifier et détruire à leur aise. Un monde dépourvu d’une histoire évolutive, façonné par et pour l’homme, disponible ou jetable à la demande ? Que savons-nous de la capacité qu’aurait ce monde-là de nous interpeller et de nous menacer dans notre humanité ? Le moment n’est-il pas venu de cesser d’espérer résoudre les problèmes essentiels auxquels nous confrontent les technologies actuelles par une fuite en avant vers l’illusion d’une maîtrise absolue de la nature [5] ?
[1] Endy D. 2005. Foundations for engineering biology. Nature 438 : 449 – 453
[2] « Bang ou la convergence des technologies », BEDE et al., et « Nouvelles techniques de manipulation du vivant, pour quoi ? pour qui ? », coll. Emergence, édition PEUV, octobre 2011
[3] « À l’exception de l’artémisinine semi-synthétique et des améliorations potentielles, à court terme, du vaccin, la plupart des bénéfices potentiels pour la santé de la biologie synthétique restent à l’étape de recherche préliminaire » (PCBI Synthetic biology report, 2010, http://www.bioethics.gov).
[4] , Science, juillet 2010, vol. 329, pp 52-56
[5] cf. note 2