IA et OGM sont les deux innovations scientifiques ayant alimenté les peurs les plus aigües comme les espoirs les plus importants dans les dernières décennies. Leurs adversaires comme leurs défenseurs apparaissent parfois sous des dehors peu scientifiques, naturalistes ancestraux contre techno-prophètes, animés par des convictions d’ordre religieux quant à une forme de virginité inexpugnable de la nature pour les uns ou faisant de nous des sortes de dieux technologiques pour les autres.
Marc Rameaux poursuit le rapprochement entre IA et OGM et propose une démarche dépassant le clivage entre naturalistes et mécanistes. Ce texte est la seconde partie de celui publié précédemment.
La fin du modèle mécaniste : une constante de toutes les sciences
Le premier reproche que l’on peut adresser au naturalisme est que l’ensemble du monde scientifique a abandonné depuis longtemps les modèles purement mécanistes. La très grande majorité des scientifiques de nos jour connaît les limites du réductionnisme, et lorsqu’ils formulent une thèse de façon réductionniste c’est moins pour établir une vérité que pour donner une approximation qu’ils savent devoir constamment réviser.
La forte dépendance aux conditions initiales et au contexte de la situation n’est pas propre aux technologies de pointe que sont l’IA ou les OGM. La simple mécanique newtonienne, canon du positivisme scientifique lorsque celui-ci était en vogue, recèle déjà toutes ces complexités. Le célèbre mémoire d’Henri Poincaré « Sur le problème des trois corps et les équations de la dynamique » montra que l’on ne pouvait pas même compter sur une preuve irréfutable de la stabilité du système solaire. Rédigé au départ comme une exploration positiviste, Poincaré s’aperçut d’une erreur dans sa solution, erreur qui devait déboucher sur rien de moins que la théorie du chaos. Chez certains hommes de génie, les failles sont des portes ouvertes vers les nouveaux domaines insoupçonnés.
Ilya Prigogine, en partant de ses domaines de prédilection que sont la chimie et la thermodynamique, décrivit l’irruption de cette science instable dans tous les domaines de la connaissance, remplaçant une par une les descriptions positivistes, sans cesser pour autant d’être une approche scientifique.
Pour Prigogine, la science est arrivée à un point culminant vers la fin du XIXème siècle, pour décrire les équilibres stationnaires, et ceci dans tous les domaines : mécanique, électricité, électromagnétisme, chimie, thermodynamique. La machine à vapeur était l’illustration concrète de ce triomphe : bien que les phénomènes se produisant dans une chaudière soient d’une complexité inabordable, l’atteinte de leurs points d’équilibre permettait de contenir leurs variations dans certaines bornes, exploitables pour les convertir en énergie mécanique. La science pouvait demeurer ignorante des régimes transitoires : l’important était de prévoir les équilibres possibles, nous permettant de maîtriser in fine le résultat voulu.
La remarque de Prigogine est que les phénomènes qu’étudie maintenant la science sont d’une finesse telle qu’il n’est plus possible de se contenter de la maîtrise des conditions aux limites. Il nous faut rentrer dans la fournaise et non plus rester sagement dans les bornes que nous pensons lui avoir fixées.
Toute science postule des indépendances qui ne sont qu’approximativement vraies. Nous découpons la réalité perçue en systèmes distincts, ne tenant compte que de leurs premières interactions. Nous savons cependant que la réalité est celle d’interdépendances de tout système à tout système. Le holisme des naturalistes a été rationnellement confirmé par la théorie du chaos. Cependant, doit-il rester confiné dans le constat passif que « tout est dans tout » ?
Le holisme est un thème récurrent des thèses naturalistes. Ironiquement, il montre pourtant combien une séparation stricte entre la nature et les créations de l’homme est dénuée de sens. La justification rationnelle du holisme est en effet de voir dans la nature un immense jeu de combinaisons. L’état actuel n’est en rien un mystère sanctifié, mais l’une des configurations de cet univers des possibles.
Aristote ne fut pas uniquement le penseur d’une séparation archaïque entre productions naturelles et productions manufacturées. En se penchant sur le sujet, il émit des intuitions d’une grande profondeur. En premier lieu, celle selon laquelle le vivant instrumente la matière pour servir à l’information. Je dis ceci dans des termes modernes, mais l’analyse que le Stagirite fait du monde biologique revient à cette intuition fondamentale. Elle sera reprise et énoncée par Jacques Monod dans « Le hasard et la nécessité ». A partir des années 1970, la biologie moléculaire fit suffisamment de progrès pour montrer que les structures moléculaires des agents du vivant étaient utilisées comme des clés logiques. La matière ne devient que le vecteur portant une information codée. Il revient à Aristote d’avoir eu le premier cette intuition d’une matière informée.
Dès lors, il faut voir derrière l’ordre biologique un monde logique sous-jacent, un monde de langages, d’algorithmes, de processus informés. Le code génétique en est bien entendu la première illustration évidente, mais le mérite de Monod fut de montrer que c’est l’ensemble de la machinerie corporelle – et non le seul noyau de la cellule – qu’il faut voir comme un clavier transmetteur de messages.
Tous les problèmes de la science moderne, ceux qui provoquent l’effroi et le conservatisme des naturalistes, ceux qui sont le siège de phénomènes chaotiques, d’hyper-sensibilité au contexte, se ramènent tous à ce dénominateur commun : l’exploration des langages. Langages employés par la matière informée dans le vivant, expliquant les infinies nuances et variations des OGM. Langages de l’IA lorsqu’elle doit affronter des problèmes de pragmatique humaine. J’ai déjà souligné dans ces colonnes que l’exemple de la voiture autonome dépassait l’ingénierie d’un système automatique régissant à des signaux sensoriels et à une cinématique : les manœuvres physiques d’une voiture doivent être considérées comme des intentions communiquées aux autres conducteurs. C’est ce qui est en jeu lors des négociations de conduite dans un embouteillage. La voiture autonome développe ainsi un langage des actions physiques.
C’est ici que l’enseignement de la langue des signes est essentiel : gestuelle matérielle et langage sont intimement liés. Le langage relève prioritairement d’une pragmatique avant d’être une transmission formelle d’information. Dans le vivant exploré par les OGM comme dans l’IA, la matière se fait signe. Les incertitudes que les OGM et l’IA doivent affronter sont les incertitudes du langage et les difficultés scientifiques qu’elles rencontrent sont les mêmes qui rendent très complexe la possibilité d’une traduction automatique ou la compréhension automatique d’un texte.
La sensibilité au contexte est une solution, pas un problème
L’hypersensibilité au contexte est la trace des catégories de problèmes qui relèvent de la nouvelle science, la « nouvelle alliance » dirait Prigogine.
Dès lors, nous devons savoir si nous nous engageons dans cette aventure des langages de la nature ou si nous devons les considérer à jamais comme des hiéroglyphes indéchiffrables. Nous pensons que le signe est toujours une invitation à l’exploration, non le marqueur délimitant les territoires interdits.
Le naturalisme attribue une place particulière à la transgenèse verticale, transformations « admissible » des espèces par l’homme car demeurant dans les mécanismes naturels de l’engendrement. Comme le fait remarquer Jean-Paul Oury, le tabac offre pourtant l’exemple de séquences d’ADN issues de transgenèses horizontales naturelles. Dès lors que l’on regarde la nature comme le siège de processus informationnels, dans lesquels la matière est instrumentée pour servir de vecteur au codage, il devient extrêmement difficile de tracer une frontière stricte entre le produit naturel et le produit humain.
Les effets secondaires chaotiques ont obligé les scientifiques à quitter les simplifications fonctionnalistes, à être conscients qu’elles n’étaient que des approximations pratiques mais porteuses d’imprévu sur le long terme. Ils ont ainsi rendu compte de la profondeur sans égale de tout effet physique, lorsqu’il est compris de façon « pleine et entière » aurait dit Leibniz. Le philosophe de Leipzig fut le premier à développer l’intuition d’un univers totalement interdépendant, dont chaque système considéré isolément exprimait jusqu’à la totalité de l’univers, mais dans un certain ordre propre et unique qui le caractérisait.
Cette préfiguration du holisme n’empêcha nullement Leibniz d’être un physicien et un ingénieur de première force, sans verser dans un quiétisme dont nos modernes écologistes sont les descendants. « L’universelle entr’expression » n’est pas le respect trop obséquieux de la complexité naturelle : respect complet de sa profondeur, mais sans exclure l’invitation que constitue son langage. Une fois la science hissée au niveau de la complexité de cette langue, elle peut reprendre le dialogue entre l’homme et la nature, interrompu par la parenthèse réductionniste, rétabli de façon plus profonde et plus sincère que le mysticisme de l’écologie moderne.
En pratique, les technologies modernes développent de nouveaux savoir-faire pour tenir compte de l’hypersensibilité au contexte, tout en parvenant à calculer et prévoir, comme le veut toute science. Il faut pour cela abandonner la prétention à des lois absolument universelles, mais admettre de décrire un même phénomène par des lois différentes, adaptées à chaque contexte. La gravitation universelle fut considérée longtemps comme le canon des lois physiques vraies en tous temps, tous lieux et toutes circonstances. L’évolution de la mécanique moderne montra que même ce monument était relatif à de nombreuses variations de contextes.
Dans le domaine des OGM comme dans celui de l’IA, cela signifie en pratique adopter une démarche au « cas par cas », comme l’indique Jean-Paul Oury. La description que fait celui-ci des champs expérimentaux des OGM et de la méthodologie du cas par cas fait irrésistiblement penser aux centres d’essais des voitures autonomes. IA comme OGM fourmillent de « proving grounds », univers miniatures au sein desquels les facteurs contextuels seront figés pour certains, modifiés finement afin d’en étudier les effets pour d’autres. Conditions d’ensoleillement, d’humidité, de composition de la terre, d’interaction avec les insectes pour les OGM, topographie de la route, densité de trafic, conditions météo, pour l’IA de la voiture autonome.
Par exemple pour la voiture autonome, il est possible de garantir une absence d’accident en dessous d’une certaine vitesse limite et de certains rayons de courbure, les manœuvres de la voiture empêchant par construction de se trouver engagé dans une situation de négociation de conduite qu’elle ne saurait plus gérer. Les « Waymo » de Google appliquent cette méthode de conduite très conservatrice garantissant l’absence d’accidents, à part dans le cas extrême où un autre véhicule vous fonce dessus comme dans l’accident de Chandler. Elle est encore insatisfaisante, car donnant lieu à des véhicules très lents et à la conduite encore trop mécanique, sûrs mais agaçants pour les conducteurs humains. Cependant, cette limitation des conditions de conduite est riche d’enseignements : l’on sait comment garantir une sécurité complète en contexte restreint, ce qui permettra d’étudier comment conserver une sécurité 10 fois supérieure à celle de l’humain – mais non nulle car il n’y a pas de risque zéro – dans des contextes plus larges.
Les univers miniatures que sont les « proving grounds » de l’IA et des OGM sont les laboratoires modernes, adaptés à une science hypersensible au contexte. Dans le compromis entre efficacité et robustesse, les laboratoires de jadis visaient l’efficacité absolue, la loi absolument déterministe, ayant la précision infinie des mathématiques. Les sciences modernes sont plus orientées vers la robustesse, la recherche de lois imparfaites mais contenues dans certaines variations dans des conditions de contexte contrôlées. La pureté mathématique des sciences n’est en rien démentie, mais elle doit être plus que jamais considérée à travers la notion de modèle, en évitant l’erreur de confondre la carte et le territoire. La science tendait autrefois à présenter ses lois exactes comme la réalité dévoilée, de nos jours elles sont avant tout un instrument très utile servant à s’orienter au sein de contextes mouvants, mais en aucun cas une réalité en soi. Les sciences modernes cherchent ce qui conservent une cohérence et une intégrité face aux secousses de la réalité, plus que la prétention à décrire cette réalité elle-même.
Détruire un « proving ground », comme le font les faucheurs de plants expérimentaux, n’est pas seulement un acte de brutal obscurantisme. C’est aussi une totale trahison de ce dont il se réclame : loin de respecter ou défendre la nature, il coupe le dialogue avec elle. La science n’est ni mutisme ni directivité à l’égard de la nature, mais échange continu avec elle. L’action des faucheurs ne la respecte nullement : sous prétexte de la sauvegarder, elle la réduit au silence.
Enfin, comme le note Jean-Paul Oury à la fin de son ouvrage, les défauts rencontrés lors des études de sensibilité au contexte ne présument pas qu’un correctif ne puisse être trouvé plus tard. Une science des interdépendances réintroduit une forte dose d’empirisme. Il n’est donc pas surprenant qu’elle admette l’essai / erreur / correctif parmi son arsenal méthodologique, à condition bien entendu que cette exploration demeure limitée au « proving ground ».
Le récent prix Nobel de physique Gérard Mourou nous a donné encore un exemple des richesses de l’interdisciplinarité. Ses lasers de très haute puissance peuvent réduire la période radioactive d’un déchet nucléaire d’un million d’années à 30 minutes ! La combinatoire d’un noyau atomique n’a en rien à être sacralisée, elle obéit aussi à des lois naturelles que nous pouvons réorienter très utilement.
Si une telle application devenait industrielle, alors le troisième dragon de la terreur écologique après l’IA et les OGM, à savoir l’énergie nucléaire, rejoindrait notre discours. L’énergie nucléaire deviendrait de loin l’énergie la plus propre, en plus de disposer d’un bilan énergétique inégalé. Dans cette période où les énergies alternatives sont fortement contestées (cf le débat grandissant concernant les éoliennes), où des décisions purement idéologiques concernant les carburants font courir un danger de catastrophe écologique et économique sur les pénuries de terres rares et sur la mobilité de ceux qui exercent un travail réel, les retombées des recherches de Gérard Mourou sont un clin d’œil supplémentaire à ceux qui se soucient d’écologie véritable. Selon les mythologies, le Dragon est un animal redoutable, incompréhensible et appelant une crainte respectueuse ou au contraire un symbole de la connaissance.
Ordre biologique ou compréhension des langages de la nature ?
« J’entends de la terre, monter des langages,
Sur des clavecins, d’insectes et de sève,
J’entends dans mon corps, le sang qui grésille,
Ma tête bourdonne, d’idées et d’abeilles. »
En ce jardin, Jean VASCA.
Les mythes naturalistes modernes, le culte de Gaïa et l’idée d’une interdépendance totale avec les plus modestes parties de la terre, souvent accompagnés par le travail sur le corps que sont les arts martiaux et certaines formes de méditation, ont eu une grande utilité. Ils ont fait ressurgir la dimension onirique et poétique de la science, celle qui fait dire qu’elle est fille de l’émerveillement. Toute science, à son point de départ, devrait être un hymne à la beauté du monde, montrer l’infinie richesse du clavecin de la nature.
Mais un enthousiasme fondateur dégénère rapidement s’il ne fait qu’en rester à sa béatitude initiale. L’élan d’émerveillement devient vite dévoterie étroite du bigot qui tient à préserver coûte que coûte son premier ressenti. Le religieux est la plus profonde des trahisons du sacré, précisément parce qu’il prétend le servir.
Oui, lorsque l’homme s’engage pour la première fois dans une démarche de connaissance, il touche à une forme de sacré. Mais s’il s’en tient là, loin de la respecter en la faisant vivre, il l’enterre pour des raisons égoïstes. Il voudrait pouvoir répéter à l’infini l’émerveillement initial et la sensation que celui-ci procure.
Poursuivre une démarche de connaissance, ce n’est pas se muer en gardien d’un ordre biologique auquel on interdit de toucher, mais rentrer dans l’aventure des langages de la nature.
Lorsque tout se fait signe, y compris nous-mêmes, et que la matière est le simple support de ces significations à décrypter, la frontière entre l’homme et la nature n’a plus de sens. Nous sommes embarqués « dans le même bateau » Quinien de l’aventure du langage. L’homme en est l’un des agents, parmi d’autres. Voir la nature comme cette immense fresque sémantique permet à l’homme de retrouver la place qui est la sienne. Lui-même est un produit de ces processus sémantiques, lui-même reconnaît la profondeur des algorithmes naturels. Mais sa propre science, tenant compte de cette profondeur, le fait devenir un de ses agents. Ni maître et possesseur, ni dévot muré dans son immobilisme, simple agent ayant pris conscience que son propre langage doit s’élever à la puissance des langages de la nature pour entretenir un dialogue constant avec elle, une symbiose avec elle.
Voir toute science comme avant tout la maîtrise des langages et des codes fut développé de façon particulièrement brillante par Charles Sanders Peirce. J’espère – et c’est en bonne voie – que le philosophe et logicien américain sera reconnu comme l’un des plus importants qui aient existé, pour sa contribution à la logique et à la sémantique.
« L’homme est un signe » écrivait-il comme en conclusion de son œuvre. Un signe qui parvient à se lire lui-même, à s’auto-déchiffrer, tout en étant plongé au milieu d’un monde d’autres signes. Le monde matériel n’est présent que pour servir de support à cette grande codification. Je ne connais pas de formulation plus élégante et plus elliptique, résumant ce que doit être le rapport de l’homme à la nature.
L’une des armes maîtresses de l’aventure du langage a pris une importance telle qu’elle apparaît de plus en plus souvent auprès du grand public, alors qu’elle fut longtemps réservée aux initiés : la notion d’algorithme.
Un algorithme est la réalisation pratique de l’ensemble de ce dont nous venons de parler. Y compris concernant l’hyper-sensibilité au contexte, l’instrumentation de la matière à des fins d’information, enfin aux ruses de la nature nous invitant à dialoguer avec elle.
La puissance et la finesse des algorithmes ont atteint un tel niveau qu’il devient tentant d’en faire les briques de la réalité. Un platonisme des algorithmes, comme autrefois celui du réductionnisme scientifique, vis-à-vis des quelques équations fondamentales régissant les équilibres stationnaires.
Il ne faudra pas commettre la même erreur. Les techno-prophètes du transhumanisme peuvent se révéler aussi dangereux et néfastes que les gourous de la « deep ecology » : ils se ressemblent comme deux gouttes d’eau, en apparence adversaires, en réalité prétendant servir une cause supérieure quand ils ne font que poursuivre un but égoïste et narcissique.
Nos instruments de langage, aussi fins et puissants soient-ils, ne restent que des instruments. Ils sont semblables à l’archer du violon. Bien employés, ils font naître la plus merveilleuse des musiques, mais ils ne sont pas la musique.
La nature pourrait être conçue plutôt comme un polyglotte universel, une sorte d’être capable de nous répondre dans n’importe quel langage avec lequel nous nous adressons à elle. Si nous lui parlons dans un langage grossier et brutal, elle nous répondra dans un langage grossier et brutal. Un langage fin et profond nous permettra d’avoir une réponse du même ordre, dans laquelle la nature se donne et se révèle. Quelle que soit la finesse du langage que nous employons, il n’est pas le grand traducteur polyglotte qui nous répond. Nos algorithmes ne sont que le plus fin archet que l’homme soit parvenu à fabriquer jusqu’à maintenant.