IA et OGM sont les deux innovations scientifiques ayant alimenté les peurs les plus aigües comme les espoirs les plus importants dans les dernières décennies. Leurs adversaires comme leurs défenseurs apparaissent parfois sous des dehors peu scientifiques, naturalistes ancestraux contre techno-prophètes, animés par des convictions d’ordre religieux quant à une forme de virginité inexpugnable de la nature pour les uns ou faisant de nous des sortes de dieux technologiques pour les autres.
Pourquoi de telles réactions passionnelles ? Comme le fait remarquer Jean-Paul Oury dans son ouvrage « La querelle des OGM », les deux technologies dotent une création humaine d’une autonomie susceptible de nous échapper et de se disséminer. Et pour les tenants du naturalisme, de subvertir l’ordre naturel de façon incontrôlée.
L’héritage d’Aristote est un écho de cette crainte. Le Stagirite avait placé la frontière entre ce qui est naturel et ce qui est issu de la main de l’homme dans cette notion d’autonomie. Est naturel ce qui renferme un principe d’évolution autonome, tandis que l’objet manufacturé dépend entièrement de l’esprit et de la main humaine pour agir ou se transformer. L’IA comme les OGM bouleversent cette frontière, par l’auto-organisation des processus cognitifs de l’IA, par l’évolution biologique des OGM qui suit son propre chemin une fois la combinaison génétique effectuée.
Bouleversements du statut de l’homme
A l’autonomie d’un objet fait par l’homme, viennent se rajouter deux autres sources de peur.
La première est évidemment que l’IA touche à nos processus de cognition et les OGM à des êtres vivants. Le statut propre au monde biologique est questionné et plus particulièrement le statut de l’homme. Agir sur l’être biologique ou créer des fragments de cognition humaine à partir de machines suggère que nous pourrions n’être que des machines sophistiquées, susceptibles d’une ingénierie. Lorsque des actions manufacturées s’approchent du monde biologique jusqu’à en reproduire certains aspects, c’est le monde biologique qui se trouve entrainé vers le domaine des machines.
La seconde tient à l’évaluation des risques et conséquences de nos actions et résulte de l’autonomie dont nous avons doté nos créations. Les algorithmes d’IA ne consistent pas en une série d’instructions telle que celle de la programmation classique. Ils sont définis de façon déterministe, mais le chemin que va prendre le déroulement de l’algorithme est non prédictible. Par ailleurs, car c’est bien le but de l’IA, l’algorithme d’apprentissage sera confronté à une grande variété de contextes. Selon les contextes auxquels il est exposé, un même algorithme produira des réseaux de connaissance différents, tout comme des jumeaux se différencieront par leurs itinéraires de vie et leurs expériences. L’IA n’est pas une fonction isolée, elle est une fonction perméable au contexte.
Il en est de même des OGM : une modification génétique d’une plante sera plongée dans des conditions de culture et d’agression par des facteurs extérieurs très différentes. La résultante d’une transgénèse n’est pas prédictible dans l’absolu, car elle est le produit de la transgénèse et de son environnement particulier. Enfin, la très grande variété de la palette du vivant fait que lorsqu’une modification génétique est effectuée sur une plante, il faut préciser laquelle des variantes de l’espèce est concernée : les résultats peuvent être bénéfiques ou nocifs à l’intérieur d’une même espèce, selon les différentes caractéristiques déclinées dans les sous-espèces.
Autonomie, ingénierie du vivant et de l’homme, non prédictibilité complète du fait d’une association étroite au contexte, voici les trois facteurs d’un cocktail détonnant alimentant les peurs comme les fantasmes.
Mécaniste ou Naturaliste ?
La sanctuarisation de la nature opérée par les opposants aux deux technologies ne repose pas que sur des bases absurdes ou irrationnelles, comme le fait remarquer Jean-Paul Oury. La vision mécaniste du vivant et de l’homme doit en effet faire l’objet d’une critique sévère.
La génétique a elle-même prouvé que l’équation « un gène = une fonction » était très simpliste. La modification d’un gène infléchit certains caractères physiologiques, mais les nouvelles fonctions dont la transgénèse dote l’organisme sont multiples et très sensibles au contexte. Lorsque nous rendons une plante plus résistante à certains insectes ou capable de produire ses propres défenses en diminuant les pesticides, le résultat final et toutes ses conséquences ne peuvent être appréciés que dans différents environnements, climatiques, biologiques, de qualité de la terre, etc. Toute modification du vivant, qu’elle soit d’origine naturelle ou de main humaine, n’échappe pas au Darwinisme : elle est immédiatement évaluée par son degré d’adaptation à son environnement, à ses facteurs de croissance comme à ses prédateurs. Une fonction biologique n’a aucun sens dans l’absolu, elle n’est correctement comprise que plongée dans la très grande variété de contextes qu’elle devra potentiellement affronter.
Il en est de même de l’IA et des techniques de machine learning. La voiture autonome nous fournit de nombreux exemples d’une IA poussée à ses limites, car comme je l’ai écrit précédemment dans ces mêmes colonnes, elle essaie de reproduire une pragmatique humaine, une action dans un univers sémantiquement ouvert où l’univers des possibles n’est pas délimité, contrairement à des jeux formels comme les échecs ou le go. Les fonctions de la voiture autonome ne sont plus les actions mécaniques de l’ingénieur automobile. Elles sont très sensibles au contexte de conduite et à la situation rencontrée, doivent anticiper les intentions des autres et leur communiquer ses propres intentions.
IA et OGM sont confrontés à un phénomène maintenant bien connu du grand public : celui de l’effet papillon, des variations chaotiques dues à une hypersensibilité au contexte. Dans ces conditions, tout progrès technologique se heurte à un triple mur : non prédictibilité, non traçabilité, irréversibilité. Les sciences qui se sont attaquées aux mécanismes du vivant, de la cognition comme de la génétique, ne ressemblent en rien à l’ingénierie des industriels. La théorie du chaos met fin à tout réductionnisme scientifique : l’on sait par exemple que des prévisions météorologiques parfaitement fiables à l’horizon de quelques jours nécessiteraient de disposer de capteurs quadrillant toute la planète dans chaque mètre carré. Aristote encore semblait avoir eu la préscience de ce dilemme. Le Stagirite avait posé que toute physique devait comprendre deux types de transformations : la δύναμις, puissance du physicien, commandant les chocs mécaniques, la cinématique et la μεταβολή, transformations des états internes, de la thermodynamique et de la biologie. La sortie du positivisme scientifique peut se comprendre comme le passage au premier plan de la μεταβολή, prenant le pas sur la δύναμις.
Dans ces conditions, il est légitime de se poser la question d’une nature considérée comme une série d’engendrements d’une complexité telle qu’elle dépassera toujours notre entendement. Le scientifique moderne étudie la Natura naturata avec une finesse telle qu’il rencontre le secret de la Natura naturans, inexprimable et irréductible à toute formule simple. La Natura naturans, d’origine médiévale et théiste, coïncide en tous points avec le mythe moderne de Gaïa, de la New age et de la Deep ecology. On peut moquer cette forme d’ésotérisme de la nature mais pour ses membres les plus éclairés, il n’est pas tant que cela dénué de justifications, lorsqu’on le relie aux nouvelles frontières de la science moderne, celles de la théorie du chaos et de technologies hypersensibles au contexte.
La position des membres de la deep ecology qui ne se perdent pas dans le mysticisme est dans ce cas cohérente : nous ne pouvons que nous raccrocher à des processus naturels qui resteront le seul véhicule possible des transformations et non en fabriquer nous-même le véhicule. Nous prenons le train de la nature, empruntons ses processus intimes, mais aucune ingénierie humaine ne parviendra à les refabriquer in extenso. Nous ne pouvons qu’être hébergés par les processus naturels, surfer sur leur déroulement pour nous développer, mais en rien ne pouvons-nous les recréer.
Le mythe de l’homme « maître et possesseur de la nature » est définitivement mis à bas, car si nous parvenons à écrire des algorithmes, les algorithmes de la nature sont d’une profondeur qui nous est inaccessible, comme s’ils étaient rédigés à l’aide d’une infinité d’instructions exécutées en un temps fini. Pour reprendre une analogie des sciences de l’information, la nature divine serait semblable à l’ingénieur système qui nous aurait accordé les droits en lecture et en exécution, mais pas les droits en écriture. Toute tentative de prétendre recréer ces droits aboutira à un effet boomerang généralement catastrophique, celui du mythe de Frankenstein, parce que nous n’avons fait qu’être des déclencheurs quand nous pensions être des créateurs.
Si nous allons amorcer dans les paragraphes qui viennent une critique de la position naturaliste pure, il faut en reconnaître les arguments de ses membres les plus éclairés et admettre qu’ils renferment une part de vérité sur les nouvelles frontières que rencontrent aujourd’hui les sciences.
Terminons de leur rendre raison par un exemple historique très important de faillite du positivisme, qui nous permettra cependant de dépasser par la suite la pure vision naturaliste.
La langue des signes, employée par les sourds, est l’une des créations humaines les plus fascinantes qui soient. Celui qui l’étudie ne fait pas qu’apprendre un langage de plus. Il rencontrera le principe de tout langage, comme la matrice de toutes les autres langues, notamment des langues orales. Souvent moquée par ceux qui ne la connaissent pas, la langue des signes est parfois perçue comme une mimique simplifiée et appauvrie de l’expression. En réalité, elle possède un spectre plus étendu que toute langue orale, capable d’exprimer les notions les plus abstraites comme ces dernières, mais enracinée plus profondément et plus explicitement dans les mécanismes fondamentaux du langage, que les langues orales effacent dans leur construction même.
L’usage de la langue des signes fut interdit en France entre 1880 et 1991, à la suite d’un décret aberrant rendu lors du congrès de Milan, pour des raisons prétendument scientifiques. Cette décision catastrophique est emblématique des erreurs que peut commettre le réductionnisme scientifique lorsqu’il est confronté à des phénomènes qui dépassent ses hypothèses. Parce qu’il est gestuel, le langage des signes fut décrété comme « inférieur », proche de l’animalité et de la brutalité, par opposition à l’oralité qui représentait le seul mode civilisé d’expression. Des raisons prétendument scientifiques vinrent à l’appui de cette « thèse », du même ordre que la physiognomonie et l’eugénisme raciste de Sir Francis Galton. Pendant plus d’un siècle, les sourds ne pouvaient accéder à la connaissance que par l’enseignement oralisant (lecture sur les lèvres) et la langue des signes faisait l’objet d’une interdiction d’état.
Dans les années 1970, des comparaisons commencèrent à émerger entre le statut des sourds aux Etats-Unis et en France, constatations dévastatrices pour le congrès de Milan. Les sourds aux Etats-Unis ne souffraient pas de la même interdiction qu’en France et leur communauté accédait fréquemment aux études universitaires, jusqu’au plus haut niveau. La « culture sourde » était pleinement reconnue outre-atlantique. Inversement, les sourds en France étaient cantonnés à une sous-éducation, au point que leur handicap était associé à un retard mental. Les niveaux atteints par les sourds aux Etats-Unis ouvrirent une brèche dans le dogmatisme criminel du congrès de Milan, suggérant que l’analyse de ce qu’était un langage était beaucoup plus complexe que les apparences entretenues par des esprits étroits.
La langue des signes fut heureusement à nouveau autorisée en France à partir de 1991. Emmanuelle Laborit, créatrice des « Enfants du silence » et auteur du très beau livre « Le cri de la mouette » a vécu à cheval entre les deux périodes. Elle décrit l’accès à la langue des signes comme une brèche ouverte dans le ciel.
Parce qu’elle est aussi une gestuelle en plus d’être un langage, la langue des signes retrace l’origine des langues orales. Un mot est au départ l’intercalaire que nous posons entre deux sensations ou deux actions opposées, afin de les différencier. Et préalablement au mot, c’est une sensation physique qui nous avertit de cette délimitation. Le nourrisson réagit à des contrastes élémentaires, chaud et froid, clair et obscur, bruyant et calme, et construit une partition du réel en posant des délimiteurs entre tous ces contrastes. Le monde des émotions et le monde cérébral sont inextricablement liés, ayant développé leur croissance de façon conjointe dès le départ. Il n’y a aucune délimitation stricte entre émotions et raison, pas de raison formelle dénuée d’émotions dans l’exploration de la connaissance.
Les émotions furent longtemps dénigrées comme un manque de contrôle, une incapacité à se servir de sa raison. En réalité, l’homme doué de raison ne condamne pas ses émotions à la mort, il sait faire jouer intelligemment raison et émotions afin qu’elles se répondent. Il cultive les émotions fines au lieu des émotions grossières, mais ne les éteint nullement. Cette réhabilitation des émotions est confirmée biologiquement, comme l’a montré Antonio R Damasio. Le lecteur de Willard V. O. Quine n’est pas surpris par cette confirmation scientifique. Le célèbre philosophe et logicien américain avait déjà décrit le processus d’élaboration et de croissance du langage de cette façon, par un entrecroisement indénouable des sens et de la pensée. La logique n’est pas une construction autonome, suspendue dans un splendide isolement formel. Elle est « dans le même bateau » que l’ensemble des activités cognitives, elles-mêmes liées à nos sens et nos émotions.
La langue des signes nous rappelle en permanence que tout langage est une pragmatique, une codification des mouvements et des contrastes sensoriels, qui nous fait accéder par la suite aux mouvements et aux contrastes abstraits.
Sa condamnation est un exemple à toujours garder en mémoire des dérapages parfois totalitaires auxquels peut mener le réductionnisme scientifique. Les interrogations et découvertes que nous devons à la langue des signes sont du même ordre que les défis posés par la théorie du chaos aux sciences de l’ingénieur. Les constructions de la nature ne se laissent pas facilement enfermer dans des distinctions binaires. Le point de vue naturaliste d’un respect dû à des processus qui dépassent nos capacités de compréhension comporte une part de vérité.
Si nous avons cité l’exemple de la langue des signes, c’est que paradoxalement sa critique du positivisme et son invitation au respect des processus naturels nous montre également la voie pour dépasser l’admiration béate de la nature.
Merci pour ce très beau texte.
Je souhaiterais juste partager une proposition à partir de votre constat que « les algorithmes de la nature sont d’une profondeur qui nous est inaccessible. » Elle nous est certes inaccessible aujourd’hui, et je ne sais pas si elle nous est inaccessible dans l’absolu, en termes de capacité de calcul. En revanche, il me semble qu’elle nous est clairement inaccessible en termes de qualité de ces algorithmes, ou de caractéristique. Il y a une caractéristique qui différencie fondamentalement les algorithmes de la nature et les nôtres, c’est l’indétermination. Les fonctions naturelles sont le fruit des interactions foisonnantes et indéterminées qui fondent le vivant. Or les actions humaines sont, par nature, pré-déterminées par une intention ; que ce soit celle de connaître, de prouver, de conférer une caractéristique, de résoudre un problème donné, etc. L’Homme serait peut-être capable, potentiellement, d’imiter et de recréer la nature, s’il était capable d’agir d’une manière qui ne soit pas pré-déterminée par ses intentions et sa volonté. (Où l’on rejoint à nouveau Aristote et son positionnement contemplatif ?) A l’inverse, dès-lors qu’il recrée le vivant avec une intension, en poursuivant un objectif, ce n’est pas le vivant qu’il crée mais un artefact humain, quelle que soit la ressemblance de cette création avec des composantes observées dans la nature.
Bonjour,
« Lire la deuxième partie » donne un 404 ! Page introuvable !
Bien à vous,
René Gruneisen
Cher monsieur le lien devrait fonctionner désormais. Merci de votre suivi et désolé pour le dérangement