Beaucoup d’encre a déjà coulé au sujet de ChatGPT et il est difficile d’en rajouter. L’appel à un moratoire signé par Elon Musk et un groupe d’experts nous interroge toutefois. Ayant lancé une série sur le robot conversationnel d’Open AI, nous saisissons l’occasion pour faire un point intermédiaire sur le sujet.
Un Asilomar de l’Intelligence Artificielle ?
Ce n’est pas la première fois qu’Elon Musk interpelle sur les dangers de l’IA. En 2015, plus de 1000 experts avaient signé une lettre pour tirer la sonnette d’alarme sur les armes autonomes. A ses côtés ont trouvait des figures tels que Noam Chomsky ou encore Stephen Hawking… c’est à cette même époque également que Google avait abandonné son Projet Maven …
Mais pour essayer de comprendre la philosophie de l’initiative, il est utile de prendre davantage de recul. C’est assez rare, mais il existe d’autres précédents dans l’histoire du progrès technologique où des experts appellent à s’auto-limiter, ce fut le cas notamment à la conférence d’Asilomar en 1975. En juillet 1974 le biochimiste Paul Berg a pris la tête d’un groupe d’éminents biologistes moléculaires pour écrire un appel dans le journal Science. Le groupe y rappelait qu’étant donné le potentiel destructif des travaux entrepris par le génie génétique, il était nécessaire de faire une pause, jusqu’à ce qu’on réfléchisse vraiment à l’ensemble des implications, démarche qui a donné lieu à un moratoire signé à Asilomar en Californie. L’historien des sciences Robert Bud a souligné que « les contributions historiques d’Asilomar étaient un appel sans précédent pour une pause dans le domaine de la recherche jusqu’à ce que celle-ci soit régulée de telle manière que le public n’ait pas besoin d’être anxieux, et cela a, en effet, conduit à un moratoire de 16 mois jusqu’à ce que les directives du NIH soient valables au milieu de 1976 » (1). A l’époque on a commencé à s’interroger sur la notion de risque-bénéfice et la possibilité de faire certaines expérimentations au sein d’un laboratoire. Notons que c’est à la même époque que sont apparus les premiers contestataires des biotechnologies.
De la même que l’appel d’Asilomar n’a pas empêché le développement des biotechs, on peut en déduire que l’appel à un moratoire sur les LLM (Large Language Models) s’il est suivi d’effet, n’empêchera pas le développement de ces derniers à plus long terme. Ce genre de moment peut être salutaire pour soulever certaines questions si on sait se garder d’un travers alarmiste. En effet, si le parallèle est respecté sachant que les mêmes causes produisent les mêmes effets, cela pourrait causer l’apparition de mouvements contestataires de l’IA, de la même manière que certains mouvements anti-biotechnologies ont vu le jour à Asilomar notamment avec un militant de première heure telle que Jérémy Rifkin, encore étudiant à l’époque.
Chasser les fantasmes et poser les vraies questions
Les protagonistes de l’IA devraient davantage se pencher sur le cas des biotechnologies car les similitudes sont nombreuses comme nous l’avions montré jadis en nous appuyant sur les réflexions de la notion d’objet technique de Gilbert Simondon (2) … Cette peur n’est pas celle d’une trop grande maitrise, mais bien d’une perte de contrôle de l’objet technique que partage en commun les biotechnologies et l’IA. Ce moratoire pourrait être utile également si on commençait par réfléchir sur le type d’objet technique que constituent les LLM. Aussi si on veut arrêter de fantasmer on peut regarder la conférence de Luc Julia (3), l’inventeur de Siri et l’un des meilleur expert en matière d’intelligence artificielle francophone dans laquelle il explique pourquoi quelque chose tel que l’intelligence artificielle n’existe pas « There is no such thing as Artificial Intelligence »… Dans cette conférence l’expert tue dans l’oeuf le fantasme d’une IA « conscience autonome et surpassant l’homme » propagée par Hollywood et les médias. A propos de ce sujet, comme nous aimons le rappeler, il est paradoxal que les mêmes qui appliquent spontanément un modèle mécaniste à l’homme en affirmant qu’il est totalement déterminé (4), sont également ceux qui croient volontiers à l’avènement d’une IA autonome, sorte de conscience qui pourrait se libérer de son créateur….
Une fois le fantasme dissipé donc, on ne peut s’empêcher de lister les risques présentés par l’IA. C’est ce qu’a fait Marc Rameaux, notre expert du sujet auteur de nombreuses analyses dans nos colonnes, dans une interview qu’il nous a consacrée. L’un des principaux risques étant selon lui : « La prétention à l’objectivité de la production par une machine peut amener l’humain à démissionner de la responsabilité de ses décisions, s’en remettant à cet oracle de Delphes 3.0. » ; à cela s’ajoute des craintes qui refont surface : « chaos semé dans le milieu scolaire, affaiblissement des capacités cognitives humaines si elles se reposent trop sur ce type d’outil, menaces sur l’emploi de nombreuses professions. » On recommande la lecture de cette longue interview pour se faire une idée exhaustive du sujet, ainsi que le texte complémentaire sur les test qu’il a imaginés pour mettre à l’épreuve GPT.
Mais revenons au moratoire. Récemment Thierry Berthier également auteur dans nos colones vient de publier un article dans Atlantico (5) pour dire qu’avec ou sans moratoire la course à l’IA générale était lancée. Il a classé les « demandeurs de pause » en quatre catégories : ceux qui veulent jouer la montre pour rattraper le temps perdu, ceux qui veulent appliquer le principe de précaution car ils confondent IA forte et AGI (AGI, Artificial General Intelligence), ceux qui veulent encadrer le progrès sous toutes ses formes et ceux enfin, qui sont décroissants et contre le progrès. Berthier conclut en disant que la France et l’Europe en général, avec ou sans pause, risquent le plus gros, car l’absence de développement de l’AGI sur le continent va impacter toute notre société dans son ensemble et nous allons être toujours plus dépendant de ceux qui auront pris le train à temps.
Accélération du rythme de l’Algorithmocratie
Même si les dangers ne sont peut-être pas ceux que l’on fantasme (on renverra également le lecteur à nos interrogations de jadis sur l’ IA prof de philo et l’IA président de la République), ils ne sont pas pour autant inexistants et la pause ne servira sans doute pas à grand chose, même si elle permet de lister un certain nombre de questions et d’expliciter des réflexions.
Dans la série que nous avons lancée au sujet de Chat GPT, nous avions sollicité des experts reconnus afin qu’ils interrogent le robot conversationnel sur leur sujet d’expertise. C’est ainsi que Philippe Stoop a obtenu des réponses sur les OGM, le glyphosate et le rendement du blé, Gérard Rass sur la sécurité alimentaire et Christian Semperes sur le nucléaire civile. D’autres sont encore à venir. Si chacun des experts a été bluffé par les réponses qu’il a réussi à obtenir, tous ont constaté toutefois l’existence d’un biais.
On ne peut sans doute pas y voir une raison suffisante pour arrêter le développement de l’IA mais toutefois pour s’interroger sur cette tendance qu’elle aura forcément à créer du prêt-à-penser pour servir l’agenda des algorithmocrates qui cherchent à prendre le pouvoir. Dans Greta a ressuscité Einstein (6), nous développons ce concept dans un chapitre dédié en montrant comment les politiques et idéologues utilisent les algorithmes pour mieux implémenter certaines idéologies dans l’opinion. Pour ne prendre qu’un exemple, c’est le cas du Lifestyle simulator dont l’objectif est de mesurer l’empreinte carbone de l’individu en fonction de son mode de vie. Comme nous le démontrons l’algorithme en question présente de nombreux biais méthodologiques et idéologiques. Aussi, la tendance générale que l’on voit se dérouler et que nous mettons au jour c’est qu’un algorithme est utilisé pour inculquer un mode de pensée et empêcher l’individu de penser par lui-même en le forçant à accomplir certaines actions qui seront légitimées par «La Science » (autrement dit, les règles dudit algorithme). Comme on le voit, les algorithmocrates débordent d’imagination pour inventer de nouvelles applications qui leur permettront de mieux contrôler les populations et de dérouler leurs plans… le parangon étant sans aucun doute le Crédit Social à la chinoise. Ces applications respectent toutes le schéma de la cybernétique de type II (dite artificielle) dans lequel les planificateurs ont fait ce rêve de demi-dieu « ayant fait un voyage auprès des dieux avant de revenir régner sur terre ».
Sans aucun doute, c’est là le plus grand danger que nous fait courir ChatGPT : nous propulser dans l’univers idéologique de ses créateurs et l’instituer comme nouvelle norme. Elon Musk ne s’y est d’ailleurs pas trompé quand il a reproché à Sam Altman de dresser son robot conversationnel à penser selon l’idéologie Woke (7) et c’est peut-être là la principale raison qui motive cet appel : réfléchissons un instant tant que nous pouvons encore penser par nous-même et avant que nous ne soyons plus capable de réfléchir en dehors de ces prothèses cérébrales que certains voudraient nous imposer…
(1) Robert Bud, The Uses of life, a history of biotechnology, Cambridge University Press, p.175
(2) « Ne peut-on pas parler d’une forme « d’intelligence artificielle des PGM » qui s’exprimerait par l’acquisition d’une autonomie de la technique ? On a peur que la technique internalisée par les plantes échappe à l’homme. Encore une fois, il est frappant de constater que la contamination des autres cultures par le pollen de PGM reste une crainte sans précédent. Elle exprime les angoisses de certains qui voient le geste technique acquérir une totale indépendance dans la nature et échapper à la maîtrise de l’homme. Certains partisans, au contraire, y ont vu l’occasion d’affirmer – parfois sans fondement – que tout était possible. N’y-a-t-il pas alors, une forme de fascination dans le nouveau rapport technologie-nature initié par les PGM ? » Jean-Paul Oury, La Querelle des OGM, « L’intelligence artificielle » des PGM (PUF 2006), pp.219-226
(3) There is no such thing as Artificial Intelligence|Luc Julia| DSC Europe 2022 https://www.youtube.com/watch?v=6prCHASkavM
(4) Problème largement débattu par le philosophe Raymond Ruyer dans son classique, La cybernétique et l’origine de l’information https://amzn.eu/d/5SlcGdK
(5) La course à l’IA générale est lancée, avec ou sans moratoire https://atlantico.fr/article/decryptage/la-course-a-l-ia-generale-est-lancee-avec-ou-sans-moratoire-chatgpt-llm-cyberespace-agi-intelligence-artificielle-openai-thierry-berthier
(6) Jean-Paul Oury, Greta a ressuscité Einstein: La science entre les mains d’apprentis dictateurs https://amzn.eu/d/gPSCY0o
(7) OpenAI’s CEO Sam Altman admitted in February that « ChatGPT has shortcomings around bias, » and said his company is « working to improve it. » https://www.foxnews.com/politics/elon-musk-critics-woke-ai-tech-set-out-create-their-own-chatbots
Image par Gerd Altmann de Pixabay
Avant la généralisation des réseaux sociaux, les croyances affirmées s’arrêtaient aux portes des bars voire aux repas de famille du dimanche. Aujourd’hui, un prix Nobel pèse le même poids qu’un théoricien de comptoir sur un réseau social.
En créant des robots comme ChatPGT, ces derniers répètent ce qui est écrit sur le net. Comme sur le net c’est la jungle, un expert de comptoir autoproclamé a autant de poids qu’un prix Nobel et comme c’est répété par ChatGPT, c’est LA vérité vraie. On est passé de vu à la télé à vu sur les réseaux sociaux et maintenant vu sur ChatGPT. Parole d’évangile.
Comme le dit Etienne Klein, physicien et philosophe de la science « l’important n’est pas que ce soit vrai, l’important est que ce soit cru ».
La science au service de la propagande. « La science aux mains d’apprentis dictateurs » comme dirait Jean Paul Oury dans son livre « Greta a ressuscité Einstein ».