Alors que Sam Altman le fondateur de ChatGPT et 300 autres chercheurs signaient une tribune dans le New-York TImes il y a quelques jours pour dire que l’IA posait un risque d’extinction à l’espèce humaine (1), c’était l’occasion inespérée d’interviewer Luc Julia, le français co-créateur de Siri – l’assistant que connaissent les utilisateurs de l’iPhone. Cet autre géant de l’IA revient sur sa carrière et répond à nos questions en mettant en parallèle son expérience personnelle et les définitions qu’il a données dans son ouvrage « L’intelligence artificielle n’existe pas », avec l’apparition des LLM (large language models). Avec un esprit bien cartésien, Julia ne se laisse pas impressionner par les derniers développements et conduit la conversation en nous invitant à poursuivre un doute méthodique face à une forme de prêt à penser toujours plus accessible, mais qui reste bien dans la catégorie de « l’intelligence augmentée » et n’a rien de magique. Une pensée à méditer pour démystifier l’hystérie collective et retrouver le bon sens.
The European Scientist : En suivant votre carrière, on remonte le fil de l’histoire des technologies de l’information depuis la fin des années 80. Pouvez-vous nous rappeler les étapes dont vous êtes le plus fier ?
Luc Julia : J’ai trois grandes périodes : dix ans de recherches, dix ans de start-ups et dix ans au sein de grands groupes. Dans ma période de recherche je suis fier des brevets (1997) qui ont donné lieu plus tard à Siri (2011). Je suis fier de cette dernière invention, car c’est elle qu’on cite quand on parle de moi, mais je suis surtout fier de ORB, un projet que j’ai mené dans les années 2000 et qui est un condensé de bon nombre de technologies que l’on voit aujourd’hui. On était en avance notamment sur une technologie qui permettait de regarder la TV live sur un smart-phone (des petits Nokia 3620).… A l’époque c’était très compliqué et réservé aux geeks, pour ainsi dire de la science fiction.
Pour résumer ma carrière, j’aime bien compter le nombre de vrais gens que je touche avec mes innovations : ORB, c’est 15 millions de personnes, HP, 80 millions de personnes avec les imprimantes connectées, SIRI, 500 millions de personnes, Samsung, 1 milliard, avec les objets connectés. Tous ces utilisateurs que je peux atteindre et qui sont de vrais gens contribuent à ma fierté.
TES : Vous êtes l’inventeur de Siri, l’assistant vocal que des millions d’utilisateurs de l’iPhone connaissent et utilisent au quotidien. Selon vous il doit son succès « à l’introduction de la stupidité artificielle » Que vouliez-vous dire ?
LJ : N’oublions pas Adam Cheyer qui est le co-créateur de Siri… dans les années 90 nous concevions des agents ; on réfléchissait au concept de « The Assistant ». C’était l’arrivée du web. Siri est venu 14 ans plus tard. La « stupidité artificielle » c’est pour rappeler qu’« on n’est pas des génies » ; on n’est pas si fort que ça en reconnaissance de la parole, en langage naturel… Mais on a compris ce qu’était l’interaction entre des humains et des machines (Human Computer Interaction). Pourquoi pas alors créer quelque chose d’anthropomorphique, et puisqu’on est imparfait on a créé un système qui n’est pas parfait (représenté au début par un petit vieux un peu sourd). C’est « OK de ne pas comprendre »… Nous n’étions pas des génies qui faisaient de l’IA parfaite mais de la stupidité artificielle imparfaite. Ainsi l’agent devenait plus humain. On veut atteindre le parfait, mais il n’existe pas…
C’est pour cette raison également que je dis que l’IA n’existe pas… Et il faut cesser de croire à la quête de la perfection. C’est impossible. Quand on parle de ChatGPT et de ces nouvelles IA on leur prête des capacités bien plus importantes que ce qu’elles sont vraiment. Il faudrait se calmer un tout petit peu et essayer de comprendre quelles en sont les limites. Car toutes les IA ont des limites. Il ne faut pas les déifier et surtout il faut les comprendre. Le problème avec les IA génératives aujourd’hui est qu’on n’essaye pas de comprendre leur pertinence. Les médias se sont beaucoup excités, notamment sans identifier les problèmes.
On n’a pas eu d’étude de pertinence pour évaluer la fiabilité de ChatGPT pendant les trois premiers mois. Ca n’est arrivé qu’au mois de Février avec une étude de l’Université de Hong-Kong qui a montré que la pertinence de ChatGPT sur des millions de « faits vrais » c’est 64% (2). Et donc on n’a pas pris le temps d’y réfléchir. On a parlé beaucoup d’hallucination. Les machines sont programmées pour répondre quelque chose… et des fois c’est n’importe quoi. Mais il y a un problème de pertinence, qui fait que les réponses peuvent être fausses (36% c’est embêtant !). Pourquoi déifier ce machin ?
Par contre en ce qui concerne les « IA génératives » on ne s’est pas trompé de nom (contrairement à l’intelligence artificielle). Il est très important que l’on n’appelle pas ça intelligence artificielle « créative » … La créativité reste du côté du « prompt »… c’est là que réside la créativité, non dans la génération. Il n’y a aucune difficulté pour demander à ChatGPT de démontrer que « la terre est plate »… l’IA va aller chercher tous les éléments pour démontrer une théorie qui est fausse.
TES : En 2019, vous avez voulu démystifier le concept d’IA dans un livre intitulé « l’Intelligence Artificielle n’existe pas ». Quelle était votre intention ? Quelle fut la réception de cette affirmation et quelle est son actualité ?
LJ : Le but du jeu était d’expliquer qu’il n’y avait rien de magique. Qu’il y avait des IA et non une IA et que ces intelligences étaient spécialisées et fortes dans chacun de leurs domaines, mais qu’elles étaient très très loins d’une intelligence artificielle générale (AGI) où là ça correspondrait à quelque chose qui pourrait nous ressembler. L’IA c’est une boite à outil dans laquelle il y a de multiples outils, avec de multiples fonctions spécialisées dans ce qu’on essaye de lui faire faire. Ce n’est pas de la science fiction mais quelque chose d’extrêmement puissant dans ce pour quoi on l’utilise. Mais qui peut être excessivement nuisible si on l’utilise à mauvais escient. Un marteau peut être utilisé à mauvais escient, mais qui tient le manche ? C’est bien nous. C’est toute l’histoire que raconte mon livre qui a été très bien reçu… un franc succès car c’était ce que les gens voulaient entendre : une démystification du machin… En 2018-2019 il y avait des gens qui n’y connaissent rien qui racontaient absolument n’importe quoi sur l’IA… Certaines de ces personnes ont écrit plusieurs livres sur le sujet sans rien y connaitre.
Pour revenir à mon ouvrage, il est on ne peut plus d’actualité car il y a eu des accélérations avec l’arrivée d’IA génératives auxquelles on donne des pouvoirs hollywoodiens. Il faut comprendre au lieu de s’exciter. Le mot « générative » n’est pas dans le bouquin de 2019, car ça venait juste d’être développé mais ce qu’il faut comprendre c’est que cela concerne toutes les IA.
TES : Vous parlez d’un « malentendu » autour du nom donné à la discipline (l’IA) vous préférez le terme d’intelligence augmentée… Les LLM de types ChatGPT rentrent-ils dans votre analyse ?
LJ : L’intelligence augmentée c’est pour faire un jeux de mots en gardant les initiales IA et signifier que c’est notre intelligence qui est augmentée par ces outils. Il ne s’agit pas de parler de la discipline en elle-même. Par définition le fait d’utiliser ces outils cela va consister à nous augmenter. Cette boite à outils va nous permettre de voir mieux, de conduire mieux … du coup ça nous augmente dans ces capacités intellectuelles. La meilleure définition que j’ai donnée c’est celle d’une boite à outils…
TES : Vous critiquez les prophètes de l’inexplicabilité…Notamment dans le Machine Learning. Pourquoi ?
LJ : Ce n’est pas vraiment une critique. C’est toujours compliqué d’expliquer les choses qui sont compliquées. Il ne faut pas donner un pouvoir magique à ces boites noires. La vérité c’est que quand les gens inventent une intelligence artificielle, ils ont deux choix à faire : le choix des algorithmes et le choix des data. Cela ne veut pas dire que les data ne sont pas biaisées ou que l’algorithme n’a pas des bugs. La personne qui fait ce choix a une certaine idée de ce vers quoi le système va tendre, et donc elle est capable d’expliquer pourquoi elle va vers ce data-set, pourquoi elle choisit cet algorithme. Vous comprenez donc pourquoi ce n’est pas une boite noire. C’est compliqué à expliquer car les algorithmes font des millions de calculs à la seconde et il y a beaucoup de data. C’est compliqué par contre d’expliquer pas-à-pas les millions de calculs et de dire également comment les data sont transformées. Tout est parfaitement transparent pour celui qui créé … par contre, celui qui reçoit peut croire que c’est magique. Le meilleur exemple et celui de l’équation de la récursivité de Gaston Julia rendue compréhensible par sa transposition sur ordinateur en fractales par Benoit Mandelbrot. Cela dépend du point de vue où on se place mais on peut toujours trouver une méthode pour expliquer ce qui se passe.
Nous pouvons parler également du débat philosophique « inné vs acquis » ; Un autre français célèbre Yann Le Cun pense qu’il n’y a que de l’acquis dans l’IA. Personnellement je suis persuadé qu’il y a aussi de l’inné. Selon Le Cun, sachant qu’il n’y a que de l’acquis une machine pourrait tout apprendre et se positionner au niveau de l’humain. Moi je dis que ce n’est pas possible, car l’inné, je ne sais pas l’attraper et donc je ne sais pas l’apprendre. C’est la petite différence que l’on a. Moi je pense que les deux existent. Il faut se poser la question de la définition du sens commun, par exemple. Est-ce de l’innée ? Je n’ai pas la réponse. Il y a plein de choses que je ne sais pas expliquer. Que dire des sentiments. Par exemple « l’empathie »… je ne sais pas ce que c’est l’empathie. Je ne peux pas apprendre l’empathie à un robot. Je vais vous raconter l’histoire d’un robot qui a pour mission d’amener un objets d’un point A à un point B. Il fait son job. Un jour une personne âgée a une crise cardiaque et s’écroule au milieu du tracé que le robot accomplit. Que fait le robot ? Il contourne le corps de la personne âgée… On ne sait pas ce qu’est l’empathie. Il y a des choses qu’on ne peut pas programmer, qu’on ne peut pas prévoir.
Par Conseil économique social et environnemental, CC BY 3.0, https://commons.wikimedia.org/w/index.php?curid=85369571
TES : Récemment Elon Musk a de nouveau appelé à faire une pause, et il y a eu l’appel aujourd’hui de Sam Altman ( le fondateur de GPT) et de 300 chercheurs dans le NYT. Vous critiquiez le manque de maitrise du sujet de Musk en 2019… Est-ce toujours le cas aujourd’hui ?
LJ : Encore plus que jamais. On savait déjà qu’il était spécial (voir l’épisode du rachat de Twitter). Son appel à faire une pause, remonte au 28 mars 2023. Le 28 février 2023, ce brave Elon créé une boite d’IA générative. Il l’a créée pour faire une IA générative anti-woke. Parce qu’évidemment toutes les IA sont des gauchistes patentées. Il faut créer une IA qui a la vérité. Donc cet appel à faire une pause de six mois, ça veut dire « attendez les gars que je travaille avec mes équipes pendant six mois pour pouvoir rattraper les autres. »
Concernant l’appel du fondateur de ChatGPT, je n’en n’ai pas encore la connaissance détaillée. Mais il me semble que la demande de faire un moratoire quand c’est pour dire « il faut arrêter de faire des recherches » c’est idiot, car on ne peut pas arrêter de faire de la recherche. Par contre, réfléchir à de la réglementation pour faire que les applications des IA soient comprises et réglementées…Evidemment qu’il faut faire ça.
Evidemment il faut réglementer l’outil. Il y a plein d’IA qui peuvent faire des dégâts (reprenez notre image du marteau). On ne réglemente pas la recherche, on réglemente l’application. Et c’est ce que dit Yann Le Cun dans un article récent. On est capable de démontrer que dans certains cas il y a des dérives et donc on va décider de ne pas faire certaines applications ou on va les encadrer, pour qu’elles soient utilisées à bonne escient.
Il faut également se poser des questions relativement à l’environnement. ChatGPT, c’est 175 milliards de paramètres, il faut des millions de dollars pour pouvoir les entrainer et les stocker sur des data centers… C’est une aberration écologique.… surtout pour un résultat de 64% de pertinence. Donc prenons des modèles beaucoup plus frugaux, beaucoup plus utiles, beaucoup plus intéressants et regardons comment ça marche. Utilisons plutôt les IA pour faire en sorte d’optimiser les ressources. C’est une question de balance. On a eu besoin de 440 KWh pour qu’Alpha Go aille battre le maitre du jeu de Go… ca ne sert à rien. Le cerveau humain ne consomme que 20 Wh. On sait que l’on va droit dans le mur, parce qu’on utilise trop de ressource. Essayons d’être intelligent.
TES : Au niveau mondial, l’IA semble être sortie de l’hiver dans lequel elle était plongée. Mais l’UE et la France, elles, semblent s’y trouver encore. Comment expliquer ce retard ?
LJ : Je ne pense pas qu’on ait du retard, et notamment du point de vue scientifique. Il suffit de regarder tous les chefs des IA dans la Silicon Valley. Ce sont tous des Français. Ils sont tous chez Google, chez Facebook… Alors oui ils ne sont plus en France. Mais la perception de la science elle-même, on l’a. Pas mal de ces inventions numériques et même certains algorithmes de cyber-sécurité qui sont purement mathématiques, ce sont des Français. On le doit à notre école de mathématique française. Il suffit de voir le nombre de médailles Fields qu’on a. On est un peuple de matheux depuis Pascal, puis le Siècle des Lumières… Certes on a un problème avec notre modèle scolaire qui laisse beaucoup de gens sur le côté de la route, mais les élites mathématiques sont extraordinaires. Donc on est les meilleurs avec les Russes et les Indiens…
Je ne pense pas qu’on ait du retard dans l’IA, on a du retard dans l’application de l’IA. Il faut se demander pourquoi. En 2012-2013, on a rétablit la valeur de l’entrepreneuriat (un mot français qui avait disparu depuis les années 70 et qui revient à la mode). On reprend le goût de l’entrepreneuriat sous l’impulsion de Fleur Pellerin qui lance la French Tech avec la BPI, à cette époque on a créé des Start-ups. Mais le soucis c’est que contrairement à la Silicon-Valley, on ne sait pas faire de scale-up, c’est à dire une augmentation de capital pour passer à l’échelle supérieure. La BPI soutient toutes les start-ups dans leur phase d’amorçage, mais après on ne trouve plus personne pour distribuer des centaines de millions de dollars nécessaires au scale-up. Parce que les capital-risqueurs sont plus prudents en Europe. Dans la Silicon Valley l’échec est accepté, contrairement à la France où ça n’est pas le cas. On n’ose pas. Nos licornes on en a peu. Sur les 25 qui existent depuis 2012, il y en a 2 ou 3 qui sont mortes.
Donc on n’a pas de retard du point de vue scientifique, mais du point de vue économique. Les Chinois et les Américains n’ont aucun problème par rapport à ça et sont prêts à nous écraser. En plus on se flagelle notamment avec Bruxelles qui veut tout réglementer, y compris la taille des tomates.
Je ne suis pas anti-réglementation mais je veux juste qu’on réglemente d’une manière qui ait du sens. On est en train de travailler sur une IA act, les brouillons sont sortis l’année dernière, il n’y avait pas d’IA générative, mais ça va arriver. Il est nécessaire que des spécialistes aident les technocrates à rédiger ces textes, car sinon on va continuer de se tirer une balle dans le pied. Notez que tout en disant cela, je suis pro RGPD, même si cette réglementation n’a servi à rien à part aider les gens à comprendre pourquoi il fallait faire une réglementation. Les gens font désormais plus attention à leurs données personnelles. La RGPD a eu une vertu éducative.
TES : Vous qui avez vécu aux USA, vous soutenez qu’il ne servirait à rien de tenter de refaire une Silicon Valley à Saclay. Pourquoi ? Et que faire alors ?
LJ : Je suis toujours en phase avec cette idée. D’autant plus que j’ai sorti un autre livre qui s’appelle un Français dans la Silicon Valley. C’est impossible de recréer la Silicon Valley. C’est un état d’esprit hérité de la conquête de l’Ouest. C’est un melting pot qui est né avec la ruée vers l’or avec des gens de différentes nationalités. Il y a une émulation entre des gens qui viennent s’entraider pour trouver la pépite. La pépite en 1850 c’était l’or, en 1950 c’est le silicone, d’où le nom. Après sont venus Internet, puis le téléphone, puis les réseaux sociaux… La Silicon Valley ce sont des gens qui viennent chacun avec leur prisme. J’aimerais bien comprendre où se trouve le melting-pot à Saclay ? Ce qui est intéressant c’est le chiffre d’ingénieurs non américains dans la Silicon Valley : 62%… 38% seulement donc sont américains. Saclay, on doit être aux alentours de 90% de Français. Je ne suis pas un défenseur du « multi-culturalisme pour le multi-culturalisme »… mais c’est un état d’esprit et celui-ci ne se décrète pas. Sophia-Antipolis fit l’objet d’un décret…. On a vu où cela nous a mené.
TES : Les médias et les politiques, mais également l’opinion s’inquiètent-ils à tort des destructions d’emploi que pourraient causer une robotisation croissante de notre industrie et la fulgurence récente des LLM ? Ont-ils raison ?
LJ : On parle souvent de métiers éliminés. La vérité c’est que ce sont des tâches qui sont éliminées. Les robots et les programmes informatiques éliminent généralement les tâches répétitives et automatisables, parce que c’est inintéressant et fatiguant. Ce phénomène existe depuis la nuit des temps. Il se trouve que de temps en temps il y a une grosse quantité de tâches dans un métier qui sont éliminées et le métier lui-même est éliminé. Ca n’arrive pas souvent car le plus souvent de nouvelles tâches sont créées et le métier reste. L’utilisation de l’outil lui-même est une tâche et on espère que ça va rendre le métier plus efficace, plus productif. Ce raisonnement s’applique à l’IA. Parfois certains métiers disparaissent totalement comme par exemple le charon qui faisait des roues en bois. Avec l’IA, il y a des métiers qui vont être éliminés, mais également des tâches qui vont être ajoutées à certains métiers. Et il y a un certain équilibre qui va se créer dans la société… Peut-être va-t-on décider de travailler moins ? L’idée même d’utiliser l’outil va être qu’on en fasse moins et mieux. Je ne suis pas inquiet, mais il est certain que des métiers ainsi que des tâches seront en difficulté et c’est là que les Ressources Humaines doivent anticiper pour aider les gens à utiliser l’outil IA et les changements qu’il implique. Les tâches qui restent sont celles qui sont vraiment humaines et ne sont donc pas remplaçables (du moins pour le moment), c’est là que l’on perçoit toute la valeur ajoutée de l’humain.
TES : Vous invitez les jeunes à développer leur esprit critique et à ne pas se laisser impressionner par certains discours mystificateurs sur l’IA. N’est-ce pas trop tard ?
LJ : Non ce n’est pas trop tard… même si je vois des jeunes qui ont le nez dans Tik-Tok en permanence. Ca m’inquiète un peu, mais globalement, on peut faire comprendre, expliquer et inciter à l’esprit critique. Surtout le monde dans lequel on est avec ce ChatGPT, il est important de comprendre qu’il n’a pas forcément raison. Il faut se rappeler cette pertinence dont on parlait plus tôt. C’est le même genre d’interrogation que l’on pouvait avoir jadis avec, par exemple, l’Encyclopedia Universalis. Parfois on trouvait des trucs bizarres et on allait vérifier ailleurs. Cet esprit critique doit exister quel que soit l’outil qu’on utilise. Aujourd’hui l’accès à l’information (bonne ou mauvaise) est beaucoup plus facile et donc l’information n’est peut-être pas aussi réfléchie et aussi correcte qu’avant. Puisque l’accès à l’information est d’autant plus facile, l’esprit critique devrait être encore plus important, parce qu’on doit savoir que l’outil est moins performant. La performance d’Universalis était aux alentours de 95%, je dirais 80% pour Internet et aujourd’hui 64% pour ChatGPT. Cela nous donne l’opportunité d’être bien meilleur pour aller critiquer le machin et à la fin de douter. Car il faut toujours douter.
TES : A la fin de votre ouvrage vous décrivez un monde futuriste reposant sur l’IOT… il semble assez clair dans cet univers que les robots doivent nous assister sans penser à notre place. Par contre rien ne nous dit que ce n’est pas l’ambition principale des protagonistes des LLM. Ne pensez-vous pas que c’est là que réside le principal danger de l’IA ?
LJ : Le principal danger de l’IA c’est nous. C’est la manière dont on va tenir le manche du marteau. Notez bien que le monde que je décris n’est pas un monde idéal. Je dis juste tout ce qui pourrait être possible… j’ai d’ailleurs forcé le trait : je n’ai pas envie de manger des pizzas imprimées, ça ne m’a même pas traversé l’esprit. C’est juste que la technologie doit pouvoir être utilisée par les gens comme ils le souhaitent dans les limites que la société s’est fixée. Il y a plein de choses qui sont possibles mais la mauvaise utilisation de ces technologies ne reposent que sur nous-mêmes et notre culture de la compréhension de la technologie elle-même.
(1) https://www.nytimes.com/2023/05/30/technology/ai-threat-warning.html
(2) https://arxiv.org/pdf/2302.12095.pdf
Image par Pete Linforth de Pixabay
A lire également
Qu’attend-t-on pour développer la ferme du futur en Europe ?
Agriculture numérique : de nouveaux outils pour la science à la ferme