Les débats concernant l’IA, ses bénéfices ou ses impacts sur la société, ont pris une ampleur qui laisse derrière elle la question très simple de ce qu’elle est. Au point que beaucoup de réflexions sur l’IA tiennent plus du fantasme rêvé ou cauchemardé que de la véritable analyse. Retourner à une définition de ce qu’est l’IA permettrait de s’en faire une idée équilibrée, de ne pas refuser ses apports considérables comme de parer à ses dangers, qui ne se trouvent pas là où on l’imagine.
Première tentative de définition : « Production par une machine de processus similaires aux processus cognitifs de l’être humain. »
Cette définition a le mérite d’être suffisamment générique pour embrasser toutes les facettes de l’IA. Il faut en effet garder en tête la distinction entre IA cognitiviste et IA connexionniste, celle qui tente de modéliser le raisonnement humain et l’inférence (systèmes experts, systèmes à base de connaissance, logique floue, inférence bayésienne, …) et celle qui emploie des réseaux connectés dont les liaisons se renforcent ou s’amoindrissent pour s’adapter à la réponse attendue, les réseaux de neurones étant bien entendu leur représentant emblématique. L’engouement et les résultats obtenus par ces derniers font trop souvent assimiler l’IA aux NN, mais il faut se garder de cette simplification.
Cette première définition ne tarde cependant pas à révéler plusieurs failles. En premier lieu, l’IA peut atteindre des performances comparables à celle de la cognition humaine sans chercher à imiter celle-ci. La plupart des logiciels joueurs d’échecs consistent essentiellement en un moteur d’exploration d’arborescence bien optimisé et d’une fonction de score très finement ajustée. Rien qui ne ressemble à la cognition humaine, notamment parce qu’elle déroule une puissance de calcul très supérieure à celle de n’importe quel être humain. Le résultat final ressemble à une intelligence : lorsqu’elle joue aux échecs, la machine semble douée d’intention et de raisonnement. En arrière-plan, il ne s’agit que d’une puissante exploration combinatoire.
Par ailleurs, même les IA fondées sur des mécanismes inspirés de la biologie humaine, tels que les réseaux de neurones, n’ont qu’un lointain rapport avec les neurones biologiques du cerveau. Les NN démontrent davantage l’importance des mécanismes de renforcement et d’auto-organisation de réseaux d’automates qu’une parenté avec la biologie. La première approche naïve de l’IA est de penser qu’il faut créer un humain de synthèse ou un cerveau de synthèse pour produire une cognition : en réalité, celle-ci n’a nullement besoin d’être anthropomorphique.
Ceci nous amène à la :
Deuxième tentative de définition : « Capacité d’une machine d’atteindre des performances égales ou supérieures à celles de certains processus cognitifs de l’être humain. »
Cette définition se place sur le plan du résultat final, sans présupposer une imitation des mécanismes biologiques. Nous couvrons ainsi le champ de tout ce que la machine sait faire en semblant douée d’une intelligence, d’une capacité de raisonner ou d’une stratégie déployée en vue d’un certain objectif, sans que les processus sous-jacents soient nécessairement calqués sur ces capacités.
Mais là encore, cette définition se heurte à une frontière complexe à identifier. Si l’on se place sur le plan de la performance pure, en écartant toute tentative d’imitation de la cognition humaine, beaucoup de traitements informatiques classiques rentreraient dans cette définition, sur des tâches que nous qualifierions d’intelligentes.
Le recoupement d’informations par exemple, fait de l’ordinateur un champion de Cluedo ou de Mastermind sans besoin d’IA. Nous ne nous rendons plus compte des progrès accomplis dans certains domaines de l’informatique parce qu’ils sont considérés comme acquis, tel le requêtage SQL sur des grandes bases de données. Toutes ces techniques parviennent à un résultat qui extérieurement semble l’œuvre d’une intelligence et dépasse même largement l’humain dans leur domaine, sans qu’il soit jamais question d’IA.
Ce qui nous étonne dans les techniques d’IA est qu’elles parviennent à traiter d’une nouvelle gamme de problèmes qu’il serait impossible de résoudre par de la programmation classique. Les premiers succès de l’IA furent remportés non sur de la cognition mais sur de la perception, celle de la reconnaissance d’images ou d’écriture manuscrite, c’est-à-dire des objets présentant de très nombreuses petites variations qui échappent au pur calcul combinatoire.
Il semble donc difficile de définir l’IA indépendamment d’une mesure de la complexité des problèmes qu’elle sait adresser. L’IA a permis certaines percées dans la résolution de problèmes NP-complets, par exemple celui du voyageur de commerce. L’un de ses domaines de prédilection est également celui de la reconnaissance de « patterns » au sein d’une série de signaux continus, sans que l’on sache si ces problèmes peuvent être qualifiés de NP-complet sur le plan de leur complexité.
Au-delà de leur classification dans les échelles traditionnelles de la complexité, les problèmes que l’IA a ouvert à la résolution sont ceux qui dépassent le traitement par des expressions conditionnelles, ceux qui ne se résument pas à une analyse de cas simples par les inférences si… alors… L’IA s’applique bien à des problèmes « presqu’automatiques » : ceux qui sont suffisamment routiniers pour être abordables par une machine, mais présentant d’innombrables nuances de variations qui ne permettent pas l’automatisme brut.
On peut exprimer ceci en disant que l’IA ne se contente pas de connaissances déclaratives, mais fait intervenir les « connaissances procédurales » : les problèmes posés à l’IA ne sont pas résolus par l’écriture d’une spécification explicite, même de plusieurs milliers de pages. Une partie de leur résolution est « noyée » dans l’algorithmie elle-même, dans le déroulement de la procédure lors de son exécution, notamment lorsqu’elle fait intervenir des heuristiques.
Notamment, la reconnaissance de « patterns continus » tels que l’écriture ou l’action à réaliser par un véhicule en situation de conduite sont de bons exemples de telles connaissances implicites. Il s’agit de distinguer entre de très subtiles nuances continues de plusieurs signaux. Toute étude de cas par des règles conditionnelles simples est alors vouée à l’échec. Les approches naïves de la conduite automobile autonome essaient de trouver des règles fixes de sécurité, tels que des seuils limites de distance de sécurité, d’accélération, etc. De telles règles éclatent sous les coups de la complexité des situations, car les exceptions se mettent à fourmiller dès l’énoncé de la règle.
Notamment l’établissement de seuils constants fait toujours apparaître des failles. Les règles de conduite, les « lois de commande de la voiture » ne peuvent être décrites que comme le résultat final de l’algorithmie, celle-ci pouvant être la résultante de plusieurs processus contradictoires sur lesquelles une méta-règle vient rendre des arbitrages. Les stratégies de conduite d’une voiture autonome se décrivent de plus en plus souvent comme un compromis entre plusieurs appréciations contradictoires de la situation, faisant intervenir plusieurs calculateurs concurrents dans l’architecture électronique et un calculateur de décision chargé d’établir l’arbitrage. La seule spécification est celle de l’algorithmie de chaque calculateur, sans que l’on soit capable de prévoir quel chemin sera emprunté lors de l’exécution.
Ceci nous amène à la :
Troisième tentative de définition : « Capacité d’une machine d’atteindre des performances égales ou supérieures à celles de certains processus cognitifs de l’être humain, sur des problèmes atteignant soit la NP-complexité, soit dont la solution ne peut être écrite totalement dans une spécification explicite. »
Les limites de cette définition déjà affinée apparaissent cependant, en faisant appel à des techniques plus sophistiquées : celles de l’analyse des données statistiques.
Les différentes variantes de l’analyse factorielle ainsi que l’analyse discriminantes peuvent en effet rentrer aisément dans cette troisième définition. L’analyse discriminante en particulier devient extrêmement difficile à distinguer de l’ensemble des techniques de « Machine Learning », au point que l’on peut se demander si celles-ci ne sont pas simplement des variations autour de celle-là.
Pour cette raison, il devrait être demandé à tout spécialiste en IA d’être préalablement rompu aux techniques de l’analyse statistique des données. On ne peut correctement comprendre l’IA sans avoir préalablement compris de quoi sont capables ces techniques et avec quelle finesse elles opèrent déjà. A noter qu’elles existent depuis bien plus longtemps que l’apparition de l’IA, et qu’elles ne consistent principalement qu’en des considérations de géométrie, de définitions de distances, associées à des calculs de vraisemblance.
L’analyse des données permet d’établir des classifications ou des prédictions dépassant l’écriture de règles conditionnelles. Son aspect automatique peut faire croire à l’apparition confondante d’une intelligence : lors d’analyses factorielles, des « concepts », par exemple sur des données sociologiques, semblent émerger de terre. On peut par exemple retrouver et expliquer les principales « tribus » d’étudiants français en 2018, par des recoupements de goûts, mœurs, engagements politiques, etc. Nombreuses sont les situations d’un degré de complexité rentrant dans la troisième tentative de définition, celle de connaissances procédurales ou implicites, qui ont été éclaircies par l’analyse des données.
Même la notion d’apprentissage, faisant croire à ceux qui développent des réseaux de neurones qu’ils agissent auprès d’un organisme doué de vie, se retrouve dans l’analyse discriminante : celle-ci peut nécessiter plusieurs essais et variantes avant de fournir son modèle de classification. Aussi les réseaux de neurones ne prouvent pas qu’ils reproduisent les lois du vivant et de la cognition, mais plutôt que l’activité de catégorisation rentre de façon importante dans tout acte de cognition.
Certains auteurs estiment à ce titre que la notion d’IA est entièrement un effet de mode et qu’elle peut s’identifier à de nouvelles variantes de l’analyse statistique des données. Vis-à-vis de l’analyse discriminante, il faut reconnaitre que les réseaux de neurones qui ont été développés avant l’apparition des « deep neural networks » ne peuvent présenter qu’une différence de degré, non de nature.
Les DNN constituent une nouvelle technique permettant de sortir de l’identification à l’analyse statistique. Loin d’être un simple ajout de couches supplémentaires, les DNN parviennent à combiner l’identification des connaissances pertinentes et la classification à partir de ces connaissances. Par exemple, le programme Alpha-go est parvenu à battre Stockfish, le meilleur programme d’échecs fondé sur le calcul combinatoire brut, en retrouvant par lui-même les « concepts » de haut niveau du jeu d’échecs : la paire de fous, le pion isolé, etc. Alpha-go calcule un nombre bien moindre de combinaisons que Stockfish, mais parvient à trouver les meilleures représentations correspondant à la logique de chaque position d’échecs.
Si l’on comparait leur mode de fonctionnement à celui de l’analyse de données statistiques, l’on pourrait dire que les DNN sont capables d’extraire dans un premier temps les axes factoriels d’une analyse des données, pour faire ressortir les variables les plus pertinentes, puis d’employer ces variables pour effectuer une analyse discriminante permettant de prendre la bonne décision. Non seulement les deux temps de la représentation des connaissances puis de la décision sont respectés, mais ils sont effectués simultanément et optimisés pour obtenir la meilleure décision.
Ceci constitue un pas décisif : jusqu’à encore récemment, il fallait « mâcher le travail » aux réseaux de neurones en leur fournissant des données d’entrée déjà représentées sous une forme pertinente. La machine ne parvenait pas à trouver par elle-même le bon découpage de la réalité qu’elle observait : il fallait lui donner les variables correspondant à ce que l’intuition et l’expérience humaine considérait comme les plus significatives pour analyser correctement le problème. On sait à quel point la représentation des connaissances est primordiale en informatique dans la conception orientée objet, où le choix des classes de départ conditionne très fortement l’efficacité des traitements qui agiront à partir de ces classes. Savoir trouver les bonnes classes, c’est savoir comment découper le réel de la bonne façon pour le problème donné, donc trouver une représentation de la réalité adéquate avant de l’affronter. L’on sait par exemple que les eskimos possèdent plusieurs dizaines de mots décrivant les différents états de la neige. Ils ont affiné fortement leur représentation du réel sur ce point, pour des raisons évidentes de survie qui se posent bien plus dans leur vie quotidienne que dans la nôtre.
L’apprentissage « supervisé » consistait moins dans le fait que les données de sortie étaient déjà classifiées selon des groupes a priori, comme dans l’analyse discriminante, que dans le fait qu’il fallait souvent essayer plusieurs modes de représentation des données d’entrée avant que le réseau ne converge correctement, et que ces tâtonnements restaient l’apanage de l’humain. En d’autres termes, les réseaux de neurones parvenaient à l’activité de classification à la perfection, mais pas à celle de la conceptualisation préalable.
Les DNN franchissent ce pas très important. Ils n’ont plus besoin qu’on leur indique les concepts pertinents pour résoudre un problème : ils se les fabriquent eux-mêmes dans les couches profondes, et les affinent en fonction de leur efficacité à la classification ultérieure.
L’IA commence ainsi à mériter son nom à partir des DNN. La barrière de la conceptualisation est franchie, la « myopie » des machines leur empêchant d’extraire les notions de synthèse les plus efficaces au traitement d’un problème n’est plus de mise. Peut-être objectera-t-on que cela reste l’enchaînement de deux techniques statistiques, celle de l’extraction d’axes factoriels et celle de l’analyse discriminante en employant ces axes comme variables. Il n’empêche qu’être capable d’enchaîner les deux correctement, c’est-à-dire de voir comment la première est utile à la seconde, représente bien plus que leur seule application successive.
Aussi pouvons-nous proposer cette :
Quatrième tentative de définition : « Capacité d’une machine d’atteindre des performances égales ou supérieures à celles de certains processus cognitifs de l’être humain, sur des problèmes atteignant soit la NP-complexité, soit dont la solution ne peut être écrite totalement dans une spécification explicite, en extrayant par elle-même la représentation pertinente des données d’entrée sans qu’il soit nécessaire de le faire pour elle. »
Sommes-nous parvenus à une définition complète ? Au-delà de la barrière du concept, une autre existe, bien plus difficile encore. C’est elle qui rend l’IA encore très lointaine de la véritable intelligence humaine, bien qu’elle mérite maintenant son nom selon la quatrième définition, car cette fois différente de toutes les techniques de traitement de données qui l’on précédée.
En quoi une telle IA n’atteindrait-elle pas notre propre intelligence ? Le dernier horizon – le plus difficile – n’est pas celui du concept, mais du contexte.
La voiture autonome est un cas illustratif particulièrement intéressant. Il y a de cela trois ans, les constructeurs automobiles ou géants du digital pensaient qu’il s’agissait d’un problème simple, au moins sur autoroute, qui serait réglé de nos jours. Les récents déboires de la conduite autonome ont montré que ce qui apparaissait comme une tâche assez automatique – quoi de plus routinier que de conduire dans les embouteillages – cachait des complexités totalement inattendues. Aujourd’hui, les acteurs de la voiture autonome font preuve d’une bien plus grande humilité, et n’annoncent une délégation en niveau 4, celui où l’on peut réellement ne plus prêter attention à la route, qu’à horizon 2023 dans le meilleur des cas.
Mais comment est-ce possible ? Nous savons produire des IA capables de battre les champions du monde d’échecs et de go, mais qui buttent sur une chose aussi terre à terre que conduire une automobile ? La nature du problème est toute autre et ce qui rend la conduite par une machine plus difficile que les plus complexes jeux de stratégie est la même raison qui fait que dans une langue étrangère, c’est le langage de la vie de tous les jours qui est le plus difficile à maîtriser, bien plus que « l’anglais des affaires » ou « l’anglais juridique ».
Aussi complexes soient-ils, les jeux de stratégie restent des univers sémantiquement fermés. L’univers de la conduite automobile est un univers sémantiquement ouvert. On objectera qu’il s’agit d’une situation de la vie suffisamment normée pour se ramener à un corpus de règles finies et explicites. Quelques exemples vont montrer à quel point cela sous-estime la richesse du réel : lorsqu’une activité du quotidien, même spécialisée, met le doigt dans le monde réel et non plus dans un système conventionnel de règles, elle est toute entière aspirée par des problématiques de contextualisation.
L’un des accidents arrivés à un Uber est intervenu parce qu’un véhicule venant de face lui a coupé la route pour tourner à gauche, alors qu’il devait céder le passage. Légalement, Uber était donc dans son droit. Pourtant dans cet accident comme pour d’autres, la pragmatique humaine aurait adopté des comportements que l’on ne trouve dans aucun texte de loi. Le véhicule d’Uber avait de nombreuses voitures devant lui qui lui occultaient la vue. Dans une telle situation, même un conducteur moyen ralentit, en se disant que potentiellement une personne imprudente ou impatiente peut lui couper la route en venant de face, lorsque l’on arrive à une intersection.
En situation de conduite, l’être humain ne cesse de postuler des trajectoires qui n’existent que potentiellement, voire des véhicules ou des obstacles qu’il ne perçoit pas, mais qu’il pose comme pouvant surgir avec une certaine probabilité. Le conducteur humain anticipe les trajectoires et les objets qu’il va rencontrer et se trouve être encore bien meilleur que la machine pour cette raison. Cette anticipation potentielle explique aussi la raison pour laquelle la voiture autonome ne se résume pas à un pur problème d’automation, contrairement aux aides à la conduite telles que le freinage d’urgence ou le limiteur de vitesse.
Ces anticipations peuvent faire intervenir des facteurs culturels dépassant de loin le contexte autoroutier. Si nous voyons un ballon surgir sur la route, nous freinons et attendons l’enfant qui a une forte probabilité de suivre et de courir après. Plus quotidiennement, chaque fois que nous croisons une voie d’insertion en étant nous-mêmes sur la file de droite d’une autoroute, nous anticipons le fait que les véhicules situés sur la droite vont chercher à s’insérer, donc à nous couper plus ou moins brutalement la route. Il s’ensuit une « négociation de conduite » au cours de laquelle chaque conducteur teste la réaction des autres, commence à s’engager pour savoir si l’autre lui cède ou non le passage, revient sur sa décision, voire utilise ses manœuvres comme une information destinée à faire part aux autres de ses intentions. Par exemple, cela peut consister à effectuer plusieurs petits freinages répétés et utiliser ses warnings arrières pour faire comprendre au conducteur situé derrière nous qu’il nous colle de trop près et que nous allons devoir freiner fortement voire stopper parce qu’un véhicule situé à droite risque de nous couper la route. Un bon conducteur utilisera ces petites manœuvres répétées pour arriver à faire comprendre ses intentions aux autres, tandis qu’un conducteur débutant aurait tendance à freiner abruptement ou à ne pas anticiper celui qui s’insère.
Tout ceci devrait être à la portée d’une IA ? On peut effectivement n’y voir que des lois de comportement sur des signaux analogiques continus, à savoir les trajectoires des autres véhicules, une question somme toute similaire à la reconnaissance de l’écriture manuscrite. Même des comportements d’anticipation devraient pouvoir être appris par un bon réseau de neurones. Mais tout n’est pas si simple. Car il ne s’agit plus seulement de reconnaitre des formes continues complexes : nous sommes acteurs du phénomène, et toute action physique de notre part est aussi interprétée comme une intention par les autres. Il en va ainsi de la conduite comme de la mécanique quantique : il n’y a pas d’observation et encore moins d’action neutre. La réflexion à l’infini de l’anticipation des autres et de la nôtre par eux rentre très vite en ligne de compte. Les modèles les plus efficaces de négociation de conduite empruntent pour cette raison beaucoup à la théorie des jeux. Nous ne sommes donc plus dans l’optimisation d’une décision objective comme dans les échecs et le go mais dans les anticipations croisées d’interprétations subjectives de chacun.
Pire encore, les comportements attendus sur la route peuvent faire intervenir des facteurs culturels ou régionaux : on ne conduit pas de la même façon en France, en Italie ou en Russie et même entre plusieurs régions de France. Il ne s’agit pas seulement de particularismes amusants : il y a moins d’accidents réels lorsque tout le monde anticipe correctement les réactions des autres. Et ce qui est considéré comme un comportement normal attendu n’est plus de l’ordre de l’objectif, mais de la convention culturelle subjective. Ceci a pourtant des conséquences très concrètes : lorsque les anticipations de chacun sont synchronisées, les accidents sont évités car le comportement attendu est bien celui qui se produit : il y a une part de construction intersubjective dans l’évitement des accidents de la route, pas seulement l’observance de règles objectives de sécurité.
Ce facteur intersubjectif devient prépondérant lorsqu’il neige sur la route. Les marquages au sol peuvent être complètement effacés. Auquel cas, les voies qu’il convient de suivre ne sont plus celles délimitées par les marquages, mais celles que les files de voitures ont formé spontanément, transformant éventuellement une autoroute 4 voies en trois voies. La vérité de la route devient dans ce cas ce que l’organisation intersubjective a spontanément formé.
Dernier exemple montrant les difficultés des facteurs contextuels : lorsque nous croisons une zone de travaux, nous ne nous rendons pas compte avec quelle facilité un conducteur humain sait répondre à la question simple « où se trouve la route, où continue-t-elle ? ». Cette question est pourtant très loin d’être triviale. On ne peut compter sur la seule perception : la délimitation entre la route et la zone de travaux est parfois complètement effacée. En un clin d’œil, le conducteur humain croise des facteurs sensoriels, logiques voire culturels pour comprendre la situation et voir où se poursuit la route. La logique lui permettra d’écarter des hypothèses absurdes quant à la direction que prendrait la chaussée. Et des connaissances culturelles lui feront reconnaître les engins de chantier et les véhicules personnels – parfois même s’ils sont exactement du même modèle – par leur comportement, la tâche qu’ils sont en train d’accomplir ou la peinture qui les recouvre.
Tout ceci, objectera-t-on, devrait être facilement à la portée du Machine Learning : après tout les très fines variations de contexte ne sont-elles pas son domaine de prédilection ? C’est sous-estimer un obstacle que rencontrent l’ensemble des techniques d’IA, peut-être le plus fondamental et le plus sérieux.
Tous les exemples cités sur la conduite autonome seraient à portée de main s’ils étaient pris chacun individuellement et reconnaissables par des critères non ambigus. L’IA ne sait pas jusqu’à maintenant quel est le degré de contextualité de la situation qu’elle doit affronter. En particulier, elle ne sait pas d’elle-même si elle est en surapprentissage, c’est-à-dire si elle résout le problème posé par des considérations ad’hoc ou si elle est arrivée à une véritable capacité de généralisation. La séparation des données entre la base d’apprentissage et la base qui sert à tester la capacité de généralisation de la machine reste une opération humaine, la dernière supervision dont a besoin la machine.
Plongée au cœur d’une situation contextuelle complexe, la machine n’a jusqu’à maintenant pas le pouvoir d’évaluer de l’intérieur de quel degré de généralisation elle a besoin. L’être humain possède encore cette faculté de savoir de lui-même s’il fait face à un problème à contexte restreint ou à contexte large, et s’auto-programme pour y faire face : il ajustera ses stratégies pour éviter le surapprentissage, ou après tâtonnements jugera qu’il est justement arrivé à une capacité de généralisation insuffisante pour répondre entièrement à la complexité intrinsèque du problème et se lancera dans un apprentissage plus ambitieux pour pouvoir la couvrir. Dans des contextes restreints, l’être humain se « robotise » volontairement et sait se redonner lui-même les données de souplesse nécessaire si le contexte s’élargit.
Enfin, l’être humain sait puiser de lui-même dans les banques de données de ses expériences antérieures, même lorsque celles-ci n’ont qu’un lointain rapport avec le problème posé : ainsi, pour reconnaitre les engins de chantiers des autres véhicules de travaux, fera-t-il appel à des souvenirs qu’il a pu acquérir bien ailleurs que sur la route, dans la connaissance d’une société commerciale ou dans des types de comportement qu’il aura remarqué en regardant un film. Dès que l’univers est sémantiquement ouvert, même un contexte spécialisé qu’est celui de la route attire à lui tous les autres contextes de la vie courante et les fait participer à l’interprétation correcte de la situation. Dans les domaines de la vie courante, nous mobilisons rapidement beaucoup d’autres savoirs très antérieurs et éloignés en apparence du problème à résoudre et savons de nous-mêmes juger de l’intérieur si nous nous sommes ajustés à la complexité du problème auquel il faut faire face.
Il n’est sans doute pas anodin que l’ultime frontière que rencontre l’IA soit celle qui vient d’être décrite. Elle correspond peut-être à ce que nous appelons communément « conscience ». Mais plutôt que de rester dans les contours flous et quasi mystiques de cette notion mal définie, la difficulté que rencontre l’IA à l’aborder nous en donne une image bien plus claire. La conscience, ce n’est peut-être que cette capacité à évaluer de l’intérieur jusqu’à quelle profondeur il faudra puiser dans l’immense collection de nos souvenirs pour se confronter à toutes les facettes d’un problème, et s’auto-ajuster en conséquence. Il s’agit d’une définition de la conscience plus concrète, plus proche de celle que certaines philosophies asiatiques cultivent : être conscient, c’est mesurer le degré de profondeur de nos relations avec tout l’univers, avec le cosmos, et savoir les mobiliser soi-même face à chaque situation de notre vie.
Les machines sont capables de se forger leurs propres concepts, mais pas encore d’avoir elles-mêmes conscience du degré de contextualisation du problème qu’elles doivent affronter. Si un jour une machine devenait capable d’une telle faculté, nous pourrions commencer à parler d’une IA qui menace les domaines réservés de notre humanité. Tant que ce n’est pas le cas, l’IA reste une technologie surpuissante d’analyse statistique, potentiellement dangereuse si l’on en fait un mauvais usage, mais encore loin d’être équivalente à l’intelligence humaine.
This post is also available in: EN (EN)DE (DE)