Die Debatte über KI (Künstliche Intelligenz) und den Nutzen oder die Wirkung, die sie für die Gesellschaft haben könnte, ist zu einem Ausmaß angewachsen, das die grundlegendste Frage aufwirft – was ist sie eigentlich? Sie ist auf eine Weise explodiert, dass ein Großteil des Denkens über KI eher der Fantasie oder Dystopie gleicht als der realen Analyse. Wenn wir uns wieder auf eine Definition dessen besinnen, was KI ist, können wir eine ausgewogene Vorstellung davon haben, ihre erheblichen Vorteile nicht ablehnen und uns auf ihre Risiken vorbereiten, die wir nicht immer erwarten.
Erster Versuch einer Definition: „Maschinelle Herstellung von Prozessen, die den menschlichen kognitiven Prozessen ähneln.“
Diese Definition hat den Vorteil, dass sie generisch genug ist, um alle Aspekte der KI abzudecken. Es ist wichtig, die Unterscheidung zwischen kognitiver KI und konnektionistischer KI beizubehalten, wobei erstere versucht, menschliche Argumentation und Schlussfolgerung zu modellieren (Expertensysteme, wissensbasierte Systeme, Fuzzy-Logik, Bayesianische Inferenz usw.) und letztere mit verbundenen Netzwerken, deren Verbindungen verstärkt oder geschwächt sind, um sich an die erwartete Reaktion anzupassen, natürlich nach dem Vorbild neuronaler Netzwerke. Die Begeisterung über die Ergebnisse der letzteren führt allzu oft dazu, die KI als gleichwertig mit NN zu betrachten, aber diese Vereinfachung sollte vermieden werden.
Unsere anfängliche Definition offenbart bald einige Mängel. Erstens kann die KI eine Leistung erreichen, die mit der der menschlichen Kognition vergleichbar ist, ohne sie zu imitieren. Die meisten Schach-Softwareprogramme bestehen im Wesentlichen aus einer gut optimierten Baumstruktur-Suchmaschine und einer sehr fein abgestimmten Bewertungsfunktion. Nichts darin ähnelt der menschlichen Erkenntnis, vor allem, weil es viel mehr Rechenleistung erfordert, als jeder Mensch besitzt. Das Endergebnis sieht aus wie Intelligenz: Wenn man Schach spielt, scheint die Maschine mit Sinn und Verstand ausgestattet zu sein. Im Hintergrund jedoch ist es nur eine mächtige kombinatorische Suche.
Hinzu kommt, dass selbst KI, die auf von der menschlichen Biologie inspirierten Mechanismen wie neuronalen Netzen basieren, nur eine entfernte Beziehung zu biologischen Neuronen im Gehirn haben. NN sind Beispiele für die Bedeutung der Stärkung und Selbstorganisation von Steuerungsnetzwerken und haben wenig Ähnlichkeit mit der Biologie. Der erste, naive Ansatz zur KI besteht darin zu denken, dass es notwendig ist, einen synthetischen Menschen oder ein synthetisches Gehirn zu erschaffen, um die Erkenntnis zu erzeugen: In der Tat muss die Erkenntnis überhaupt nicht anthropomorph sein.
Das bringt uns zum:
Zweiten Versuch einer Definition: „Die Fähigkeit einer Maschine, eine Leistung zu erreichen, die gleich oder besser ist als bestimmte menschliche Erkenntnisprozesse.“
Diese Definition basiert auf dem Endergebnis, ohne die Nachahmung von biologischen Mechanismen vorauszusetzen. Es deckt also das gesamte Spektrum dessen ab, was die Maschine leisten kann, indem sie intelligent erscheint, logisch denken kann oder eine Strategie zur Verfolgung eines bestimmten Ergebnisses anwenden kann, ohne dass die zugrunde liegenden Prozesse notwendigerweise auf diesen Kapazitäten basieren.
Aber wieder einmal stößt diese Definition auf eine schwer zu definierende Grenze. Wenn wir das Niveau der reinen Leistung betrachten, ohne jeglichen Versuch, die menschliche Erkenntnis zu imitieren, würden viele klassische Computer-Informationsverarbeitungsmöglichkeiten in diese Definition passen, für Aufgaben, die wir als intelligent definieren würden.
Zum Beispiel kann der Computer durch die Gegenprüfung von Informationen zu einem Cluedo- oder Mastermind-Champion werden, ohne dass eine KI erforderlich ist. Wir erkennen nicht einmal, welche Fortschritte in einigen Bereichen der Datenverarbeitung gemacht werden, weil wir es für selbstverständlich halten, zum Beispiel SQL-Abfragen auf großen Datenbanken. Alle diese Techniken führen zu einem Ergebnis, das oberflächlich gesehen das Werk einer Intelligenz zu sein scheint und sogar die menschlichen Fähigkeiten auf ihrem Gebiet bei weitem übertrifft, ohne dass es eine Frage der KI gibt.
Was uns an KI-Techniken überrascht, ist, dass sie es schaffen, eine neue Reihe von Problemen anzugehen, die mit herkömmlicher Programmierung nicht zu lösen wären. Die ersten KI-Erfolge beruhen nicht auf Erkenntnis, sondern auf Wahrnehmung – Bild- oder Handschrifterkennung, d.h. auf Objekten mit sehr vielen kleinen Variationen, die durch eine rein kombinatorische Berechnung nicht erfasst werden können.
Es erscheint daher unangenehm, die KI ohne Bezugnahme auf ein Maß für die Komplexität der Probleme zu definieren, die sie angehen kann. KI hat einige Durchbrüche bei der Lösung von NP-kompletten Problemen ermöglicht, zum Beispiel die des reisenden Verkäufers. Eines der bevorzugten Felder für die KI ist auch die Mustererkennung innerhalb einer Reihe von kontinuierlichen Signalen, obwohl nicht bekannt ist, ob diese Probleme hinsichtlich ihrer Komplexität als NP-komplett qualifiziert werden können.
Abgesehen von ihrer Klassifizierung auf traditionellen Komplexitätsskalen sind die Probleme, die die KI am besten lösen kann, diejenigen, die über die Verarbeitung durch bedingte Ausdrücke hinausgehen, diejenigen, die nicht als Analyse einfacher Fälle von ‘wenn….dann’ Regeln zusammengefasst werden können. KI kann sinnvollerweise auf „fast automatische“ Probleme angewendet werden: solche, die routinemäßig genug sind, um von einer Maschine erledigt zu werden, aber mit unzähligen Variationen, die keine reine Automatisierung erlauben.
Man kann dies ausdrücken, indem man sagt, dass KI nicht nur mit deklarativem Wissen arbeitet, sondern auch mit „prozeduralem Wissen“: Die Probleme, für die KI verwendet wird, lassen sich nicht lösen, indem man eine explizite Spezifikation schreibt, nicht einmal eine von mehreren tausend Seiten. Ein Teil ihrer Auflösung geht, während der Ausführung des Verfahrens, insbesondere wenn es Heuristiken betrifft, im Algorithmus selbst „verloren“. Insbesondere das Erkennen von „kontinuierlichen Mustern“ wie dem Schreiben oder den Handlungen, die ein Fahrzeug während der Fahrt ausführt, sind gute Beispiele für solches implizites Wissen. Es geht darum, zwischen kontinuierlichen, sehr feinen Nuancen mehrerer Signale zu unterscheiden. So ist jede Fallstudie, die auf einfachen bedingten Regeln basiert, zum Scheitern verurteilt. Naive Ansätze zum autonomen Fahren versuchen, feste Sicherheitsregeln zu finden, wie z.B. Sicherheitsabstandsgrenzen, Beschleunigungsgrenzen, etc. Diese Art von Regeln scheitern unter dem Gewicht der Komplexität der Situationen, weil sich die Ausnahmen zu vervielfachen beginnen, sobald die Regel formuliert ist.
Vor allem die Festlegung einheitlicher Schwellenwerte offenbart immer wieder Probleme. Die Verhaltensregeln, die „Gesetze der Fahrzeugsteuerung“, können nur als Endergebnis des Algorithmus beschrieben werden, der selbst das Ergebnis mehrerer widersprüchlicher Prozesse sein könnte, die durch eine Metaregel bestimmt werden. Die Fahrstrategien eines autonomen Fahrzeugs werden zunehmend als Kompromiss zwischen mehreren widersprüchlichen Einschätzungen der Situation beschrieben, die mehrere konkurrierende Programme in einem Rahmen mit einem Entscheidungsmotor umfassen, der für die Festlegung der Koordination zwischen ihnen verantwortlich ist. Die einzige Vorgabe ist der Algorithmus jedes Programms, der nicht vorhersagt, welcher Pfad zur Laufzeit genommen wird.
Das bringt uns zum:
Dritten Versuch einer Definition: „Die Fähigkeit einer Maschine, bei Problemen, die entweder NP-Komplexität erreichen oder bei denen die Lösung nicht vollständig in einer expliziten Spezifikation geschrieben werden kann, eine Leistung zu erreichen, die gleich oder größer ist als die bestimmter menschlicher kognitiver Prozesse“.
Die Grenzen dieser ohnehin schon etwas überarbeiteten Definition werden jedoch durch ausgefeiltere Techniken deutlich: jene der statistischen Datenanalyse.
Die verschiedenen Varianten der Faktorenanalyse sowie der Diskriminanzanalyse lassen sich bequem in diese dritte Definition einfügen. Insbesondere die Diskriminanzanalyse ist von allen Techniken des „Maschinellen Lernens“ nur sehr schwer zu unterscheiden, so dass man sich fragen kann, ob es sich dabei nicht einfach um Variationen handelt.
Aus diesem Grund sollte jeder KI-Spezialist über Erfahrungen mit statistischen Datenanalyseverfahren verfügen. Man kann die KI nicht richtig verstehen, ohne vorher zu verstehen, wozu diese Techniken fähig sind und auf welchem Niveau sie bereits arbeiten. Diese bestehen schon viel länger als KI und bestehen hauptsächlich aus geometrischen Kartierungen und Abstandsdefinitionen in Verbindung mit Plausibilitätsberechnungen.
Die Datenanalyse ermöglicht Klassifizierungen oder Prognosen, die über die Zusammensetzung von bedingten Regeln hinausgehen. Sein automatischer Aspekt kann wie die Intelligenz verwirrend wirken: Bei faktoriellen Analysen scheinen „Konzepte“, zum Beispiel zu soziologischen Daten, aus dem Nichts aufzutauchen. In einem Beispiel können wir die wichtigsten „Volksgruppen“ der französischen Studenten im Jahr 2018 identifizieren und erklären, indem wir Geschmäcker, Verhaltensweisen, politisches Engagement usw. überlagern. Es gibt viele Situationen mit einem Grad an Komplexität, der durch die dritte versuchte Definition abgedeckt wird, die des prozeduralen oder impliziten Wissens, die durch Datenanalyse gelöst wurden.
Selbst der Begriff des Lernens, der diejenigen, die neuronale Netze entwickeln, zu der Annahme veranlasst, dass sie mit einem lebenden Organismus arbeiten, findet sich in der Diskriminanzanalyse: Es kann mehrere Studien und Variationen erfordern, bevor sein Klassifikationsmodell bereitgestellt werden kann. Neuronale Netze können nicht beweisen, dass sie die Tests fürs Leben und der Erkenntnis bestehen, sondern dass die Kategorisierungsaktivität ein wichtiger Teil eines jeden Erkenntnisaktes ist.
Einige Autoren glauben, dass die Idee der KI nicht mehr als eine Modeerscheinung ist, und dass sie auf einige neue Varianten der statistischen Datenanalyse reduziert werden kann. Hinsichtlich der Diskriminanzanalyse ist zu beachten, dass die vor der Erfindung der „tiefen neuronalen Netze“ entwickelten neuronalen Netze nur einen Unterschied im Grad aufweisen, nicht in der Art.
DNN sind eine neue Technik für den Übergang von der Identifikation zur statistischen Analyse. DNNe sind nicht nur eine einfache Hinzufügung weiterer Schichten, sondern kombinieren auch die Identifikation von relevantem Wissen und die Klassifizierung auf Basis dieses Wissens. Zum Beispiel, das Alpha-go Programm, das darauf ausgelegt ist, Stockfish zu schlagen, das beste Schachprogramm, das auf roher kombinatorischer Berechnung basiert, indem es selbst hochrangige Schachkonzepte wie das Paar der Bischöfe, den isolierten Bauern usw. identifiziert. Alpha-go berechnet eine viel kleinere Anzahl von Kombinationen als Stockfish, findet aber die besten Strategien, die der Logik jeder Schachposition entsprechen.
Wenn wir ihre Funktionsweise mit der der statistischen Datenanalyse vergleichen, könnten wir feststellen, dass die DNNs in der Lage sind, zunächst die Hauptkomponenten aus einer Analyse der Daten zu extrahieren, um die relevantesten Variablen herauszuholen und dann diese Variablen zu verwenden, um eine Diskriminanzanalyse durchzuführen, um die richtige Entscheidung zu treffen. Die beiden Paradigmen der Wissensrepräsentation und -entscheidung werden nicht nur respektiert, sondern gleichzeitig durchgeführt und optimiert, um das beste Ergebnis zu erzielen.
Dies ist ein entscheidender Schritt: Bis vor kurzem mussten neuronale Netze mit „vorgekauten“ Daten gefüttert werden, indem sie mit Eingabedaten versorgt wurden, die bereits in einer entsprechenden Form dargestellt wurden. Die Maschine war nicht in der Lage, die Realität, die sie selbst beobachtete, richtig aufzuschlüsseln: Sie musste die Variablen erhalten, die der Intuition und der menschlichen Erfahrung entsprechen, um das Problem richtig analysieren zu können. Wir wissen, wie wichtig die Wissensrepräsentation in der Informatik im Bereich des objektorientierten Designs ist, wo die Wahl der Anfangsklassen die Effektivität der Verarbeitung, die von diesen Klassen ausgeht, stark bestimmt. Zu wissen, wie man die richtigen Klassen findet, ist zu wissen, wie man die Realität für das gegebene Problem richtig darstellt, d.h. eine adäquate Darstellung der Realität findet, bevor man sich mit ihr beschäftigt. Wir wissen zum Beispiel, dass Eskimos mehrere Dutzend Wörter haben, die die verschiedenen Zustände des Schnees beschreiben. Sie haben ihre Darstellung der Realität in diesem Punkt verfeinert, aus offensichtlichen Gründen des Überlebens, die in ihrem täglichen Leben viel mehr auftauchen als in unserem.
Das „überwachte“ Lernen bestand weniger darin, dass die Ausgabedaten bereits a priori in Gruppen eingeteilt waren, wie bei der Diskriminanzanalyse, als vielmehr darin, dass es oft notwendig war, mehrere Mittel zur Darstellung der Eingabedaten auszuprobieren, bevor das Netzwerk richtig konvergierte, und dass diese Art von Versuch und Irrtum das Privileg des Menschen blieb. Mit anderen Worten, die neuronalen Netze führten die Klassifikationstätigkeiten bis zur Perfektion aus, nicht aber die vorherige Konzeptualisierung.
Die DNNe vollziehen diesen sehr wichtigen Schritt. Sie müssen nicht mehr mit den entsprechenden Konzepten zur Lösung eines Problems konfrontiert werden: Sie bauen sie selbst in den tiefen Schichten auf und verfeinern sie entsprechend ihrer Wirksamkeit bei der späteren Klassifizierung.
Nach der Erfindung von DNN kann man sagen, dass die KI sich diesen Namen wirklich verdient hat. Die Barriere der Konzeptualisierung wurde überschritten, die „Myopie“ der Maschinen, die sie daran hinderte, die effektivsten Inhaltszusammenfassungen zur Lösung eines Problems zu extrahieren, ist nicht mehr relevant. Es kann der Einwand erhoben werden, dass es sich hierbei immer noch um eine Folge von zwei statistischen Verfahren handelt, nämlich die der faktoriellen Achsenextraktion und die der Diskriminanzanalyse unter Verwendung dieser Achsen als Variablen. Allerdings ist es weit mehr als nur eine sukzessive Anwendung, die beiden richtig zu verknüpfen, d.h. zu sehen, wie die erste für die zweite nützlich ist.
Wir können also Folgendes vorschlagen:
Vierter Versuch einer Definition: „Die Fähigkeit einer Maschine, bei Problemen, die entweder eine NP-Komplexität erreichen oder deren Lösung nicht vollständig in eine explizite Spezifikation geschrieben werden kann, eine Leistung zu erreichen, die gleich oder größer ist als die bestimmter menschlicher kognitiver Prozesse, indem sie die entsprechende Darstellung der Eingabedaten selbst extrahiert, ohne sie dafür ausführen zu müssen.“
Haben wir eine vollständige Definition erreicht? Wenn man einmal die Barriere überwunden hat, das Konzept zu definieren, gibt es noch eine weitere, noch schwierigere. Dies zeigt, dass die KI noch weit von der wahren menschlichen Intelligenz entfernt ist, obwohl sie jetzt den Namen unter der vierten Definition verdient, denn diesmal handelt es sich um ein anderes Thema als alle Datenverarbeitungstechniken, die ihr vorausgegangen sind.
In welcher Hinsicht könnte eine KI nicht unserer eigenen menschlichen Intelligenz entsprechen? Die letzte Grenze – die schwierigste – ist nicht die des Konzepts, sondern des Zusammenhangs.
Das selbstfahrende Auto ist ein besonders interessantes Beispiel. Vor drei Jahren dachten Autohersteller und Digitalgiganten, es sei ein einfaches Problem, das inzwischen gelöst sei, zumindest auf Autobahnen. Die jüngsten Rückschläge beim autonomen Fahren haben gezeigt, dass eine scheinbar automatisierte Aufgabe – was könnte mehr Routine sein als das Fahren im Stau – völlig unerwartete Kompliziertheiten aufwies. Heute müssen die Hauptakteure des autonomen Fahrens viel mehr Bescheidenheit zeigen und diese prognostizieren frühestens für 2023 eine Level-4-Delegation, bei der man wirklich nicht mehr auf die Straße achten muss.
Aber wie ist das möglich? Wir wissen, wie man KIen produziert, die in der Lage sind, Sieger im Weltschach und Go zu schlagen, aber wenn es um so etwas bodenständiges wie das Autofahren geht, scheitern sie? Die Art des Problems ist eine ganz andere. Was das Fahren für eine Maschine schwieriger macht als die komplexesten Strategiespiele, ist derselbe Grund, warum in einer Fremdsprache die Sprache des Alltags am schwierigsten zu beherrschen ist, weit mehr als “ Geschäftsenglisch “ oder “ Rechtsenglisch „.
Wie komplex es auch immer sein mag, Strategiespiele bleiben semantisch geschlossene Universen. Die Welt des Fahrens ist ein semantisch offenes Universum. Wir können den Einwand erheben, dass es sich hier um eine reale Situation handelt, die ausreichend geregelt ist, um ein Gefüge endlicher und expliziter Regeln zu bilden. Inwieweit dies den Reichhaltigkeitsgrad der Realität unterschätzt, zeigen jedoch nur wenige Beispiele: Wenn eine alltägliche Tätigkeit, selbst eine spezialisierte, in die reale Welt eintaucht und sich nicht mehr auf ein herkömmliches regelbasiertes System beschränkt, ist sie völlig in Kontextualisierungsprobleme verstrickt.
Einer der Unfälle mit einem Uber ereignete sich, weil ein entgegenkommendes Fahrzeug die Straße überquerte, um nach links abzubiegen, wenn es hätte Vorfahrt geben sollen. Rechtlich gesehen hatte der Uber-Fahrer Vorfahrt. Doch bei diesem Unfall, wie auch bei anderen, hat die menschliche Pragmatik Verhaltensweisen angenommen, die in keinem Gesetz festgeschrieben werden können. Das Uber-Fahrzeug hatte eine Reihe von Autos vor sich, die die Sicht versperrten. In einer solchen Situation wird selbst ein durchschnittlicher Fahrer langsamer und denkt, dass es möglich ist, dass eine unvorsichtige oder ungeduldige Person auf dem Weg zu einer Kreuzung vor ihm hinüberfährt.
In Fahrsituationen prognostiziert der Mensch ständig potentielle Straßenbahnen anderer Fahrzeuge, auch von Fahrzeugen oder Hindernissen, die er nicht sehen kann, die aber eine gewisse Wahrscheinlichkeit haben, plötzlich aufzutauchen. Der menschliche Fahrer antizipiert die Straßenbahnen und Objekte, denen er begegnet und erweist sich in dieser Hinsicht als wesentlich besser als die Maschine. Diese Antizipation möglicher Ereignisse erklärt auch, warum das autonome Auto nicht nur ein Automatisierungsproblem ist, im Gegensatz zu Fahrhilfen wie der Notbremsung oder dem Geschwindigkeitsbegrenzer.
Der Mechanismus der menschlichen Antizipation kann kulturelle Faktoren beinhalten, die weit über den Autobahnkontext hinausgehen. Wenn wir einen Ball plötzlich auf der Straße sehen, bremsen wir und erwarten, dass höchstwahrscheinlich ein Kind auftaucht, das dem Ball folgt. Noch routinemäßiger ist, dass jedes Mal, wenn wir auf der langsamen Spur einer Autobahn eine Ausfahrt passieren, wir erwarten, dass die Fahrzeuge, die auf die Autobahn kommen, versuchen, sich in den Verkehrsstrom einzufügen, was dazu führen kann, dass sie plötzlich in unsere Fahrspur einfahren. Es folgt eine „Fahrverhandlung“, bei der jeder Fahrer die Reaktion des anderen testet, und somit ein Manöver beginnt, um zu prüfen, ob der andere Fahrer nachgibt, seine Meinung ändert oder sein Manöver sogar als Information benutzt, um andere über seine Absichten zu informieren. Es kann zum Beispiel darin bestehen, die Bremsen leicht zu pumpen und die hinteren Warnblinker zu benutzen, um dem Fahrer hinter uns klarzumachen, dass er zu nah ist und dass wir möglicherweise stark bremsen oder sogar anhalten müssen, weil ein Fahrzeug, das von der Zufahrtsstraße kommt, vor uns den Weg abschneidet. Ein guter Fahrer wird diese kleinen wiederholten Manöver nutzen, um anderen seine Absichten verständlich zu machen, während ein Anfänger dazu neigt, abrupt zu bremsen oder die Aktionen des Fahrers, der versucht, in die Spur zu kommen, nicht vorwegzunehmen.
Kann die KI das alles begreifen? Wir könnten es natürlich nur als eine Reihe von Verhaltensregeln für kontinuierliche analoge Signale sehen, d.h. die Fahrbahnen anderer Fahrzeuge, ein Thema, das der Handschrifterkennung weitgehend ähnelt. Auch vorausschauendes Verhalten sollte durch ein gutes neuronales Netzwerk erlernt werden können. Aber es ist nicht so einfach. Denn es geht nicht mehr nur darum, komplexe zusammenhängende Formen zu erkennen: Wir sind auch Teilnehmer des Szenarios, und jede körperliche Handlung unsererseits wird auch von anderen als Absicht interpretiert. Für das Fahren gilt das Gleiche wie für die Quantenmechanik: Es gibt keine Beobachtung und schon gar keine neutrale Aktion. Die unendliche Reflexion unserer Vorwegnahme des Handelns anderer und unseres Handelns durch sie wird sehr schnell berücksichtigt. Die wirkungsvollsten Modelle des Fahrverhaltens lehnen sich daher stark an die Spieltheorie an.
Wir befinden uns also nicht mehr in der Situation der Optimierung einer objektiven Entscheidung wie beim Schach oder Go, sondern in den ineinandergreifenden Vorwegnahmen der subjektiven Interpretationen der einzelnen Parteien.
Schlimmer noch, die Erwartungen an das Verhalten auf der Straße können kulturelle oder regionale Faktoren beinhalten: Das Fahren ist in Frankreich, Italien oder Russland oder sogar zwischen verschiedenen Regionen innerhalb Frankreichs nicht gleich. Es handelt sich nicht nur um merkwürdige Regionalismen: Es gibt weniger echte Unfälle, wenn jeder die Reaktionen anderer Menschen richtig voraussieht. Und was als normales erwartetes Verhalten gilt, ist nicht mehr objektiv, sondern eine subjektive kulturelle Konvention. Dies hat jedoch sehr konkrete Konsequenzen: Wenn die Erwartungen aller synchronisiert sind, werden Unfälle vermieden, weil das erwartete Verhalten dasjenige ist, das eintritt: Es gibt eine intersubjektive Konstruktion zur Vermeidung von Verkehrsunfällen, nicht nur die Einhaltung objektiver Sicherheitsregeln.
Dieser intersubjektive Faktor spielt eine große Rolle, wenn Schnee auf der Straße liegt. Straßenmarkierungen können vollständig verdeckt werden. In diesem Fall sollten nicht mehr die Fahrspuren verfolgt werden, die durch die Fahrbahnmarkierungen begrenzt sind, sondern diejenigen, die sich spontan gebildet haben und möglicherweise eine vierspurige Autobahn in drei Fahrspuren verwandeln. Der wahre Weg wird in diesem Fall derjenige, der spontan durch intersubjektive Organisation geformt wurde.
Ein letztes Beispiel, das die Schwierigkeiten von Kontextfaktoren zeigt: Wenn wir einen Baustellenbereich durchqueren, merken wir nicht, wie leicht ein menschlicher Fahrer die einfache Frage „Wo ist die Straße, wo geht sie jetzt weiter?“ beantworten kann. Diese Frage ist jedoch keineswegs trivial. Man kann sich nicht allein auf die Wahrnehmung verlassen: Die Grenze zwischen Fahrbahn und Baustelle ist manchmal völlig unklar. Im Handumdrehen verarbeitet der menschliche Fahrer sensorische, logische und sogar kulturelle Aspekte, um die Situation zu verstehen und zu sehen, wo der Weg weitergeht. Die Logik wird es ihm erlauben, absurde Annahmen über die Richtung der Fahrbahn auszuschließen. Und kulturelles Wissen wird es ihm ermöglichen, Baumaschinen und Personenkraftwagen – auch wenn sie manchmal genau das gleiche Modell sind – durch ihr Verhalten, ihre Aufgabe oder ihre Lackierung zu unterscheiden.
All dies, so könnte man sagen, sollte mit maschinellem Lernen leicht zu erreichen sein: Sind es letzten Endes nicht diese sehr subtilen Variationen im Kontext, die in seinem Fachgebiet liegen? Das ist wie wenn ein Hindernis – das vielleicht das grundlegendste und schwerwiegendste ist – auf alle KI-Techniken stößt, und dieses unterschätzt wird. Alle genannten Beispiele für autonomes Fahren wären überschaubar, wenn sie einzeln betrachtet und nach eindeutigen Kriterien unterschieden werden würden. Die KI kennt immer noch nicht den Grad der Kontextualität der Situation, in der sie sich befindet. Insbesondere weiß sie nicht, ob sie überfordert ist, d.h. ob sie das durch Ad-hoc-Überlegungen aufgeworfene Problem löst oder ob sie eine wirkliche Verallgemeinerungsfähigkeit erreicht hat. Die Trennung der Daten zwischen der Lernbasis und der Basis zur Prüfung der Verallgemeinerungsfähigkeit der Maschine bleibt ein menschlicher Vorgang, der letzte von der Maschine geforderte Bereich der Überwachung.
Am tiefsten Punkt einer komplexen kontextuellen Situation angelangt, ist die Maschine noch nicht in der Lage, selbst einzuschätzen, welchen Grad an Verallgemeinerung sie benötigt. Menschen haben bereits die Fähigkeit, selbst zu wissen, ob sie mit einem Problem mit einem begrenzten oder einem breiteren Kontext konfrontiert sind. Sie können sich selbst programmieren, um damit umzugehen: Sie werden ihre Strategien anpassen, um eine Überforderung zu vermeiden, oder sie werden nach dem Prinzip von Versuch und Irrtum feststellen, dass sie eine Fähigkeit zur Verallgemeinerung erreicht haben, die nicht ausreicht, um auf die eigentliche Komplexität des Problems vollständig zu reagieren, und sie werden ein anspruchsvolleres Lernen beginnen, um es lösen zu können. In begrenzten Zusammenhängen „robotisiert“ sich der Mensch freiwillig und weiß, wie er sich in einen Zustand ausreichender Flexibilität zurückversetzen kann, wenn sich der Kontext erweitert.
Schließlich weiß der Mensch die Datenbanken seiner bisherigen Erfahrungen zu nutzen, auch wenn diese nur einen fernen Zusammenhang mit dem aufgeworfenen Problem haben: Um beispielsweise die Baumaschinen von anderen Industriefahrzeugen zu unterscheiden, wird er auf Erinnerungen zurückgreifen, die er in einem ganz anderen Kontext als dem der Straße, in seiner beruflichen Erfahrung in einem Geschäft oder in Verhaltensweisen, die er beim Anschauen eines Films bemerkt hat, erworben hat. Sobald das Universum semantisch offen ist, zieht auch ein Fachkontext wie die Straße alle anderen Kontexte des Alltagslebens an und lässt sie an der richtigen Interpretation der Situation teilhaben. Im Alltag sind wir in der Lage, schnell viele andere Erkenntnisse zu mobilisieren, die sehr alt und scheinbar weit von dem zu lösenden Problem entfernt sind, und können selbst beurteilen, ob wir uns an die Komplexität des Problems angepasst haben.
Es ist keine Überraschung, dass die letzte Grenze für die KI diejenige ist, die gerade beschrieben wurde. Sie kann mit dem korrelieren, was wir normalerweise „Bewusstsein“ nennen. Aber anstatt in der vagen und fast mystischen Umgebung dieses undefinierten Begriffs zu taumeln, gibt uns die Schwierigkeit, die KI bei der Annäherung an ihr trifft, ein viel klareres Bild. Bewusstsein ist vielleicht nur die Fähigkeit, für uns selbst einzuschätzen, wie tief wir in die immense Sammlung unserer Erinnerungen gehen müssen, um alle Facetten eines Problems zu betrachten und uns entsprechend anzupassen. Es handelt sich um eine konkretere Definition des Bewusstseins, die eher derjenigen ähnelt, die einige asiatische Philosophien pflegen: Bewusst sein bedeutet, das Ausmaß der Tiefe unserer Beziehung zum ganzen Universum, zum Kosmos, zu messen und zu wissen, wie wir es in jeder Situation unseres Lebens selbst nutzen können.
Maschinen sind in der Lage, ihre eigenen Konzepte zu schmieden, aber noch nicht in der Lage, sich selbst über den Grad der Kontextualisierung des Problems, mit dem sie konfrontiert sind, im Klaren zu sein. Wenn eines Tages eine Maschine diese Fähigkeit besitzen würde, könnten wir anfangen, uns auf eine KI zu beziehen, die die Erhaltung unserer Menschlichkeit bedrohen würde. Solange dies nicht der Fall ist, bleibt die KI eine leistungsfähige Technologie zur statistischen Analyse, die bei Missbrauch potenziell gefährlich ist, aber noch lange nicht der menschlichen Intelligenz entspricht.
This post is also available in: EN (EN)FR (FR)