Die künstliche Intelligenz des Verstehens

Ich lese Schlagzeilen, die behaupten, KI habe die Intelligenz von Achtklässler erreicht. Was ist passiert? Eine KI kann seit kurzem Highschooltests mit bis zu 90% Genauigkeit lösen. Was für ein Durchbruch berichtet die NY Times! Ist das so? Sehen wir noch einmal hin: Das Aristo-System wurde dafür entwickelt, standardisierte Tests zu lösen. Und genau das sind die genannten Highschooltests: standardisierte Multiple-Choice-Tests. Es ist tatsächlich eine große Leistung des Information-Retrievals, textuellen Fragen passende Antworten zuzuordnen. Das umgekehrte Problem hat bereits Watson eindrucksvoll in der Jeopardy-Challenge lösen können. Aber ist das nicht wieder die alte Problematik, dass KI eng-definierte Probleme gut lösen kann, aber diese Fähigkeit schwer für andere Probleme anwenden kann? Auf den Schulkontext übertragen hieße das: Ein Schüler, der einen umfangreichen Frage-Antwort-Katalog auswendig lernt, kann hohe Punktezahlen bei Multiple-Choice-Test erbringen, ohne den Lernstoff verstanden zu haben, z. B. durch die kreative Anwendung des Wissens bei anderen Fragestellungen. Aber was bedeutet menschliches Verstehen überhaupt und wann können wir von verstehenden KI-Systemen sprechen?

grafik

Die Grenzen des Verstehens in Systemen maschinellen Lernens

Wir können beobachten, ob wir unser Verstehen verstehen, indem wir uns fragen, ob wir diese Fähigkeiten in Systemen der Künstlichen Intelligenz (KI) nachbilden können. Inwiefern verstehen KI-Systeme was sie verarbeiten? Gängige Verfahren maschinellen Lernens als dominanter Ansatz der KI werden zur Mustererkennung eingesetzt. Ein einfaches Beispiel: Eine KI könnte Tische an dem Muster „vier Beinen mit einer Platte darauf“ erkennen, einfach weil in den ihr zur Verfügung gestellten Beispieldaten Tische sehr häufig diese objektiven Eigenschaften zeigen – also statistisch gesehen zusammenhängen. Das Erlernen des Namens dieser Objekte („Tisch“) ermöglicht aber kein autonomes Handeln, denn unterschiedliche Handlungen an Tischen erfordern unterschiedliche Eigenschaften dieser Tische. Beispielsweise benötigt das Abstellen von Gegenständen eine ebene Fläche, unabhängig davon, ob es als Tisch bezeichnet wird; fürs Schreiben sind wiederrum andere Eigenschaften nötig. Werden also in gängigen Verfahren maschinellen Lernens fürs Verstehen unpassende Kategorien gelernt? Sollten eher die Eigenschaften der Objekte („Schreibfläche“) gelernt werden? Oder hängt es vielmehr damit zusammen, dass der aktuelle Ansatz von KI gar nicht den Anspruch hat, menschliches Verstehen nachzuahmen, sondern konkrete Probleme lösen möchte. Dann wären also das Erkennen von Schreibflächen und Ablageflächen zwei voneinander unabhängige Probleme. Das Lösen eines Problems soll dann gar nicht zum Lösen anderer Probleme führen? Das hängt natürlich von der Definition des Problems ab! Denn auch das konkrete Problem des Abstellens von Gegenständen auf ebenen Flächen benötigt die Erkennung von kausalen aus statistischen Zusammenhängen. Genau das ist eine wesentliche Eigenschaft menschlichen Verstehens: den Nutzen von Dingen dadurch zu erlernen, auch indem aus Korrelationen Kausalitäten abgeleitet werden: Tische haben meistens eine bestimmte Form (Korrelation), aber diese Form folgt einer bestimmten Funktion (Kausalität), die es aus den Eigenschaften der Form zu schlussfolgern gilt. Letztlich kann wieder erst durchs Handeln überprüft werden, ob die geschlussfolgerte Hypothese richtig ist, also ob sie funktioniert.
Die höchste Form dieser Überprüfung ist die Neukombination erkannter funktionaler Eigenschaften in einem neuen Kontext. Beispielsweise kann ein ebener Boden als Abstellfläche benutzt werden, nachdem verstanden wurde, dass die Tischplatte aufgrund ihrer Ebenheit geeignete Abstellflächen sind. Im Gegensatz zu Ansätzen aktueller KI (z. B. Reinforcement Learning, Transfer Learning) wird durch diese Erfahrungen und Schlussfolgerung klar (und in anderen Kontexten anwendbar), warum die neue Handlung funktioniert – oder auch nicht: Zusammenhänge werden logisch in Handlungen festgestellt. Dieser Schritt des Verstehens verknüpft konkrete Erfahrungen mit abstrakten Schlussfolgerungen, um kreativ handeln zu können. Das käme menschliches Verständnis schon verdammt nah!

4 „Gefällt mir“

Treffender Vergleich, finde ich, der außerdem ein zunehmendes Problem des Bildungssystems verdeutlicht - und das zumindest ich wahrnehme:

Es wird stärker daurauf gesetzt, Wissen auswendig zu lernen und dann wiederzugeben, als auf Verstehen und Wissen eigenverantwortlich anwenden. Insbesondere an den Hochschulen hat das gefühlt zugenommen…

Das Problem: Ausgerechnet diese Art von „Intelligenz“, die jungen Menschen immer stärker antrainiert wird, ist die, bei der uns Maschinen im Zweifel übertreffen werden. Die kreative Problemlösungskompetenz, die auf Verstehen und Transfer beruht, lassen wir dagegen brachliegen.

Übrigens auch, wie es mir manchmal vorkommt, in dem wir die gesamte (Geschäfts-)Welt in Daten pressen und dann auswerten…

Davon abgesehen: Danke für den spannenden Beitrag :slight_smile:

3 „Gefällt mir“

Es ist wahrscheinlich ähnlich dem Menschen: Kreative Fähigkeiten benötigten wohl kognitive Grundfähigkeiten, ein gutes Gedächtnis hilft hier. Aber wie oft im Schulwesen, wo die Bildung eine Fortführung von Grundfertigkeiten (Auswendiglernen) ist, versucht KI derzeit ihre Grundfunktionen auszureizen, statt sie weiterzuentwickeln.

Es wäre interessant zu sehen, wie KI auf die Basisfähigkeiten des maschinellen Lernens (ML) aufsetzt und diese erweitert. Anders gesagt: ML ist erst der Anfang, die Grundlage für KI, ähnlich wie Erinnerungsfähigkeiten (und entsprechende Operationen zur Mustererkennung) beim Menschen die Basis für höhere kognitive Funktionen sind.

3 „Gefällt mir“

Ja, ich hatte mich auch über die Schlagzeile gewundert. Oder besser gesagt: Etwas gegrübelt, was damit gesagt werden soll. Denn viele schulische Tests verlangen kein Denken, sondern schlichtes Wissen und Reproduzieren von Prozessen - was Künstliche Intelligenen natürlich gut „können.“

Echte Intelligenz - also Deduktion, entwicklen von Problemlösungsstrategien etc. pp. - wird in diesen Tests weitestgehend nicht verlangt. Wobei hier dann die Frage ist, ob das nicht mehr über das Schulsystem der westlichen Welt aussagt als über KIs.

Sowieso herrscht ja eine ziemliche Verwirrung darüber, was Künstliche Intelligenz kann/können wird und wo sie „stecken bleiben könnte.“ Ich hatte ja mal hier was drüber geschrieben.

3 „Gefällt mir“

Ich glaube, es geht dabei nicht allein um die Frage Auswendiglernen vs. kreative Neukombination von Erlerntem, sondern z.B. auch um die Grenzen beim Sprachverstehen, die u.a. daher rühren, dass Computer nicht über das Weltwissen verfügen, vor dessen Hintergrund der Mensch versteht, was ihm gesagt wird. Weitere derzeit weitgehend ungelöste Schwierigkeiten liegen im Verständnis von Ausdrucksformen wie der Ironie oder im Verstehen von Redewendungen. Auch wenn Alexa ein Schlüsselwort mit einem Wikipedia-Artikel verbinden kann, ist es bis zum wirklichen Verstehen noch ein langer Weg.

2 „Gefällt mir“

Was für ein wunderbarer, viel zu selten verwendeter Begriff.

2 „Gefällt mir“