Leserzuschrift: Die Dummheit der künstlichen Intelligenz Zum Glück ist unser Gehirn kein Computer

Ikonoklast, Federal Bananarepublic Of Germoney, Samstag, 05.11.2022, 16:49 (vor 748 Tagen) @ NST7220 Views

Die Dummheit der künstlichen Intelligenz
Zum Glück ist unser Gehirn kein Computer

Von Jonathan Tennenbaum

Dies ist der vierte Teil einer Serie. Lesen Sie Teil [1], Teil [2] und Teil [3].

Die Suche nach den Schwächen der heutigen künstlichen Intelligenz - ich nenne sie das "Dummheitsproblem" - führt uns in das faszinierende Gebiet der Neurobiologie, das in jüngster Zeit eine Reihe revolutionärer Entdeckungen macht. Diese Entdeckungen haben viele der Dogmen über die Funktionsweise des Gehirns, welche die frühe Entwicklung der künstlichen Intelligenz geprägt haben, auf den Kopf gestellt und gleichzeitig revolutionäre Wege für die KI in der Zukunft aufgezeigt.

KI, das Gehirn und der Verstand

Wie funktioniert das menschliche Gehirn? Es versteht sich von selbst, dass die Versuche, diese Frage zu beantworten, die Entwicklung der künstlichen Intelligenz von ihren Anfängen in den 1940er und 1950er Jahren bis heute geprägt haben. Das Gleiche gilt für die etwas andere Frage: Wie funktioniert der menschliche Verstand?

Die frühe Erwartung, dass man tatsächlich in der Lage sein könnte, Maschinen zu bauen, die eine menschenähnliche Intelligenz besitzen, fand vor allem in drei Richtungen Ermutigung.

Erstens durch den Nachweis, dass die Funktionsweise des menschlichen Gehirns und Nervensystems zwar aus biologischer Sicht erstaunlich kompliziert ist, aber auf elementaren "Alles-oder-Nichts"-Prozessen beruht, die von digitalen elektronischen Schaltungen leicht nachgeahmt werden können.

Zweitens die Entwicklung der symbolischen Logik und formaler Sprachen, die große Teile der höheren Mathematik ausdrücken können, was darauf hindeutet, dass das gesamte menschliche Denken letztlich auf das Äquivalent der Manipulation von Symbolketten nach bestimmten Regeln reduziert werden könnte. Solche formalen Operationen können ebenfalls recht leicht von einem Digitalcomputer nachgebildet werden.

Drittens die Perspektive, immer schnellere elektronische Rechner zu bauen. In dieser Hinsicht sind die Fortschritte seit den 1950er Jahren kaum enttäuschend: Die Dichte der Schaltelemente auf den heutigen Mikrochips übersteigt die der Neuronen im Gehirn.

Der erste Punkt bezieht sich auf das Gehirn, der zweite auf den Verstand. Sie entsprechen den beiden Hauptrichtungen, welche die KI in der Folgezeit verfolgt hat: künstliche neuronale Netze und maschinelles Lernen auf der einen Seite und die sogenannte symbolische künstliche Intelligenz auf der anderen.

Erstere beschäftigt sich wenig mit den strukturellen Aspekten des Denkens, von denen man annimmt, dass sie sich irgendwie aus dem Trainingsprozess des Systems "ergeben". Im Gegensatz dazu orientiert sich die symbolische KI an der vermeintlichen Struktur des menschlichen Denkens und der Sprache. Für den letztgenannten Zweck muss man nicht versuchen, das Gehirn als Organ zu imitieren. Man könnte im Prinzip jede Art von Hardware verwenden.

Der gegenwärtige Trend in der KI geht zu hybriden Systemen, die beide Ansätze kombinieren, wobei digitale Computer als technologische Basis für die Realisierung von KI-Systemen beibehalten werden. KI-Systeme bleiben ausnahmslos mathematisch äquivalent zu Turing-Maschinen und müssen daher als dumm eingestuft werden (siehe Teil 2).

Das falsche Paradigma

So erfolgreich - und in vielen praktischen Bereichen heute sogar unverzichtbar - die vorherrschenden Ansätze der künstlichen Intelligenz auch sein mögen, sie wurzeln nach wie vor in falschen Vorstellungen über die Natur des Geistes und des Gehirns als biologisches Organ.

Leider sind die vereinfachten Modelle des Gehirns und des Geistes, die der ursprüngliche Ausgangspunkt für die KI waren, inzwischen zum Paradigma für fast die gesamte sogenannte Kognitionswissenschaft sowie für einen großen Teil der Neurobiologie geworden. Es ist zur gängigen Praxis geworden, Methoden, Konzepte, Modelle und Vokabular aus den Bereichen der künstlichen Intelligenz, der Informatik und der Informationstheorie auf die Erforschung von Gehirn und Geist zu übertragen. Es ist schwer, eine wissenschaftliche Abhandlung zu diesen Themen zu finden, die nicht voll von Begriffen wie "Computing", "Verarbeitung", "Schaltkreise", "Speicherung und Abruf von Informationen", "Codierung", "Decodierung" usw. ist.

Sind solche Begriffe wirklich geeignet, um zu beschreiben, was das menschliche Gehirn und der Geist wirklich tun?

In der Wissenschaft sollten wir immer versuchen, unsere Konzepte und Methoden so gut wie möglich an die Natur der untersuchten Objekte anzupassen und zumindest ihre wesentlichsten Merkmale nicht ignorieren.

Dagegen könnte man einwenden: Wie können wir jemals wissen, was die "wahre Natur" oder die "wesentlichsten Merkmale" von etwas sein könnten?

Sicherlich können wir das nie mit Sicherheit wissen, auf eine absolute Art und Weise. Dennoch würde ich behaupten, dass der menschliche Geist in der Tat in der Lage ist, Einsichten in die Natur der Dinge zu gewinnen. Oder zumindest zu erkennen - wenn auch verspätet -, wenn ein bestimmtes begriffliches Modell im Vergleich zu der Realität, die es darstellen soll, völlig daneben liegt.

Genau diese Art von Einsicht ist bei dem Phänomen der Dummheit nur schwach ausgeprägt oder fehlt. In der Wissenschaft und anderswo lassen sich Menschen, die einen völlig unangemessenen Ansatz verfolgen, sehr oft nicht von den sich häufenden Beweisen für diesen Effekt abschrecken. Stattdessen ändern sie einfach ihre Theorien und Erklärungen, um die unerwarteten Phänomene zu erklären. Die Theorien werden immer komplizierter, während die Grundannahmen unverändert bleiben.

Lebende Zellen vs. tote Mikrochips

Auf der Ebene der Biologie und Physik hat das Gehirn praktisch nichts mit digitalen Verarbeitungssystemen gemein. Warum werden sie so oft als gleichwertig behandelt? Warum werden in der Hirnforschung so oft Konzepte aus der Informatik verwendet?

Die Vorstellung, dass Neuronen im Gehirn als digitale Elemente und das Gehirn als digitaler Computer funktionieren könnten, geht auf die Entdeckung des sogenannten "Alles-oder-Nichts-Prinzips" der Nervenfunktion im späten 19. Neuronen erzeugen diskrete elektrische "Spitzen", die von Perioden der - scheinbaren! - elektrischer Inaktivität. Das "Feuern" eines Neurons entspräche einer "1" im Gegensatz zum Ruhezustand ("kein Impuls" oder "0"). Der Impuls breitet sich über die Axone des Neurons aus, die sich zu Zehntausenden von anderen Neuronen verzweigen. An den Kontaktstellen, den Synapsen, bewirkt die Spannungsspitze die Freisetzung von sogenannten Neurotransmitter-Substanzen, die wiederum das Signal an die Zielneuronen weiterleiten. Im Zustand "0" wird vermeintlich nichts übermittelt. Dieses Bild lernen heute schon Schulkinder.

Die entscheidende Frage ist, wie die Neuronen auf die eingehenden Signale reagieren. In der Sprache der Ingenieure: Wie ist ihr "Input-Output"-Verhältnis? Man ging davon aus, dass diese Beziehung durch eine mathematische Funktion dargestellt werden kann, sodass das Verhalten eines Netzwerks miteinander verbundener Neuronen von Computern auf streng algorithmische Weise simuliert werden kann.

Ausgehend von der Pionierarbeit von McCulloch und Pitts (1943) wurden unzählige mathematische Modelle dieser Art entwickelt, von denen einige die Grundlage für Deep Learning-KI-Systeme bilden. Ein wichtiger Schritt bestand darin, der Tatsache Rechnung zu tragen, dass sich die Eigenschaften realer Neuronensynapsen während ihrer Interaktion ändern. Zu diesem Zweck werden den Synapsen in künstlichen neuronalen Netzen variable numerische Gewichte zugewiesen, deren Werte im Laufe eines "Lern"-Prozesses ermittelt werden (siehe Teil 2). Dies geschieht in der Regel nach einem Algorithmus, der auf der sogenannten Hebb'schen Regel beruht, die erstmals 1949 von dem Neuropsychologen Donald Hebb vorgestellt wurde.

Der Versuch, die vermutete Struktur des Gehirns auf diese Weise zu imitieren, hat sich für die KI als äußerst nützlich erwiesen. Aber was ist mit dem echten menschlichen Gehirn?

Es ist bemerkenswert, dass die Pioniere der künstlichen Intelligenz wie John von Neumann, Alan Turing, Marvin Minsky, John McCarthy und andere Pioniere der künstlichen Intelligenz in ihren Schriften über das menschliche Gehirn allesamt die Tragweite der Tatsache nicht erkannt haben, dass die Neuronen im Gehirn lebende Zellen sind.

Es wäre sehr seltsam, wenn diese Tatsache für das Verständnis der Phänomene der menschlichen Kognition irrelevant wäre!

Ich meine damit nichts Geheimnisvolles oder Esoterisches, sondern lediglich wesentliche Merkmale lebender Prozesse, wie sie jedem bekannt sein sollten.

So wäre es zum Beispiel töricht anzunehmen, dass lebende Neuronen sich so starr deterministisch verhalten werden, wie es der Vergleich mit den Elementen eines Computers oder einer anderen Maschine nahelegt. Lebende Zellen werden sich niemals strengen algorithmischen Verfahren unterwerfen, es sei denn, sie würden künstlich dazu gezwungen. Ist es nicht wahrscheinlich, dass die Eigenschaften von Neuronen als lebende Individuen - im Gegensatz zu toten Schaltkreiselementen - der Schlüssel zur menschlichen Kognition sind?

Wie alle anderen Zellen im Körper verdienen es auch Neuronen, als eigenständige Organismen betrachtet zu werden. Es ist bekannt, dass Einzeller in embryonaler Form viel von dem intelligenten Verhalten zeigen, das wir bei mehrzelligen Tieren finden: spontanes Verhalten, sowohl zielgerichtet als auch spielerisch, Wahrnehmung und Erkennung und einige Formen des Lernens. Wie jeder andere mehrzellige Organismus besteht auch der menschliche Körper als Gesellschaft aus lebenden Individuen. Das Denken entspricht einem sozialen Prozess, der zwischen den Gehirnzellen abläuft. Wenig oder nichts bleibt fest und wenig oder nichts gehorcht Regeln von starrer mathematischer Art.

Dogmen zerfallen

In diesem Zusammenhang haben die Entdeckungen der Neurobiologie fast alle mechanistischen Dogmen, die zur Zeit der Entstehung der KI vorherrschten, Stück für Stück umgestoßen. Hier sind einige von ihnen:

Dogma 1. Das menschliche Gehirn ist "fest verdrahtet": Ab einem bestimmten Alter bleiben die von den Neuronen gebildeten "Schaltkreise" und ihre Verschaltungen fest.

Nein. Heute weiß man, dass im erwachsenen Gehirn ständig neue Verbindungen gebildet (Synaptogenese), aber auch wieder abgebaut ("abgeschnitten") werden. Die Neuroplastizität, zu der nicht nur die Synaptogenese, sondern auch ständige Veränderungen der Morphologie bestehender Synapsen und der Dendritenbäume, an denen sie hängen, gehören, spielt eine zentrale Rolle beim Lernen und anderen kognitiven Prozessen.

Dogma 2: Im erwachsenen Gehirn können Neuronen absterben, aber es werden keine neuen Neuronen geboren.

Nein. Insbesondere im Hippocampus - einer kortikalen Region, die für das Lernen und das Gedächtnis sowie für emotionale Prozesse von entscheidender Bedeutung ist - werden ständig neue Neuronen geboren (Neurogenese). Diese neuen Neuronen bewegen sich, wandern durch das Gewebe, bevor sie sich an einem geeigneten Ort niederlassen und Verbindungen mit anderen Neuronen bilden. Die Neurogenese ist offenbar notwendig für das gesunde Funktionieren dieses Teils des Gehirns.

Dogma 3. Neuronen kommunizieren strikt nach dem "Alles-oder-Nichts-Prinzip" über die Erzeugung und Ausbreitung von diskreten Spannungsspitzen.

Nein. Neuronen verfügen über sogenannte "subschwellige Membranschwingungen". Dabei handelt es sich um komplexe Oszillationen des elektrischen Potenzials ihrer Membranen, die zu schwach sind, um Spikes auszulösen, die aber das Spiking-Verhalten des Neurons verändern und ohne Spikes an andere Neuronen weitergegeben werden können. Unter anderem scheinen subschwellige Membranschwingungen eine wichtige Rolle bei der Synchronisierung der Neuronenaktivität zu spielen. Diese Entdeckung hat revolutionäre Auswirkungen. Die kontinuierliche Variabilität dieser Oszillationen und ihre Ausbreitung von Neuron zu Neuron widerspricht der Vorstellung, dass das Gehirn wie ein digitales System funktioniert.

Dogma 4. Die gesamte Kommunikation zwischen den Neuronen erfolgt über das Netz der Axone und Synapsen.

Nein. Es ist inzwischen gut belegt, dass Neuronen auch über die Freisetzung spezialisierter Moleküle in den extrazellulären Raum und deren Wirkung auf sogenannte extrasynaptische Rezeptoren anderer Neuronen kommunizieren. Diese sogenannte "Volumenübertragung" stellt ein zweites Kommunikationssystem neben der sogenannten "drahtgebundenen Übertragung" über Axone und Synapsen dar.

Dogma 5. Die der Kognition zugrunde liegende Hirnaktivität beruht ausschließlich auf den Interaktionen zwischen Neuronen.

Nein. Es ist erwiesen, dass neben den Neuronen auch die Gliazellen (Astrozyten) im Gehirn eine aktive Rolle bei der Wahrnehmung, dem Gedächtnis, dem Lernen und der Steuerung der bewussten Aktivität spielen. Die Zahl der Gliazellen im Gehirn übersteigt die der Neuronen im Verhältnis von etwa 3:2. Die Entdeckung der Rolle der Gliazellen bei der Kognition stellt eine Revolution in den Neurowissenschaften dar. Die Gesamtheit dieser Zellen wird manchmal als "zweites Gehirn" bezeichnet, obwohl die Gliazellen metabolisch und elektrisch so eng mit den Neuronen verbunden sind, dass man die beiden kaum voneinander trennen kann.

Link: https://asiatimes.com/2020/06/the-stupidity-of-artificial-intelligence/
[1] https://asiatimes.com/2020/06/why-ai-isnt-nearly-as-smart-as-it-looks/
[2] https://asiatimes.com/2020/06/algorithm-approach-limits-artificial-intelligence/
[3] https://asiatimes.com/2020/06/ais-future-lies-in-its-truly-human-past/

PDF: https://www.researchgate.net/publication/343451814_The_stupidity_of_Artificial_Intellig...

Mehr dazu vom Autor:
Link: https://asiatimes.com/2020/06/ais-future-lies-in-its-truly-human-past/
[1] https://asiatimes.com/2020/06/why-ai-isnt-nearly-as-smart-as-it-looks/
[2] https://asiatimes.com/2020/06/algorithm-approach-limits-artificial-intelligence/

Anmerkung: Man möge mich bitte freundlichst korrigieren, wenn ich falsch liege, mein Wissensstand basiert auf dem von vor etwa 15 Jahren. Bis dahin war es nicht bekannt, dass es irgendeine Software gibt, die in der Lage ist, die volle 100-prozentige Leistungsfähigkeit eines 80386-Prozessors vollständig auszunutzen.

--
Grüße

---

Ich bin und zugleich nicht.


gesamter Thread:

RSS-Feed dieser Diskussion

Werbung