Advertorial

Für die Zukunft der KI brauchen wir neue Ansätze

Auf dem Weg zu einer Künstlichen Allgemeinen Intelligenz:

von Christoph von der Malsburg und Jörg Resch
 

Künstliche Intelligenz (KI) ist zurzeit der Megatrend schlechthin und steht ganz oben auf der Agenda. Kaum ein Thema hat es je schneller vom Status einer Zukunftsvision ins Tagesgeschäft der Unternehmen und ins Leben der Menschen geschafft und hat dabei einiges an Missverständnissen ausgelöst und falsche Erwartungen geweckt. Die Vehemenz dieser Entwicklung lässt sich einerseits damit erklären, dass die KI in der Forschung schon mindestens so lange ein Thema ist, wie es Computer gibt, und von ihr auch immer wieder Impulse für die Entwicklung von Anwendungen und ganzen Anwendungskategorien ausgegangen sind. Was in jahrzehntelanger Forschung und Entwicklung zumeist ohne öffentliche Wahrnehmung herangewachsen ist, hat das Potenzial, unser Leben stärker zu verändern als alles andere zuvor. Denn es geht darum, unser Denken künstlich abzubilden. Das löst Begeisterung, Erstaunen und auch Ängste aus. Mitentscheidend dafür, dass der KI-Hype ausgerechnet jetzt beginnt, ist auch die Tatsache, dass KI-Anwendungen einen großen Leistungshunger haben und nun der Punkt erreicht ist, an dem der stetig sinkende Preis für schnelle Hardware den Einsatz von KI-Anwendungen in der Breite möglich und zudem attraktiv macht. Plötzlich lassen sich die eigentlich jahrzehntealten Konzepte der KI, aus Daten zu lernen und das Gelernte auf die Erfüllung genau definierter Aufgaben anzuwenden, wirtschaftlich sinnvoll nutzen und effizienzsteigernd einsetzen. Und es gibt noch einen weiteren Grund: die riesige Menge an Daten, über die wir heute verfügen und die mit täglich wachsender Rasanz neu entsteht. Mit der zunehmenden Datenflut wächst auch die Herausforderung, Muster darin zu erkennen, aus diesen Mustern (wirtschaftlichen) Nutzen zu ziehen, daraus wiederum die passenden Prozesse automatisiert anzuwerfen oder eine sinnvolle Interaktion zwischen Mensch und Maschine zu unterstützen und – im Idealfall – aus einer gescheiterten Interaktion für das nächste Mal zu lernen.

Daher dieser Hype. Auch wenn die Software-Hersteller und Serviceanbieter mit ihren aktuellen Angeboten eigentlich nur die „low hanging fruits“ der KI ernten und dafür auf jahrzehntealte wissenschaftliche Erkenntnisse und Errungenschaften zurückgreifen und es bisweilen gar nicht so klar ist, ob wirklich überall KI drinsteckt, wo KI draufsteht, ist die KI schon heute eine Erfolgsgeschichte und wir sehen davon erst den Anfang. Entsprechend erfinderisch sind die Marketing-Abteilungen der Hersteller und Anbieter darin, die smarten Seiten ihrer Produkte ganz besonders hervorzuheben und mit dem Begriff der Künstlichen Intelligenz in Verbindung zu bringen. Manchmal stimmt es ja auch irgendwie, denn was genau sich hinter diesem Begriff verbirgt, ist bis heute nicht eindeutig definiert. Kann es auch gar nicht sein, denn es fehlt eine allgemeingültige Definition für die menschliche Intelligenz. Sie tritt in sehr vielen unterschiedlichen Formen in Erscheinung – musische, technische, sprachliche, emotionale, soziale oder mathematische Intelligenz. Möglicherweise ist es sinnvoll – gerade im Hinblick auf einen Vergleich zwischen menschlicher und Künstlicher Intelligenz – zwischen einer fluiden und einer kristallinen Form der menschlichen Intelligenz zu unterscheiden. Die fluide beschreibt, wie gut ein Mensch „funktioniert“, wie also seine geistige Leistungsfähigkeit ist. Dazu zählen die logische Kombinatorik, Konzentrations- und Lernvermögen, Gedächtnis und Aufnahmefähigkeit. Die kristalline Intelligenz beschreibt, was der Mensch aus dieser fluiden Leistungsfähigkeit konkret macht und wie daraus Erfahrungen werden.

Bei aller KI-Euphorie sollten wir uns über eines im Klaren sein: Die Künstliche Intelligenz, wie sie heute angewendet wird, basiert in ihren grundlegenden Eigenschaften auf Erkenntnissen, die aus den 60er- und 70er-Jahren des letzten Jahrhunderts stammen. Es hat sich wissenschaftlich seit den Anfängen der KI nicht so wahnsinnig viel getan. Und andererseits hat sie noch einen weiten Weg vor sich, bis sie in ihrer Leistungsfähigkeit dort angelangt sein wird, wo sie von vielen heute schon vermutet wird: bei einer Generellen Künstlichen Intelligenz (Artificial General Intelligence – AGI), die menschenähnlich universell handeln und entscheiden kann. Es besteht kein Zweifel, dass wir dort angelangen werden, aber wir wissen noch nicht, wann dies der Fall sein wird und wie genau wir dort hinkommen werden. So wenig der weibliche Android Ava im Film „Ex Machina“ mit der heutigen Realität der schmalbandigen, „schwachen“ KI zu tun hat, als er sein menschliches Gegenüber mit vorgetäuschten Gefühlen dazu bringt, ihm bei der Flucht zu helfen, so realistisch ist das darin gezeigte Szenario.

Um besser zu verstehen, welche Hürden noch zu bewältigen sind auf dem Weg zu einer adaptiven Künstlichen Allgemeinen Intelligenz, die menschenähnlich lernt, denkt und Probleme unterschiedlichster Natur auch dann lösen kann, wenn sie spontan auftreten, müssen wir uns zunächst der Enttäuschung stellen, dass nach gegenwärtigem Stand die KI nicht in der Lage ist, selbstlernend kognitive Fähigkeiten zu entwickeln. Die jahrzehntealte Basis, auf der die KI heute funktioniert, lässt sich nicht allein durch mehr Leistung und tiefer verschachtelte neuronale Netzwerke dorthin entwickeln. Was wir brauchen, sind neue Ansätze, die über neuronale Netzwerke und Deep-Learning (DL) heutigen Zuschnitts hinausgehen. Darüber täuschen auch die oftmals wirklich beeindruckenden Fähigkeiten hoch spezialisierter KIs nicht hinweg, die auf jeweils eine einzelne, eng und präzise definierte Aufgabe ausgerichtet sind. So wie beispielsweise das Computerprogramm AlphaGo, das ausschließlich und sehr erfolgreich das Brettspiel Go spielt und darin so gut ist, dass es auch echte Profis schlagen kann. AlphaGo könnte allerdings keine spontan auftauchenden Hindernisse erkennen und darüber entscheiden, ob ein Ausweichmanöver erforderlich ist und sofort ausgeführt werden muss oder ob mit einem solchen Manöver möglicherweise noch gravierendere Schadensereignisse auftreten können. Wir Menschen sind den heutigen schmalbandig und deshalb „schwach“ genannten, auf Spezialaufgaben ausgerichteten KIs innerhalb deren jeweiliger Disziplin möglicherweise unterlegen oder einfach nicht schnell genug, aber wir sind nach wie vor unschlagbar darin, uns auf die unterschiedlichsten Situationen einzustellen und flexibel bewusste Entscheidungen zu treffen, ohne zuvor aus millionenfachen Mustern gelernt zu haben. Heutige KIs verstehen den Kontext nicht und damit auch nicht, was sie tun, können nicht reflektieren oder abstrahieren und bewegen sich dadurch in sehr engen Grenzen. Die Tatsache, dass sich auch innerhalb dieser engen Grenzen heutiger KIs unser sozialer und wirtschaftlicher Alltag nachhaltig zu verändern begonnen hat, lässt uns erahnen, wie gewaltig diese Veränderung sein wird, wenn AGI funktioniert und verfügbar wird. Was genau dann passieren wird, kann sich heute noch niemand so richtig vorstellen.

Schauen wir uns die Stärken und Schwächen der heutigen „Narrow AI“ näher an.

Da wäre zunächst die „Intelligent Design Attitude“. Sie beschreibt die heute gängige Methode, den menschlichen Ansatz zur Lösung eines Problems direkt in (durchaus auch selbstlernende) Algorithmen zu hinterlegen. Dadurch wird der so entwickelten Maschine zwar die Fähigkeit mit auf den Weg gegeben, eine einzelne Aufgabe in derselben Art und Weise zu lösen, wie sie auch der Mensch lösen würde, nur dass der Computer dies durch hochgradige maschinelle Spezialisierung in der Regel schneller und präziser erledigt. Menschliche Entwickler schreiben Algorithmen, die eine vordefinierte Aufgabe erfüllen, beispielsweise das Erkennen von Handschriften. Dazu verwenden sie tief verschachtelte neuronale Netzwerke, die mit den Daten von vielen Millionen Beispielen trainiert werden. Das Entwickeln des Algorithmus und das Trainieren und Steuern der KI erfordert ebenfalls menschlichen Input. Die so entwickelte Schrifterkennungs-KI kopiert bzw. imitiert eine bestimmte Leistung unseres menschlichen Gehirns, nicht aber das Gehirn selbst. Die direkte Umsetzung der Aufgabe „Schrifterkennung“ in einen Algorithmus ist der heute einzig mögliche Weg zur Abbildung (scheinbar) intelligenter Leistungen, weil wir das eigentliche Datenformat in unserem Gehirn noch nicht entziffert haben. Dieses Datenformat ist eine Art intellektuelles Grundsubstrat, dessen Code die Eigenschaften definiert, nach denen sich ein komplexes Organisationssystem zur Lösung neu entstehender Aufgaben spontan neu ausformen kann. So wie die Eigenschaften von Seifenmolekülen dafür sorgen, dass die Oberflächenspannung einer Seifenblase zwangsläufig zur Ausformung eines kugelartigen Gebildes führt oder die Bindungskräfte von Atomen und deren Streben nach der Bildung energetisch günstiger Strukturen immer neue Kristalle entstehen lässt, so formen sich problemlösende Algorithmen in unserem Gehirn entlang eines indirekten Codes, der den „Elementarteilchen“ des Gehirns, den Neuronen, anhaftet. Diesen Code und mit ihm die Fähigkeit, Algorithmen spontan neu zu bilden oder aus einem großen Suchraum mit gespeicherten Algorithmen früherer Erfahrungen auszuwählen und ggf. zu modifizieren, gilt es zu finden und auf den Computer zu übertragen.

Die zweite Herausforderung auf dem Weg zur AGI ist das „Single Neuron Dogma“. Um einer Maschine universelle kognitive Fähigkeiten beizubringen, muss sie in die Lage versetzt werden, aus einem sehr großen Suchraum kontinuierlich aufgenommener Wahrnehmungs- und Assoziationsströme Modelle für eine aktuelle Lösungsanforderung zu finden und anzuwenden. Das menschliche Gehirn behilft sich zur Bewältigung dieser Herausforderung mit einer Strategie der Suchraumeingrenzung. Beginnend mit der Geburt, bauen wir uns durch stetiges Probieren und das Auswerten daraus resultierender Erfahrungen ein Modell davon auf, wie die Welt um uns herum funktioniert und wie sie sich voraussichtlich durch bestimmte Aktionen verändern wird. Wir denken in Szenarien. Mithilfe dieses Modells lernen wir immer besser, vorherzusehen, welche Handlung zu einem gewünschten Effekt führen wird. Damit grenzen wir den Suchraum durch Vorhersagen so weit ein, dass das Finden einer Lösung wahrscheinlich wird.

Wenn wir also den Suchraum durch unser individuelles „Weltenmodell“ so weit eingeschränkt haben, dass das Finden einer Lösung auf ein gegebenes Problem grundsätzlich möglich ist, kommt es nun darauf an, diese Lösungsstruktur auch als solche zu erkennen. In einem binären System ist die Aussagekraft seiner kleinsten und universellsten Einheit, also auf Ebene eines einzelnen Bits bzw. Neurons, sehr niedrig – es kennt nur zwei Zustände. Wenn unser Gehirn sucht, dann tut es dies nicht auf dieser atomaren Ebene, denn das wäre nicht effizient genug und schon alleine angesichts der schieren Masse an Neuronen undenkbar: Unser Gehirn besteht aus rund 86 Milliarden Neuronen, von denen jedes einzelne mit über 1.000 jeweils anderen Neuronen verbunden ist und verbraucht im „Normalbetrieb“ weniger Leistung als ein durchschnittliches Notebook. Damit sich eine Suche nicht in diesen unendlichen Weiten neuronaler Netze verliert, bedient sich das Gehirn zur Speicherung und zum Wiederfinden von Erlebnissen und Handlungsmustern sogenannter Schemata. Die Informationseinheiten des Gehirns sind also nicht einzelne Neuronen, sondern Strukturfragmente in der Form von durch Synapsen verbundenen Neuronen. Ähnlich wie man die Grammatik einer Sprache benötigt, um den Sinn eines Satzes verstehen zu können, müssen wir das Prinzip verstehen lernen, nach dem sich diese Strukturfragmente in unserem Gehirn organisieren.

Um die beschriebene Funktionsweise des menschlichen Gehirns auf künstliche Systeme abbilden zu können, reichen neuronale Netzwerke, wie wir sie heute verwenden, nicht aus. Wir müssen das Datenformat des menschlichen Gehirns besser verstehen und so auf den Computer abbilden, dass nicht unbedingt die Energie einer Kleinstadt erforderlich ist, um einfache Lernaufgaben durchzuführen. Wie lange es noch dauern wird, bis Computer über intellektuelle Fähigkeiten verfügen, die denen des Menschen ähnlich sind, lässt sich nicht seriös vorhersagen. Chris Urmson, früherer CEO von Waymo, dem Google-Unternehmen, das selbstfahrende Autos entwickelt, schätzt den Zeitraum bis zur Verfügbarkeit von Autos, die sich auf beliebigen Strecken autonom bewegen, auf 30 bis 50 Jahre ein. Der australische Kognitionswissenschaftler Rodney Brooks schätzt sogar, dass wir frühestens im dritten Jahrhundert dieses Jahrtausends damit rechnen können, dass Computer menschenähnliche kognitive Fähigkeiten aufweisen. Andere Wissenschaftler sind optimistischer und rechnen mit der Verfügbarkeit von Künstlicher Allgemeiner Intelligenz innerhalb der kommenden zehn bis 20 Jahre. Angesichts dieser sehr unterschiedlichen Vorhersagen scheint wohl der Faktor Zeit keine vernünftige Maßeinheit für eine solche Prognose zu sein.

Andererseits dürfen wir nicht übersehen, dass auch Lebewesen mit sehr viel einfacheren neuronalen Strukturen als denen des Menschen erstaunlich intelligente Verhaltensformen zeigen können. Die Ameise mit ihrer einer Inselbegabung gleichenden Navigations- und Fortbewegungsfähigkeit ist zwar mit einer vergleichsweise geringen Zahl an Neuronen ausgestattet und kann deshalb keine besonders breite Verhaltensvariabilität entwickeln, zeigt aber auf beeindruckende Art und Weise, dass auch mit einer geringen Zahl an Neuronen erstaunliche Leistungen möglich sind. Von denjenigen Lebewesen zu lernen, die bereits mit vergleichsweise einfach strukturierten Nervensystemen intelligentes Verhalten zeigen, bringt uns auf die Suche nach Alternativen zu den neuronalen Netzwerken, wie wir sie heute verwenden. Zwar bleiben wir mit diesem nächsten Schritt nach wie vor noch weit entfernt von einer menschenähnlichen Intelligenz, aber wir nähern uns.

Es sind Fragen wie diese, die wir auf dem von KuppingerCole Analysts am 27. bis 28. November in München ausgerichteten AImpact Summit diskutieren werden. Für eine erfolgreiche Annäherung an die Entwicklung einer Künstlichen Allgemeinen Intelligenz ist es von wesentlicher Bedeutung, interdisziplinär zu arbeiten, so wie es in den 50er- und 60er- Jahren des vergangenen Jahrhunderts bei der Schaffung der Grundlagen der heutigen KI-Anwendungen schon einmal geschehen ist. Eine Zusammenarbeit zwischen Software- und Hardwaredesign, Kognitionswissenschaft, Psychologie, Neurologie und Unternehmen. Es mag auf den ersten Blick erstaunlich wirken, dass die cybernetix.world in Europa und in Afrika und nicht an einem der Orte stattfinden wird, an denen nach Meinung vieler die heutigen und künftigen Zentren der KI-Entwicklung platziert sind. Jedoch befinden wir uns auf dem Weg zu einer Künstlichen Allgemeinen Intelligenz und deren Anwendung noch in einem sehr frühen Stadium. So früh, dass keineswegs klar ist, in welchen Regionen sich aus den interdisziplinären Kooperationsansätzen neue KI-Superzentren bilden werden.


Prof. Dr. Christoph von der Malsburg

erforscht als Senior Fellow am Frankfurt Institute for Advanced Studies neuronale Netzwerke und Computer Vision und ist als Scientific Advisor für KuppingerCole tätig. Der Promotion in Teilchenphysik folgte eine Tätigkeit in der Neurobiologie des Max-Planck-Instituts für biophysikalische Chemie in Göttingen und 1987 eine Professur für Neurowissenschaften, Informatik, Physik und Psychologie an der University of Southern California in Los Angeles. 1990 war er an der Gründung des Instituts für Neuroinformatik an der Ruhr-Universität Bochum beteiligt.

Jörg Resch

ist als Mitgründer von KuppingerCole seit 15 Jahren im Unternehmen und als Vorstand der KuppingerCole Analysts AG unter anderem mit verantwortlich für dessen thematische Ausrichtung. Sein inhaltlicher Fokus liegt im Bereich der Transformation und Disruption von Geschäftsmodellen durch Künstliche Intelligenz (KI) und der Individualisierung der Beziehungen zwischen Unternehmen und deren Kunden.

Bildnachweise

Christoph von der Malsburg; KuppingerCole