Beispiel Politik: Im Rahmen der Convention on Conventional Weapons wurde über das Verbot von 'Killer-Robotern' diskutiert. Eine Einigung scheint in weiter Ferne, weil sich die beteiligten Staaten nicht darauf einigen können, wie 'autonome Waffen' überhaupt zu definieren sind. Zählt das Maschinengewehr an der Grenze zwischen Nord- und Südkorea schon dazu, weil es selbstständig Ziele aussucht und feuert? Oder braucht es die Art von heimtückischer Intelligenz, die im hollywoodreifen Kurzfilm vom Future of Life Institute porträtiert wird?
Beispiel Wirtschaft: Unter dem Titel ‘The Rise of the Machines’ lädt das UBS-Forum Expertinnen und Visionäre nach Zürich ein, um gemeinsam die Frage zu beackern, was sich durch AI für Unternehmen und die Gesellschaft ändern wird. Doch ein kohärentes Bild mag nicht entstehen. Prof. David Author vom MIT argumentiert: «Es wird immer Glieder in der Wertschöpfungskette geben, die dem Menschen vorbehalten bleiben.» Prof. Nick Bostrom aus Oxford hingegen warnt: «Wir basteln am Untergang unserer Spezies! Wir brauchen AI-Sicherheitsforschung.»
Beispiel Wissenschaft: Das World Economic Forum listet eine Kohorte an Start-ups auf, die sich anschickt, Teile des wissenschaftlichen Prozesses zu automatisieren. Das prestigereiche Journal Science spekuliert darüber, ob sich Wissenschaftler*innen ganz und gar ersetzen lassen. Gleichzeitig argumentiert Andrew Ng, Chief Scientist bei Baidu, einem der weltgrössten AI-Unternehmen, im Harvard Business Review, dass AI gegenwärtig nur Inputs A auf Outputs B abbilden kann und menschliches Talent weiterhin die knappe und erfolgskritische Ressource darstellt.
All diese Beispiele zeigen, dass die hohen Erwartungen an AI, nur von der Unsicherheit übertroffen werden, welche Auswirkungen AI in Zukunft wirklich haben wird. Ein Teil der Verwirrung können wir ausräumen, wenn wir die verschiedenen Konzepte, die sich unter dem Schlagwort Artificial Intelligence versammeln, der Reihen nach unter die Lupe nehmen.
Intelligenz aus der AI-Perspektive
Die Fähigkeit, in unbekannten und komplexen Situationen ein Ziel zu erreichen. Das ist Intelligenz aus Sicht der AI-Forschung. Eine allgemein gültige Definition fehlt dem Feld allerdings, auch weil Unbekanntheit und Komplexität unscharfe Begriffe sind.
Testen wir die Definition an einer Aufzugsteuerung in einem Wolkenkratzer. Die komplexe Situation besteht aus den Positionen der Kabinen und den Beförderungsaufträgen, die Menschen an den Aufzugsknöpfen erteilen. Das Ziel der Steuerung ist die Sicherheit und Zufriedenheit der Passagiere. Ist diese Steuerung intelligent? Auf einen von der Steuerung überforderten Menschen wirkt das Steuerungssystem intelligent, denn es bewältigt eine komplexe Aufgabe. Doch wenn die Steuerung darauf basiert, dass im Vorfeld alle möglicherweise auftretenden Situationen zusammen mit der optimalen Antwort eingespeichert worden sind, dann löst die Steuerung keine unbekannte Situation. Sie greift einfach auf ihre Datenbank zurück und holt die passende Antwort heraus. Deshalb würde ich hier nicht von Intelligenz sprechen. Was aber, wenn ein- und dieselbe Steuerung problemlos in unterschiedlichen Wolkenkratzern mit unterschiedlich schnellen Aufzügen und unterschiedlicher Kabinenanzahl verbaut werden kann? Dann würde ich von einer intelligenten Steuerung sprechen, weil sie unbekannte Situationen bewältigen kann. Der Grad an Unbekanntheit beeindruckt nicht – das gebe ich zu. Stellen wir uns also vor, dass unsere Aufzugsteuerung es mit neuen und in einem viel höheren Masse unbekannten Situationen zu tun bekommt. Einige Passiere bekommen Schweissperlen auf der Stirn, trippeln nervös umher und schalten auf Schnappatmung. Zur Erinnerung - das Ziel der Aufzugsteuerung ist die Zufriedenheit und Sicherheit der Passagiere. Wie soll sie also in dieser ihr völlig unbekannten Situation reagieren?
Nehmen wir an, dass wir es mit einer aussergewöhnlich intelligenten Aufzugsteuerung zu tun haben. Sie versucht, die Situationen mit einem Not-Stopp auf der nächsten Etage zu lösen. Und sie hat Erfolg. Beim schwitzenden Passagier handelte es sich um einen klaustrophobischen Anfall, die Zufriedenheit und Sicherheit des Mannes ist wieder gewährleistet. Doch als die Aufzugsteuerung in den folgenden Tagen auf alle schwitzenden Passagiere mit Not-Stopps reagiert, werden die Passagiere nur noch nervöser! Die Steuerung verfehlt ihr Ziel der Kundenzufriedenheit bis sie ‘versteht’, dass die meisten Schwitzenden keine Klaustrophobie haben, sondern ein dringendes Meeting. Dringende Meetings und Klaustrophobie - zwei wirklich unbekannte Situationen für eine Aufzugsteuerung, die erstmal nur das unscheinbare Ziel verfolgt, die Sicherheit und Zufriedenheit der Passagiere zu gewährleisten. Um sie zu meistern, braucht eine Aufzugsteuerung eine gehörige Portion Intelligenz. Und damit haben wir auch die Quintessenz unseres Gedankenexperiments: Je unbekannter (und komplexer) eine Situation wird, umso mehr Intelligenz braucht es, um ein Ziel zu erreichen.
Schwache und starke AI
Eine grobe Klassifizierung von AI unterscheidet zwischen schwacher und starker AI. Funktioniert die AI (wie eine normale Aufzugsteuerung) nur in einem sehr speziellen Umfeld, kann also nur ein geringes Mass an Unbekanntheit verkraften, dann heisst sie schwache AI. Dabei spielt es keine Rolle, ob sie ihr Ziel besser erreichen kann als ein Mensch, wie z.B. bei der Klassifizierung von Tumoren oder im Falle von Schach. Wenn sie hingegen genauso gut oder sogar besser als der Mensch mit beliebigen unbekannten Situationen klarkommt, heisst sie starke AI.
Auch wenn starke AI sich besser für Filmplots eignet: sie existiert nicht. Keiner weiss, ob, wann und in welcher Form sie jemals existieren wird. Keiner weiss, ob sie sich graduell aus vielen spezialisierten schwachen AI’s zusammensetzt oder plötzlich durch einen genialen neuen Algorithmus geboren wird. Vorerst gibt es nur eine Form von AI, die schwache.
Warum gibt es nur schwache AI?
AI besteht aus vier Komponenten: Wahrnehmung, Algorithmus, Handlungsraum und Hardware. Diese vier AI-Komponenten für allgemeine Situationen zu entwickeln, bereitet viel mehr Kopfzerbrechen, als sich auf eine spezielle Situation einzuschiessen. Genau diese Situationsgebundenheit definiert aber gerade schwache AI.
Jede*r gute Elektrotechniker*in vermag es, einer Aufzugsteuerung die Wahrnehmungsfähigkeit der Kabinenposition zu verleihen. Ein Sensor für die Kabellänge reicht schon. Zweifelsohne hätten wir einige Probleme durchs Leben zu manövrieren, wenn wir nur diese spezielle Wahrnehmungsfähigkeit von Kabellängen hätten. Um ihr Ziel zu erreichen und gestresste bzw. klaustrophobische Passagiere zufrieden zu stellen, braucht unsere Steuerung mindestens eine gute Kamera und Echtzeitzugriff auf die Meeting-Kalender der Reisenden. Mehr Wahrnehmung stellt also eine Grundvoraussetzung für intelligentes Verhalten dar. Aber AI-Ingenieure müssen sich im Design-Prozess auf einige spezielle Wahrnehmungsorgane beschränken.
Ganz analog steht es um den Handlungsspielraum. Die Anzahl der möglichen Aktionen auf einem Schachbrett lässt sich noch gut überblicken - die Anzahl aller möglichen Sätze in einem Gespräch hingegen nicht. Wen wundert’s da, dass Maschinen im Customer-Service Bereich vor allem für eines sorgen: Frustration.
Und selbst wenn Wahrnehmung und Handlungsspielräume (und Hardware) kein Problem wären - welchen Algorithmus soll man dazwischen einbetten, um starke AI zu erzeugen? Ein Blick aufs menschliche Gehirn legt nahe, dass es diesen einen Algorithmus nicht gibt. Das Gehirn jedenfalls zeigt sich als ein perfekt orchestriertes Zusammenspiel von sehr spezialisierten Modulen. Hirnverletzungen zeugen in drastischer Weise von dieser Spezialisierung. Der berühmte Patient H.M. verlor zusammen mit seinem Hippocampus auch die Fähigkeit neue Erinnerungen zu bilden. Gespräche mit ihm begannen alle paar Minuten von vorne. Dass das Gehirn eine Ansammlung von Spezialmodulen ist, spricht dafür, dass starke AI ebenfalls Stück für Stück aus schwachen AI-Modulen zusammengebaut werden muss. Dann verwundert es auch nicht mehr, dass schwache, also hochspezialisierte AI, zuerst auf der Bildfläche erscheint.
Ein zweiter Blick auf den AI-Diskurs
Mit der Unterscheidung zwischen schwacher und starker AI erscheinen die eingangs erwähnten Beispiele in einem neuen Licht.
Die Debatte über Killer-Roboter krankt daran, dass sie von der Furcht vor einer tödlichen, starken AI getrieben wird, in der Praxis aber nur (legale) Komponenten zu einer (möglicherweise illegalen) schwachen AI zusammengefügt werden könnten. Einerseits möchte niemand die legalen Komponenten verbieten, andererseits ergeben sich daraus so viele Manifestationen für schwache Killer-AI’s, dass sich diese kaum mit einem Gesetz erfassen lassen.
Die Diskrepanz der Zukunftsvisionen von Nick Bostrom und David Author ergibt Sinn, wenn wir bedenken, dass der Philosoph Bostrom vor allem starke AI in den Blick fasst, während der Ökonom Author vor allem die inkrementelle Produktivitätssteigerung durch schwache AI analysiert.
Die Schlagzeile «Wissenschaftler*innen werden durch Maschinen ersetzt», schockiert zuverlässig. Aber sie sollte keinesfalls als Hinweis darauf genommen werden, dass starke AI in Reichweite liegt. Andrew Ng’s Perspektive hat weiterhin Gültigkeit. (Schwache) AI kann nur eines: A auf B abbilden. Wenn sich Aufgabenbereiche in der Wissenschaft automatisieren lassen, dann liegt das vor allem daran, dass sie simpel und wiederholbar genug geworden sind, also von einer schwachen AI erledigt werden können.
Wie sich AI auf die Zukunft auswirken wird? Darüber können wir weiterhin nur spekulieren. Aber hoffentlich durchschauen wir jetzt ein bisschen besser, über welche Art von AI diskutiert wird.
Die Beiträge auf dem Reatch-Blog geben die persönliche Meinung der Autor*innen wieder und entsprechen nicht zwingend derjenigen von Reatch oder seiner Mitglieder.
Comments (0)