Von Matthias Pfeffer
Am Anfang ging es um 13.500 Dollar. Eine Handvoll Informatiker und Computerpioniere traf sich im Sommer 1956, um einen Forschungsantrag über diese Summe bei der Rockefeller Foundation zu stellen. Mit dem Geld wollten sie zwei Monate lang am Dartmouth College in New Hampshire erforschen, wie man „automatische Computer“ baut, die die Fähigkeit haben sollten „sich selbst zu verbessern“.
Um das Projekt für die Stiftung möglichst vielversprechend klingen zu lassen, prägte John McCarthy, einer der Teilnehmer, den Begriff „künstliche Intelligenz“. Nichts weniger als eine Maschine, die die menschliche Intelligenz nachahmen könne, hatte man im Sinn. Damit erhielt das Vorhaben die nötige Prise Science-Fiction, die in den 50er-Jahren ihre erste Blüte erlebte. Wörtlich hieß es: „Es kann spekuliert werden, dass ein großer Teil des menschlichen Denkens darin besteht, Wörter nach Begründungs- und Vermutungsregeln zu manipulieren.“
Es handelt es sich also bei künstlicher Intelligenz mit ihrer rein mathematischen Logik nur um einen Ausschnitt menschlichen Denkvermögens. Andere Fähigkeiten des Homo sapiens, die in der Bedeutung des Wortes Intelligenz stecken, kommen in dem An- trag nicht vor – als da mindestens sind: verstehen, erkennen, einsehen, zwischen verschiedenen Optionen mit guten Gründen wählen, Rechenschaft über Entscheidungen ablegen, kreativ sein, empathisch sein und Neues entwickeln. Von emotionaler Intelligenz ganz zu schweigen. All das kann eine Maschine nicht, der es an Leiblichkeit und Bewusstsein fehlt. Und sie kann es aus fundamentalen Gründen auch nicht können. Der Antrag aber wurde positiv beschieden, und mit ihm war der irreführende Begriff der künstlichen Intelligenz (kurz: KI) in der Welt.
Die Verdummung beginnt also bereits mit dem Be- griff, denn seither verwechseln wir die künstliche mit der menschlichen Intelligenz, also den Teil mit dem Ganzen. Umso schlimmer, dass wir heute, fast 65 Jahre später, der KI in vielen Lebensbereichen stärker vertrauen als unserer eigenen Intelligenz. Nach Jahren der Dauerbeschallung aus dem Silicon Valley ist die Überlegenheit der KI zur allgemein akzeptierten Annahme geworden. Und infolge des kalifornischen Mantras, dass sich alle Probleme durch Technik lösen lassen, lagern wir immer mehr Entscheidungen, bei denen menschliche Urteilskraft gefordert wäre, an Computer aus.
Ob Richter in den USA beurteilen, welche Gefangenen auf Bewährung zu entlassen sind, große Konzerne über die Einstellung neuer Mitarbeiter entscheiden oder Plattformen wie Netflix Drehbücher auswählen: Sie alle befragen zuvor die KI und folgen ihr in aller Regel. Dabei stellen die Vorhersagen des modernen Orakels nichts weiter dar als nach dem Verfahren der statistischen Induktion hochgerechnete Wahrscheinlichkeiten, die noch dazu den Nachteil haben, dass sie auf Daten aus der Vergangenheit beruhen.
"Warum wir uns dennoch gern der Logik der Maschinen anpassen? Aus Bequemlichkeit."
Lange hat es gedauert, bis die dadurch erzeugten Verzerrungen, die oft genug Vorurteile verstärken, erkannt und kritisiert wurden. Die viel grundsätzlichere Gefahr aber besteht darin, dass unsere Anpassung an KI-Systeme die entscheidende menschliche Fähigkeit aushöhlt, sich die Zukunft durch Kritik am Bestehenden sowie durch Fantasie, Träumen und Hoffen auf das Bessere anders vorzustellen, nicht nur als reine Fortschreibung von Fehlern aus der Vergangenheit.
Warum wir uns dennoch gern der Logik der Maschinen anpassen? Aus Bequemlichkeit. Wer möchte noch selbst nach Lösungen seiner Alltagsbedürfnisse suchen, wenn er sie sich vorschlagen lassen kann? Mithilfe enormer Datenprofile, die illegal über uns erstellt werden, empfehlen uns Algorithmen er- wünschte Produkte, und wir organisieren unseren Alltag mit Smartphone-Apps wie Erinnerungssignalen nicht nur formal, wir lassen die KI auch unsere Kommunikation steuern: Welche Posts und Meldungen in sozialen Medien Aufmerksamkeit und damit Verbreitung erreichen, wird von Algorithmen, nicht von Menschen entschieden.
Dennoch wächst auch hier das Vertrauen in die Überlegenheit nicht menschlicher Akteure, wie Um- fragen belegen. So hat Google schon vor Jahren klassische Medien bei der Frage danach abgehängt, wer die vertrauensvollste Nachrichtenquelle sei. Längst entscheiden selbstlernende Algorithmen, welche Treffer und damit welche Informationen einzelne Nutzer angezeigt bekommen, ohne dass diese auch nur im Ansatz wissen, nach welcher Logik hier über sie entschieden wird. Für jeden, der sich das fragt, hier die Antwort: Tendenziell werden Meldungen bevorzugt, die besonders leicht Aufmerksamkeit erregen, weil sie Emotionen ansprechen und Reaktionen
(klicken, teilen, kommentieren) hervorrufen. Und weil die Datenkraken durch jede Aktion und Reaktion mit weiteren Profildaten gefüttert werden, versorgen sie jeden Nutzer immer stärker mit scheinbar perfekt personalisierten Wahrheiten. Genauer: mit reaktiven Wahrheiten, die zur faktenfreien Meinungsbildung beitragen und die Aufmerksamkeits- in eine Aufregungsökonomie verwandeln.
Indem wir mittels KI jedem Nutzer eine auf seine Gefühle und Vorurteile zugeschnittene Nachrichtenlage servieren lassen, entziehen wir einer Grundbedingung der Demokratie den Boden: dem allgemein geteilten Wissen einer informierten Öffentlichkeit. Wir machen uns freiwillig zu Idioten. Der „idiotes“ war in der Antike die Privatperson, die sich aus dem öffentlichen Leben heraushielt und sich nur um ihre eigenen Angelegenheiten kümmerte. Der „idiotes“ ist das Gegenteil des informierten und aktiven Bürgers. Er ist der Wutbürger der virtuellen Blasenkommunikation. Entlastet durch Algorithmen, verlernen wir, uns unseres Verstandes zu bedienen. Das aber ist seit Immanuel Kant der Leitspruch der Aufklärung, die im „Ausgang des Menschen aus seiner selbst verschuldeten Unmündigkeit“ besteht. Kant (1724–1804) kannte keine KI, aber er klang so.
Ein weiterer Philosoph gefällig? Theodor Adorno (1903–1969) erschien die moderne Gesellschaft als „universeller Verblendungszusammenhang“, in dem die menschengemachte Form der Herrschaft als naturgegeben erscheint und deshalb akzeptiert wird. Der heutige Verblödungszusammenhang der menschengemachten KI ist augenfällig: zugleich so monströs in seiner Gesamtheit wie unschuldig- dumm in der Rolle des einzelnen Nutzers. Die Philosophin Hannah Arendt (1906–1975) erfasste mit einer geflügelten Formulierung den Fall des Nazi- Bürokraten Adolf Eichmann: Die „Banalität des Bösen“ sah sie in Eichmanns Rechtfertigungsversuch, er sei bei der Organisation des Holocaust nur ein Rädchen im Getriebe, ein willenloses Werkzeug des Führerwillens gewesen. Unsere Anpassung an Maschinen zeugt von der Banalität des Blöden.
Um Missverständnisse zu vermeiden: Künstliche Teilintelligenz kann uns gute Dienste leisten. Aber nur, wenn wir sie kontrollieren, statt uns ihr zu unter- werfen. Mit einem Wort: Aller Bequemlichkeit zum Trotz sollten wir nicht aufhören, uns unseres eigenen Verstandes zu bedienen. Noch können wir entscheiden, wer in Zukunft entscheidet. Tun wir’s!