26. Jahrgang | Nummer 10 | 8. Mai 2023

ChatGPT und Frankensteins Monster

von Jürgen Leibiger

Das Monster, das Mary Shelleys Romanfigur Frankenstein zusammenbaut, ist nach einer Reihe von Untaten einsam und enttäuscht von sich. Es begeht Selbstmord. Von den modernen Geschöpfen der Künstlichen Intelligenz (KI) ist das kaum zu erwarten. Sie optimieren sich selbst und wohin die Reise gehen soll, wird durch Algorithmen und Programmierung festgelegt. Ob in ihnen eine Selbstzerstörung – zum Beispiel bei Gefahr für Leib und Leben oder in anderen unerwünschten Fällen – vorgesehen wird, ist zweifelhaft. Die von autonomen Autos verursachten tödlichen Unfälle wurden durch deren Algorithmen jedenfalls nicht verhindert.

Es sei dahingestellt, ob und wann KI dem Menschen vergleichbare oder gar überlegene schöpferische Fähigkeiten erlangen könnte und welche Art von Kreativität dies wäre. Sie ist schon jetzt bemerkenswert genug, um die Ambivalenz ihrer Nutzungsmöglichkeiten erkennen zu können. Wie das Feuer, das wärmen und verbrennen kann, oder wie Alfred Nobels Dynamit, das sowohl im Bauwesen wie für Zerstörungen eingesetzt wird, ist auch die KI so oder so nutzbar. Entscheidend dafür ist nicht die Art der Technik, sondern Charakter und Interesse ihrer Eigentümer und Anwender sowie derjenigen, die auf politische Rahmenbedingungen ihrer Konstruktion, Produktion und Anwendung Einfluss nehmen. Auch wenn einige Nerds privat hier mitschwimmen, programmieren KI-Experten größtenteils im Auftrag oder mit Billigung ihrer Finanziers und der Eigentümer ihrer Hard- und Software.

In jüngster Zeit haben besonders die seit Herbst 2022 öffentlich zugängliche KI-Anwendung ChatGPT und einige vergleichbare Apps von sich Reden gemacht. Mittels der Dialogfunktion dieses selbstlernenden Systems lassen sich beliebige Fragen beantworten und Texte oder Darstellungen produzieren. Das System liefert zwar manchmal idiotische Ergebnisse und eignet sich auch zum Erzeugen schwer erkennbarer Falschinformationen, kann aber eine erhebliche Erleichterung bei der Lösung einiger intellektueller Aufgaben sein. Je mehr Nutzer es gibt, die mittels der Dialogfunktion quasi nebenbei das Selbstlernsystem mit Daten füttern, umso besser wird das System. ChatGPT und seine Geschwister haben nicht nur wegen der teils sensationellen Ergebnisse weltweite Aufmerksamkeit erlangt, sondern auch dadurch, dass vor wenigen Wochen eine ziemlich lange Reihe prominenter KI-Experten, darunter selbst Elon Musk, in einem offenen Brief ein mindestens sechsmonatiges Moratorium bei der Entwicklung jener KI-Apps fordern, die in ihren Möglichkeiten über die Variante von GPT-4 hinausgehen. Man solle erst Klarheit über Folgen und Risiken solcher Systeme schaffen. Zugleich sollten die KI-Entwickler sich mit Politikern kurzschließen, um die Schaffung eines robusten KI-Regulierungs- und Kontrollsystems „entschieden zu beschleunigen“. Es gehe unter anderem um die Bildung schlagkräftiger Institutionen, um mit den „dramatischen ökonomischen und politischen Zerstörungen (besonders in Bezug auf das demokratische System) fertig zu werden, die von KI hervorgerufen werden.“

Ein solcher Aufruf ist aller Ehren wert. Freilich muss daran erinnert werden, dass schon vor Jahren Tim Berners-Lee, Konstrukteur des World Wide Web, beklagte, seine Schöpfung habe sich zu einem „Monster“ entwickelt. Er konzipierte eine Magna Charta der Beteiligten. Sie wurde zwar auch von großen Plattform-Konzernen befürwortet, blieb aber ansonsten folgenlos (Blättchen 19. Juli 2021). WWW blieb ein Monster und die Welt hat es hingenommen.

Herausgebracht wurde ChatGPT durch „Open AI“, eine US-amerikanische Non-Profit-Organisation, die KI als Open-Source-Projekt entwickeln wollte. Alle Ergebnisse von Forschung und Entwicklung sollten der menschlichen Entwicklung dienen und der Öffentlichkeit kostenlos zur Verfügung stehen. Finanziert wurde dieses Unternehmen durch Spenden in Höhe von über einer Milliarde US-Dollar, darunter vom bereits erwähnten Elon Musk sowie Microsoft. Nobel zu sein, ist für die reichen Spender nicht unbedingt mit einem großen persönlichen Opfer verbunden und Spenden lassen sich in den USA weit großzügiger als hierzulande steuerlich geltend machen. Mit einem Open-Source-Projekt gerade auch im Bereich der KI werden jedoch auch andere kommerzielle Zwecke verfolgt. Das Selbstlernen geht umso schneller, je mehr Nutzer auf das System zugreifen. Genau wie bei den anderen bekannten digitalen Plattformen hängt der Erfolg auch von der Leichtigkeit des Zugangs und der Menge der Anwender ab. Das größte Kapital der Plattformen sind die Konsumenten und die bei ihnen abgegriffenen oder durch sie generierten Daten. Es ist wie bei einem Einkaufszentrum: Um Profit machen zu können, muss es groß mit mehreren leicht erreichbaren Eingängen und langen Öffnungszeiten sein und neben günstigen, sich aus Mengenrabatten ergebenden Angeboten sollte das Parken nichts kosten. Außerdem stehen die Ergebnisse der Open-Source-Projekte natürlich auch den Plattformen zur Verfügung. Es ist der massenhafte freie Zugriff, der die großen digitalen Konzerne zu Monopolunternehmen gemacht hat. Die „Big Five“ (Alphabet/Google, Amazon, Apple, Meta/Facebook und Microsoft) sind, dicht gefolgt von Elon Musks Tesla, die Unternehmen mit den weltweit höchsten Marktwerten. Nur Saudi Arabian Oil kann in dieser Liga mithalten. Längst wird Linux, das wohl berühmteste Non-Profit- und Free-Software-Betriebssystem, einst von Vertretern der Commons-Bewegung als antikapitalistische Pioniertat gefeiert, auch von den großen Konzernen des Informations- und Kommunikationssektors mitfinanziert und ist in deren Profitmaschinerie integriert.

Es wird gemunkelt, das KI-Moratorium sei von manchen der Beteiligten, nicht zuletzt auch Elon Musk, durchaus nicht uneigennützig gefordert worden. Musk, der sich vor einigen Jahren nach dem Einstieg von Microsoft aus Open AI zurückzog, hat natürlich starke eigene KI-Ambitionen, ist aber vergleichsweise neu am Markt. Ein Moratorium verschaffte ihm nicht nur wertvolle Zeit, eine Regulation der KI-Bemühungen könnte auch durchaus zu einer von den Interessen der KI-Industrie dominierten Institution werden. Zumindest hat er die Hand gehoben: Ich will dabei sein, wenn ein regulatorischer Rahmen entsteht. Eine völlig außer Rand und Band geratene, von Krethi und Plethi mitbestimmte KI – ein riesiges Frankenstein-Monster ohne Selbstmordgedanken – ist keineswegs im Interesse der Industrie.

Der Geist ist aus der Flasche. Wer wird ihn bezwingen? Soll das der Initiative und den Interessen mächtiger IT-Konzerne überlassen bleiben oder bedarf es nicht doch einer wirklich demokratisch legitimierten und gemeinwohlorientierten Institution? Oder ist es schon zu spät?