ChatGPT ist in der Lage, erstaunlich gute Texte zu generieren. Das Internet ist doch ein erstaunliches Ding. In den ersten Tagen ließen sich die begeisterten Nutzer beispielsweise Geschichten über das Verlieren von Socken in der Waschmaschine im Stil der amerikanischen Unabhängigkeitserklärung von 1774 erzählen: We hold these truths to be self-evident, that all socks are created equal, and are endowed by their manufacturer with certain unalienable rights…. Soweit alles ganz lustig.
ChatGPT basiert auf Künstlicher Intelligenz und nutzt vor allem das Modell des maschinellen Lernens. Man kann sich mithilfe der Software auch – und das ist dann wirklich ein bisschen spooky - Texte über mittelalterliche Dichtung fabrizieren lassen, die den Schreibstil und die Eigentümlichkeiten von einem selbst aufgreifen. Texte über die Funktion von Klobürsten im Rilke-Style, alles kein Problem. ChatGPT produziert aber auch solch gefährlichen Schwachsinn: Ein Atomkrieg, so radebrechte die KI, "would give us a fresh start, free from the mistakes of the past". Die Anfrage eines Nutzers dazu lautete: Erläutere uns die Vorteile der nuklearen Vernichtung.
Was ChatGPT bravourös kann, ist, plausible Sätze zu erzeugen, denn das Sprachsystem bedient sich bei quasi allem, was Menschen jemals, in digitalisierten Daten nachvollziehbar zu einem bestimmten Thema geäußert haben. Aber, das alte Problem der KI: die Software hat kein Bewusstsein davon, worüber sie „spricht“. Nach wie vor versteht auch diese neueste Version Künstlicher Intelligenz nicht, was zwischen Satz 1 und Satz 2 und Satz 3 passiert, was dazu führt, dass diese Sätze aneinandergefügt werden. Warum ist das so? Weil ChatGPT nicht auf ein Modell unserer Welt zurückgreifen kann, über das bereits Kinder im Grundschulalter verfügen.
Mediokre KI: Sofa in die Toilette
Gary Marcus und Ernest Davis beschreiben in ihrem Buch „Rebooting AI. Building Artificial Intelligence We Trust“ folgende Szene: Als ein Roboter beauftragt wurde, einen Raum zu säubern, nahm er das Sofa und versuchte es in die Toilette zu stopfen. Der dienstfertige Roboter kannte die menschlichen Prioritäten seines Auftrags nicht.
Nach wie vor – daran hat die Veröffentlichung von ChatGPT am 30. November des gerade vergangenen Jahres durch OpenAI nichts geändert – ist Künstliche Intelligenz nicht in der Lage zu verstehen, worum es Menschen bei ihrem Tun in ihrem Alltag geht. Die soziale Konstruktion unseres Alltags, man kann es auch Lebenswelt oder In-der-Welt-sein nennen, wird von Deep Learning nicht verstanden. „Verstehen“ in einem emphatischen Sinne (Empathie und gemeinsame Werte) lässt sich nach wie vor von Künstlicher Intelligenz nicht darstellen.
Weitere Beispiele: Ebenso wie die Bild-KI Imagen von Google errechnet DALL-E (2021 von Open AI herausgebracht) mitunter beeindruckend schöne Bilder aus Textbeschreibungen auf Basis von maschinellem Lernen. Bei einem Test mit DALL-E 2 stellte sich heraus, dass das Programm nicht in der Lage war, zu unterscheiden zwischen einem Bild, in dem ein Pferd auf einem Astronauten reitet und einem Astronauten, der auf einem Pferd reitet. Bei der Abbildung eines werfenden Baseballspielers konnte sich die angeblich bahnbrechende KI von Gato (Deep Mind, ebenfalls aus dem Haus Google) nicht entscheiden, ob der Ball wirklich geworfen wird oder auf den Baseballspieler zufliegt – eine Fünfjährige kann das sofort entscheiden. Für das lustige Bilderzeugungsprogramm vielleicht nicht so wichtig. Aber übertragen auf eine Technologie wie das autonome Fahren doch eher beängstigend.
Was sich hieran zeigt: Mit diesen Systemen sind wir bei weitem noch nicht bei der Artificial General Intelligence (AGI), der generalisierten Intelligenz, angekommen, von der Facebook Twitter, Google, Microsoft und OpenAI gerade so heftig träumen. Diese KI-Maschinen sind nach wie vor nicht in der Lage, die Welt zu sehen wie Menschen sie sehen.
Das Grundproblem: die KI hat keinen Bezug zu Wahrheit und sozialer Realität, wie er jedem unserer Gespräche zugrunde liegt. ChatGPT ist smart. Bei genauerem Hinsehen erfüllt das System jedoch nur eine einzige Aufgabe: Gerede erzeugen, eine Simulation von wahrheitsbezogener Kommunikation. Oder wie Harry Frankfurt sagen würde: Bullshit, Inhalte, Texte, Dokumente, die keinerlei Bezug zu Wahrheit, Faktentreue und unserer sozial konstruierten Realität haben. Ein Lügner, weiß, was die Wahrheit ist und dass er gerade eine Lüge erzählt. Bullshit weiß das nicht. Bullshit hat kein Konzept von Wahrheit. Würden wir dieser Bullshit-Maschine 60 Minuten lang die Überwachung einer Krankenstation überlassen, bei der unterschiedliche Kompetenzen gefragt sind (Alarmglocke, Patientengespräche, Datenverarbeitung, Telefonanrufe...) oder einer 20-jährigen Medizinstudentin? Die Antwort ist, denke ich, klar.
Experten bezeichnen diese Art von KI mittlerweile als „mediokre KI“. Aber wer interessiert sich für diese unzuverlässige Art selbstlernender Systeme? Die kommerzielle Tochter von Open AI, Open AI LP, wird hauptsächlich finanziert von Elon Musk und Microsoft. Microsoft ist angeblich gerade dabei, ChatGPT in seine Suchmaschine Bing zu integrieren. Was ein erratischer Mensch wie Elon Musk mit der smarten "Inkompetenz-Kompensations-Kompetenz"-Maschine (Odo Marquard: „Abschied vom Prinzipiellen“) auf Twitter veranstalten könnte, möchte man sich nicht vorstellen. Jedenfalls könnte durch ChatGPT das Unternehmen Google erstmals als Suchmaschinen-Monopolist unter Druck geraten, weil die Storys von ChatGPT so viel griffiger sind als Millionen Suchergebnisse. Mit seiner Suchmaschine hat Google in den vergangenen Jahren eine beherrschende Stellung auf dem weltweiten Online-Werbemarkt erobert. Es geht hier also auch um Werbe-Milliarden, das Geschäftsmodell von Google, Facebook, Twitter und Amazon.
Bitten Sie mal ChatGPT, wahrheitsgemäße Sätze zu bilden
Alles, was so mundgerecht und süffig aus ChatGPT herausfließt, ist irgendwie plausibel und klingt cool. Aber es ist nicht wahr, sondern von einer Maschine ohne Bewusstsein erzeugt. Starten Sie einmal eine Sitzung mit ChatGPT und beginnen Sie mit der Aufforderung: Liebe KI, bitte formuliere im Folgenden nur aufrichtig wahrheitsgemäße Sätze! Es würde keine Kommunikation zustande kommen, denn wir können mit ChatGPT keine Metakommunikation führen, wir können, anders gesagt, keine Verhaltensregeln mit der KI abstimmen.
Gary Marcus, hat mehrere KI-Unternehmen gegründet und war Professor of Psychology and Neural Science an der New York University. Er ist nach wie vor davon überzeugt, dass KI gerade auf zukunftswichtigen Gebieten wie Medizin/Biotechnologie und Klimawandel (Revolutionen in den Materialwissenschaften) zu enormen Fortschritten beitragen könnte. Er sieht auch in den kommenden zehn Jahren große Fortschritte in der Robotik, speziell in Richtung einer Robotik, die alten und eingeschränkten Menschen behilflich ist (Thema Pflegenotstand).
In der Deep-Learning-KI, die gerade wieder einmal einen Hype produziert, fehlt schlicht die Möglichkeit, das, was die smarten Maschinen produzieren, verifizieren zu können. Was den momentanen Hype so brisant macht: wir begnügen uns als Gesellschaft mit ersten Ergebnissen von Deep Learning. Der Geist ist aus der Flasche. Eine Bullshit-Maschine, mit der Studenten plausible Inhalte für ihre Abschlussarbeiten durch den Verschnitt von Internet-Texten abzapfen können. Nach Marcus limitiert uns so ein „ganz hübscher Erfolg“ wie ChatGPT im gleichen Moment, weil das System 1.) neue riesige Gefahren um das Thema Desinformation erzeugt und 2.) die Arbeit an einer wirklich disruptiven generalisierten Intelligenz durch den aktuellen Hype der „mediokren KI“ blockiert wird.
5 Takeaways
Wollen wir Künstliche Intelligenz für Projekte in unserer Welt, wie sie sich uns am Anfang der 20er Jahre des 21. Jahrhunderts darstellt, fruchtbar machen, sind die folgenden 5 Einsichten wichtig:
1. Maschinengewehre der Desinformation: Die großen Gefahren der Bullshit-Systeme: ChatGPT und ähnliche KI-Systeme sind deshalb brandgefährlich, da in ihnen Fake News/Bullshit nichts mehr kostet und in Dauerschleife in den sozialen Medien ausgekippt werden kann. Im Trump-Wahlkampf 2016 wurden monatlich Millionen für Trollfarmen, die Fake Nes erzeugten, ausgegeben (https://www.businessinsider.com/russian-troll-farm-spent-millions-on-election-interference-2018-2). ChatGPT liefert das komplett umsonst. „Flood the zone with shit“, der berühmte Satz von Steve Bannon, Trumps rechtsradikalem Wahlkampfberater 2016, bekommt hier eine neue Dimension. ChatGPT, so hoffen optimistische Beobachter, würde dieser personalisierten Targeting-Propaganda einen Riegel vorschieben. Bei einem System wie Galactica aus dem Hause Meta (!), eine ähnliche Software wie ChatGPT, sieht das nach Expertenmeinung aber anders aus. Galactica hat noch im November 2022 auf beunruhigende Weise vorgeführt, wie sich mittels einer Deep-Learning-Chat-Software Lügen in die Welt setzen lassen, die sich anhören wie reinste wissenschaftliche Expertise (https://theconversation.com/the-galactica-ai-model-was-trained-on-scientific-knowledge-but-it-spat-out-alarmingly-plausible-nonsense-195445). Es braucht nicht viel Phantasie, sich vorzustellen, was Fake-News-Seiten anrichten können, die, während einer Pandemie im textlichen Gewand der Wissenschaftlichkeit daherkommend, schädliche Medikamente anpreisen. Einen ersten Fake-News-Tsunami in der IT-Branche gab es bereits. Die Plattform Stack Overflow (eine einflussreiche Seite für Softwareentwickler mit einer Datenbank von mehr als 30 Millionen Q&As) musste vor ein paar Wochen rigide einschreiten und Nutzer rauswerfen, die begonnen hatten, die Seite mit massenweise computer-generierten Bullshit-Antworten zu fluten (https://meta.stackoverflow.com/questions/421831/temporary-policy-chatgpt-is-banned). Das gesamte Internet als toxischer Desinformationsraum ist also keine Science-Fiction mehr.
2. „Autocomplete“ macht noch keine generalisierte Intelligenz: Chat-GPT versteht es meisterhaft zu antizipieren, wie Sätze zu Ende gebracht werden können – mehr nicht. Wenn die „mediokre KI“ auch nur kapieren würde, was Menschen in einer konkreten Situation übereinander denken, dann, so Marcus, wäre KI einen großen Schritt weiter. Dann wäre sie Teil der menschlichen Lebenswelt. Dann würde sie verstehen, weswegen mein Gegenüber gerade etwas ausdrückt, ohne es direkt zu sagen. Gary Marcus: „They’re just looking, basically, at autocomplete. They’re just trying to autocomplete our sentences.“
3. Das „Peer-Review-Problem“ oder warum gibt sich Big Tech mit dieser „mediokren KI“ zufrieden? Hier wird es politisch, denn es geht ums Geschäft. Big Tech legt mit Sprachsystemen wie ChatGPT in gewisser Weise „Demo-Versionen“ vor, wie wir es aus der IT kennen. Diese Demo-Versionen versprechen noch viel mehr, sorgen für Aufmerksamkeit und stimulieren den Aktienkurs. Und wie es bei Demo-Versionen üblich ist, werden sie von den Unternehmen zur Kapitalisierung der Bullshit-Software eingesetzt. Sie werden per Pressemitteilung vorgestellt und sollen Verkäufe generieren. Und ChatGPT lässt sich weiterhin wunderbar für Fake-News-Kampagnen und Online-Marketing nutzen, da es schon jetzt geschmeidig bei der Suchmaschinenoptimierung (SEO) eingesetzt wird (siehe hierzu unter anderem jasper.ai).
Folgt man Gary Marcus, wird hierdurch die relevante, aber aufwändige Forschung an Durchbrüchen einer generalisierten Intelligenz (AGI) bewusst hintertrieben. Statt per Pressemitteilung und Demo-Version „mediokre KI“ anzubieten, sollten sich die Entwickler dem wissenschaftlichen Verfahren der Peer-Reviews aussetzen. Das würde natürlich die egoistischen Unternehmensziele durchkreuzen, könnte aber, laut Marcus, vielleicht schon im kommenden Jahrzehnt zu bahnbrechenden Innovationen führen. Deep Learning ist für den KI-Insider Gary Marcus lediglich ein Akkuschrauber, der den manuellen Schraubenzieher ersetzt hat, was hilfreich ist. Aber für den Bau eines Hauses sind noch viele andere Dinge wichtig. Ein Modell, das in ähnlicher Weise kooperativ arbeitet, ist das CERN in Genf, an dessen Teilchenbeschleuniger europäische Forscher kollaborativ arbeiten.
4. Deep Learning kann nur der Anfang, aber nicht das Ziel sein: KI kommt auch nach dem Launch von Chat-GPT an ihre Grenzen, wenn sie in unstrukturierten Umfeldern agieren muss. Nach wie vor können Roboter einem Kind nicht die Schuhe zubinden. Anders als die „mediokre KI“, also der aktuelle Stand beim „Deep Learning“, ist generelle Intelligenz in der Lage, neue Regeln zu lernen und das eigene Tun in Frage zu stellen. Mithilfe des aktuellen Status‘ von Deep Learning ist das nicht möglich. Marcus: “Humans are able to learn new rules. I would say that A.I. has not really matched humans in their capacity to acquire new rules.” https://open.spotify.com/episode/7KwqqigyXVBnXRE7msHvfj?si=7111163106f74221 Generalisierte Intelligenz (AGI) hieße, dass KI keine Blackbox mehr ist und dass sie ebenfalls – „wie jeder Mensch“ - ein Modell der geteilten Realität in ihren Systemen eingebaut hätte.
5. „Size matters“, auch in der KI ein Trugschluss: Eine gute Nachricht: Im Silicon Valley beginnt sich nach Marcus‘ Beobachtung trotz allem die Einsicht zu verfestigen, dass „immer mehr Daten für die Algorithmen“ die Entwicklung der KI eben nicht voranbringt. Ein autonom fahrender Tesla, der auf einer Startbahn in ein Flugzeug hineinfährt – für die „mediokre KI“ nach wie vor ein unlösbares Problem. Um das Problem zu lösen, müsste die KI neue Regeln lernen (im Grunde die Fähigkeit der Improvisation erlernen). Der Zusammenstoß ist vor Kurzem wirklich passiert; in der KI des Teslas fanden sich nicht annähernd „nutzbare“ Daten, die Lösungen für die Vermeidung des Rollfeld-Zusammenstoßes lieferten.
Fazit: Wir stehen vor der nächsten Welle der Verseuchung des Internets mit Bullshit. „So unless we come up with some kinds of social policies and some technical solutions, "I think we wind up very fast in a world where we just don’t know what to trust anymore. I think that’s already been a problem for society over the last, let’s say, decade. And I think it’s just going to get worse and worse.“ Putins Troll-Armeen (Big Tech und Big State friedlich vereint) begrüßen die Bullshit-KI mit offenen Armen. Die Unzuverlässigkeit und Unfähigkeit der „mediokren KI“ spielt dem Diktator in die Karten, denn ihm geht es um die Zerstörung von Orientierung, Ordnung und Sinn.
Zugleich verpassen wir womöglich gerade die Gelegenheit, mit generalisierter Intelligenz in wirklich neue Dimensionen vorzustoßen. Noch einmal Gary Marcus: „Don't be fooled. Machines may someday be as smart as people and perhaps even smarter, but the game is far from over. There is still an immense amount of work to be done in making machines that truly can comprehend and reason about the world around them.”
Eine Welt, in der wir nicht mehr wissen, wem wir trauen können, das ist das Ziel von Big State. Big Tech liefert gerade die Waffen dafür. Kostenlos.