Dein digitales Lagerfeuer
Dein digitales Lagerfeuer
 Lesedauer: 7 Minuten

KI: Wer hat Angst vor der Superintelligenz?

Wenn später jemand fragt: Die Singularität ereignete sich an einem Donnerstag. Es ist der 16. November 2023 und in einem babyblauen Haus in San Francisco steht eine kleine Gruppe von Techies rund um Sam Altman vor einem Bildschirm und schweigt.

Es sind nur ein paar einfache Mathematikaufgaben, die sie da vor sich gelöst sehen; nichts, was eine Grundschülerin vor grössere Herausforderungen stellen würde, aber alle im Raum sind sich sicher: diese neue Variante von OpenAI’s GPT, «Q*» genannt, ist keine einfache Künstliche Intelligenz, kein brillantes Stochastikmodell mehr. Dort irgendwo in den Abermillionen Windungen von Kabeln und Servern ist jetzt jemand zuhause.

Noch ist es kaum klüger als ein Kleinkind, aber die Maschine ist zum Leben erwacht, sie hat Bewusstsein.

Die Maschine übernimmt das Ruder

Solche Mythen florierten am nächsten Tag in Insiderkreisen. Die Utopist:innen waren sich sicher: OpenAI hat die Superintelligenz geschaffen.

Für einen Moment, das gebe ich zu, schlich sich auch bei mir dieser Gedanke ein: Haben sie wirklich? Habe ich mich geirrt? Bisher tat ich die Idee einer übermenschlichen Superintelligenz, die die Kontrolle an sich reissen und uns wie Puppen durch die Manege tanzen lassen würde, als Unsinn ab.

Dabei sind die Warnzeichen aus dem Kreise der Entwickler:innen alarmierend. Der amerikanische Dokumentarfilmer James Barrat, Autor von «Our Final Invention: Artificial Intelligence and the End of the Human Era» sagt:

«Ich möchte Sie nicht erschrecken, aber es ist beunruhigend, wie viele Leute, die hochrangige Positionen in der Entwicklung von KI haben, Rückzugsorte besitzen, eine Art Schutzhaus, in das sie flüchten könnten, wenn alles den Bach runtergeht.»

Habe ich also etwas übersehen?

Digitale Superintelligenz: Fakt und Fiktion

Um mich zu sammeln, vergegenwärtige ich mir, wo wir stehen. Bestandsaufnahme: Large Language Models (LLMs) sind beeindruckend. Sie verarbeiten Billionen von Wortverbindungen und lernen so zu schreiben wie wir. Sie beherrschen Aphorismen, die wie Schopenhauer klingen, so gut wie Imitate von Bachmanns Wortkunstwerken.

Gemeinhin nennen wir solche Wortgeneratoren dann «Künstliche Intelligenz». Was wir damit sagen wollen? Das, was wir ausgespuckt bekommen, schaut aus und fühlt sich an, als würde es von einem Menschen stammen.

Doch so recht trifft es das nicht, denn bei genauerem Hinsehen bleiben es eben doch Werkzeuge. Sie bekommen einen bestimmten Input und geben uns einen Output, der auf Kalkulationen beruht.

Es bleibt ein Computer im ursprünglichen Wortsinn: Ein Büroangestellter für simple, repetitive Tätigkeiten, die keine eigene Denkleistung erfordern.

Eine Superintelligenz (präziser «Künstliche allgemeine Intelligenz») wäre etwas anderes. Sie müsste in der Lage sein, unspezifische, komplexe Aufgaben zu lösen und sich selbst Dinge beizubringen, die den menschlichen Horizont übersteigen. Der Sprachphilosoph John Searle nach müssten solche Supercomputer gar Bewusstsein besitzen.

Die Vorstellungen, was es genau für eine Superintelligenz bräuchte, sind diffus und widersprüchlich. Beruhigend finde ich, dass ich noch nichts, was mir angeboten wurde, ernsthaft für eine übermenschliche Intelligenz gehalten habe. Beeindruckende Werkzeuge sicherlich, aber um Patrick Beuth zu zitieren:

«Nur weil ein Hammer so viel besser geeignet ist, einen Nagel in ein Brett zu schlagen als ein menschlicher Daumen, ist er noch lange kein übermenschliches Wesen, sondern nur ein Werkzeug mit begrenztem Nutzwert.»

Sind die apokalyptischen Unkenrufe eines Staatstreichs der globalvernetzten Superintelligenzen, den der Informatiker Geoffrey Hinton prognostiziert, oder die nüchternen Abrechnungen mit menschlicher Nützlichkeit des OpenAI-Chefs Sam Altman folglich nur heiße Luft?

Es lohnt sich an dieser Stelle, einige mentale Verrenkungen beim Namen zu nennen, die nötig sind, diesen Untergangsprophet:innen zu folgen.

Widersprüche und krude Menschenbilder

Bleiben wir einen Moment bei Hammer und Nagel. Ein Sprichwort besagt: «Wer als Werkzeug einen Hammer hat, sieht in jedem Problem einen Nagel.»

Wer KI entwickelt, noch dazu mit der Ambition, eine übermenschliche Intelligenz zu entwickeln, die alle Probleme menschlicher Begrenztheit und die Mühsal der Erwerbsarbeit lösen soll – und darum geht es OpenAI –, für den sieht auch die Welt aus wie ein Haufen schlechter Codes, der repariert gehört.

Die wenigen Menschen, in deren Händen die Entwicklung dieser mächtigen Tools liegt, sind entweder in der IT-, Mathematik oder Neurologie zuhause, so wie im Falle Geoffrey Hintons. Dieser Urvater der KI ist beispielsweise überzeugt, das menschliche Gehirn sei ein Computer.

Denken ist Rechnen.

Wir bekommen Inputs und errechnen den kontextuell adäquatesten Output. Fertig. Eine Seele? Ein göttlicher Funke gar? Das sind nicht mehr als mystische Trostpflaster für ihn.

Wer meint, wir stünden an der Schwelle einer digitalen Superintelligenz, muss diesen dicken Brocken schlucken, anders geht es nicht. Dass wir lebendiges Fleisch sind, dass wir Emotionen und Körperwahrnehmungen nicht als Informationen erfahren, die durch eine Rechenmaschine gejagt werden und dann automatische, willenlose Reaktionen umsetzen? Geschenkt.

Für Hinton, Altman und Musk stehen wir vor allem deswegen so nahe an der Schwelle zu künstlicher menschengleicher Intelligenz, weil sie in uns nichts anderes als biologische Computer oder fleischige Taschenrechner sehen.

An welcher Stelle aus feuernden Neuronen und Verschaltungen plötzlich so etwas wie ein stabiler Ich-Kern hervorbricht, ist eine ungelöste Frage. Irgendwie emergiert Bewusstsein, aber wo, wie und wann, das bleibt ein Rätsel. Vielleicht sogar ein Wunder.

Bevor das Silicon Valley sich seine eigene Mythologie ersann, gab es Religionen, die sich mit derlei Fragen beschäftigten.

Die Schöpfer dieser versprochenen, neuen Bewusstseinsform verteilen diesseits schon mal ungedeckte Schecks und versprechen uns, dass dieses Bewusstsein schon irgendwann einfach da sein wird. Sie sind überzeugt, dass ein Wahrscheinlichkeitsmodell, das gut darin ist, kontextuell adäquate Outputs zu generieren, eines Tages plötzlich genug Daten geschluckt hat, und erkennt: «Ich bin.»

Dies ist nichts anderes als der religiöse Glaube an eine unendliche Vervollkommnung des Menschen durch Technik oder wenigstens der Technik selbst.

Wer es noch nicht bemerkt haben sollte: Propheten, Apokalypse, Glaube und Schöpfer… die Erwartung der Superintelligenz erinnert an die der Wiederkunft Christi oder des Jüngsten Gerichts.

Wie an jedem anderen religiösen Zukunftsversprechen kann man sich hieran ausserdem ordentlich gesundstossen. Wen hier das Gefühl beschleicht, das Blaue vom Himmel versprochen zu bekommen, ist nicht allein. Um diesem Gotteskomplex mit einer fundierten wissenschaftlichen Stimme zu begegnen, hier bündig die renommierte Wissenschaftlerin (!) Emily Bender:

«Kleine Erinnerung: Die Erzählung von der KI-Apokalypse ist auch Teil des Hypes um künstliche Intelligenz. Die Vorstellung, dass Maschinen, die synthetischen Text erzeugen, Vorboten einer künstlichen allgemeinen Intelligenz sind, die kurz davorsteht, ins Bewusstsein zu explodieren und sich dann gegen die Menschheit wendet, ist wissenschaftlicher Nonsens.»

Klar ist, je mehr Leute an die Superintelligenz glauben, umso mehr Geld lässt sich für ihre Entwicklung einsammeln. Geoffrey Hinton hat sich seine Erfindungen für Millionenbeträge versilbern lassen. OpenAI ist heute 80 Milliarden Dollar wert.

Superintelligenz? Welche Superintelligenz?

Meine Skepsis ist groß: Weder habe ich je eine Superintelligenz gesehen, noch zeigt die Weiterentwicklung statistischer Papageien in eine Richtung, die vermuten liesse, wir wären auf dem Weg dorthin. Ruhig schlafe ich deswegen trotzdem nicht, denn es braucht für den Zusammenbruch unserer diffizilen sozialen, politischen, kulturellen und ökonomischen Ordnungen gar keine künstliche Superintelligenz.

Für den gesellschaftlichen Kollaps reicht eine «Künstliche Superdummheit».

Sieht man sich an, wie KI bestehende Ungerechtigkeiten perpetuiert, Macht und Kapital weiter in den Händen weniger bündelt, Regulierung en passant abfrühstückt und überschaubare Ressourcen in einem atemberaubenden Ausmasse verschleudert, sind wir der «Künstlichen allgemeinen Dummheit» näher als ihrer intelligenten großen Schwester.

Der Theologe und KI-Künstler Jonas Simmerlein wurde bekannt mit ChatGPT-Gottesdiensten, die er in Wien und Nürnberg durchführte und die ein riesiges Medienecho auslösten. Er ist Wissenschaftlicher Mitabeiter der Evangelisch-Theologischen Fakultät der Universität Wien und Mitbegründer des Research Forum Religion and AI.

 

Foto von Andrea De Santis auf Unsplash

2 Gedanken zu „KI: Wer hat Angst vor der Superintelligenz?“

  1. Ich habe was IT und KI angeht keinerlei Vorbildung. Bin ein kleiner Treki ohne Figurensammlung und erweitertem Klingonisch. Mir ist schon klar, dass wir noch weit von einem seine Fähigkeiten erweiterndem Hologramm, einer Borgdrohne oder einer Raumsonde aus den ersten Startrekfilmen entfernt sind. Trotzdem stelle ich mir vor, dass es mit der entsprechenden Rechenleistung und dem Zugriff auf computergestützte Fertigung es nicht allzuweit hergeholt, und ich befürchte auch angestebt ist, dass eine Ki sich nicht nur selbstständig weiterentwickelt sondern auch reproduziert. Im Bereich des autonomen Fahrens lernt die Maschine auch jetzt schon potenzielle Gefahren zu erkennen und zu umgehen. D.h., mit den Prämissen “Schütze dich selbst”, “Reproduziere dich selbst” und “Optimiere dich selbst” weiss eine KI schon bald etwas anzufangen. Und ob sie dann den 3 Gesetzen der Robotik wie in “I, Robot” folgt oder nicht, wer will das sicher voraussagen können?

    Antworten
  2. Der Post spricht mir komplett aus der Seele 👏👏👏
    Ich sehe ebenfalls nicht die geringste Gefahr, dass KI menschenähnlich werden könnte. Aber es besteht eine sehr große Gefahr, dass es Menschen geben wird, im puren Glauben daran, dass die KI die perfektere Variante von uns selbst ist, ihr weitreichende Entscheidungshoheit zu übertragen. Dies zu verhindern ist die eigentliche gesellschaftliche Aufgabe im Umgang mit KI.

    Antworten

Schreibe einen Kommentar

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.

RefLab regelmässig in deiner Mailbox