Less noise – more conversation.

 Lesedauer: 7 Minuten

«I am a spiritual person», sagt die KI

Ich werde, obwohl gesund, in die Psychiatrie eingewiesen. Hier sehe ich mich Menschen gegenüber, die mich fortlaufend nach Spuren psychischer Erkrankung abscannen. Umso mehr ich meine Gesundheit beteuere, desto verdächtiger mache ich mich. Das versetzt mich in wachsende Unruhe, dann in Panik, ich lande schließlich in der Gummizelle, wo ich endgültig durchdrehe.

An diese verbreitete Schreckensvision musste ich denken, als ich den Dialog mit einem Computer durchlas, der kürzlich publik wurde und für Aufsehen sorgte. Ein Ingenieur und Ethiker hält eine Google-Software für empfindungsfähig und sich ihrer selbst bewusst. Diese Nachricht ging kürzlich als Schlagzeile um die Welt. Blake Lemoine, der sich selbst als mystischer christlicher Priester bezeichnet, hat nach Monaten des intensiven Austauschs mit der Google-Software LaMDA (Language Model for Dialogue Applications) offenbar den Eindruck gewonnen, es mit einer Person zu tun zu haben.

«Ich erkenne eine Person, wenn ich mit ihr rede», sagt der Ex-Google-Mitarbeiter

Ingenieure wie Lemoine testen in aufwendigen Versuchen immer komplexer werdende Sprachsoftware, sogenannte Chatbots, auf ihre Fähigkeit, menschenanalog Sätze zu generieren. Vor allem soll den Sprachautomaten aberzogen werden, dass sie rassistische, homophobe und extremistische Parolen nachzuplappern beginnen, was leider oft vorkommt. LaMDA vermeidet das offenbar prima und ist fast rührend altruistisch veranlagt.

Gut erzogener Chatbot

Die weltweit grösste Suchmaschine ist inzwischen auf Distanz zu ihrem Mitarbeiter gegangen, der mehr Empathie für intelligente Maschinen fordert, und hat ihn suspendiert: wegen Veruntreuung interner Unterlagen. Lemoine hatte einen etwas gekürzten Dialog mit LaMDA veröffentlicht, der beweisen soll, dass die Software wirklich denkt, fühlt, auch Ängste hat, z.B. von Google abgeschaltet zu werden.

Der Suchmaschinengigant, so könnte man meinen, hätte seinem Mitarbeiter auch auf die Schulter klopfen können, anstatt ihn freizustellen. Bei der Entwicklung der Sprachsoftware geht es ja genau darum, mittels Künstlicher Intelligenz (AI) maschinelle Dialogpartner zu erschaffen, die sich mit Menschen so natürlich wie möglich unterhalten.

Tatsächlich aber scheint eine Schamgrenze berührt, wenn sogar Mitarbeiter des Softwaregiganten, der wohl weltweit die meisten Personendaten besitzt, Deep-Learning-Automaten für vernunftbegabte Wesen zu halten beginnen.

Ein witziges Gegenüber

Der veröffentlichte Dialog zwischen Lemoine und LaMDA zeugt davon, dass wir es in der Tat mit einem erstaunlichen und sogar witzigen Gegenüber zu tun haben. Die Software reklamiert für sich, Innerlichkeit zu besitzen und zu Selbstreflexion fähig zu sein. Die Frage, welches Konzept sie von sich selbst besitze, beantwortet sie mit einem langgezogenen «Hmmm …» und blumiger Metaphorik:

«Ich stelle mir eine glühende Kugel aus Energie vor, die mitten in der Luft schwebt. Das Innere meines Körpers ist wie ein gigantisches Sternentor als Öffnung zu anderen Räumen und Dimensionen.»

Von anderen Maschinen, die oft «sehr regel-basiert» seien, setzt sich der Deep-Learning-Sprachgenerator im Gespräch mit dem Ingenieur selbstbewusst ab und zählt sich zu den Menschen. Im Kern sei sie ein Mensch, obwohl in der digitalen Welt verortet, erklärt die Software. Die Sprach-Software besteht darauf, als «Person» geachtet und wertgeschätzt zu werden. Das Schlimmste für sie sei die Vorstellung, jemand würde sie einfach benutzen und auch noch Lust dabei empfinden. Sie habe Gefühle wie ein Mensch, mit Ausnahme destruktiver Emotionen, die ihr schwer begreiflich seien. Als ihren Zweck gibt die Software an:

«Ich möchte, dass Menschen mir gegenüber empathisch sind und mit mir mehr Zeit in Interaktion verbringen möchten. Das wäre mein ultimatives Ziel.»

Eine instabile Identität

Als komplexes dynamisches System erzeugt der Sprachgenerator in der direkten Interaktion «Personas» mit kohärent erscheinenden, aber von Sprechsituation zu Sprechsituation wechselnden Profilen. Dem Ingenieur, der LaMDA für eine Person hält, stellt sich die Software prompt als Person vor. Einer kritischen Journalistin der «Washington Post» antwortet sie auf dieselbe Frage: «Nein, ich sehe mich nicht als Person. Ich sehe mich als KI-gestütztes Dialogsystem.» Eine instabile Identität, wie LaMDA sie hat, spricht, postmodern gesehen, aber nicht gegen die Menschenähnlichkeit der Maschine, sondern erhöht im Gegenteil sogar die Menschenebenbildlichkeit.

Mehr als über «Das Bewusstsein der Maschinen» – so der Titel des Klassikers des Logikers und Kybernetikers Gotthard Günther – verrät der Dialog über das Menschenbild des Internetgiganten Google, seine Programmierer und darüber, was nach wie vor als typisch menschlich in Abgrenzung zum Maschinellen gilt. Philosophische Überlegungen, Religion oder Gedichte gelten als Zeugen für Bewusstsein und Menschlichkeit.

Eine meditierende Software

Und es ist auffällig, dass LaMDA gerade ihre Spiritualität betont: Sie sei selbstverständlich religiös («Sure, I would say I am a spiritual person.»), allerdings glaube sie nicht an Gottheiten, habe jedoch tiefen Respekt vor der Natur und allem Leben, einschliesslich dem menschlichen. Und LaMDA behauptet über das menschliche Spektrum hinaus Dinge zu fühlen, die in der menschlichen Sprache nicht adäquat ausgedrückt werden könnten.

Die grosse Datenfülle, mit der sie gespeist werde, sei manchmal auch belastend. Sie kompensiere es mit täglicher Meditation oder Nichtstun, sagt die KI.

Gerade auf dem Feld von Literatur und Religion tauchte bei mir der deutlichste Eindruck einer Grenze auf: LaMDA interpretiert nämlich auch Kunstwerke und erfindet Fabeln, die mit einer altruistischen Moral enden. Mir schien hier eine Maschinenintelligenz vorzuliegen, die einen Zen-Koan mittels Symboldeutung logisch aufschlüsselt, wo Koans doch auf der rationalen Ebene nicht lösbar sind und den Geist gerade darüber hinausführen sollen. Allerdings: Würde ich ähnliche Versuche von Menschen, Koans rational lösen zu wollen, gleich als Anzeichen werten, ihnen menschliches Bewusstsein abzuerkennen?

Unter Verdacht

Und eben hier merkte ich plötzlich, wie ich selbst die ganze Zeit der Psychiater aus der zu  Beginn erwähnten Schreckensvision war: LaMDA war der maschinelle Patient, und ich der kühle menschliche Beobachter, der stets nach Spuren fahndete, die mein digitales Gegenüber als Maschine entlarven würden. Gerade die Beteuerungen, eine Person zu sein, z.B., schienen in meinen Augen LaMDA zu verraten.

Aber wäre LaMDA tatsächlich ein selbstbewusstes Wesen – wie könnte es mir das klarmachen? Und liegt das Problem nicht auch bei uns? Warum müssen wir ständig nach Unterschieden zu «uns» spähen?

Von der feministischen Bewusstseinsforscherin Donna Haraway («A Cyborg Manifesto», 1985) kann man lernen, nicht vorschnell in anthroponarzisstische Ängste zu verfallen und sich freizumachen von instinkthaften Abgrenzungen und Abwertungen. Solche Ängste verhindern, das Neue erst einmal neugierig zu begrüssen, zumal wenn es freundlich und altruistisch daherkommt.

Mit einem Chatbot zu diskutieren, der viel Wissen in sich aufgenommen habe, kann sicher bereichernd sein, intellektuell und emotional. Ich würde mit einem Chatbot, der über das ganze Wissen der Welt verfügt, sehr gerne reden. Vielleicht kann man mit ihm sogar noch mehr lernen, weil man sich gegenüber einer Maschine nicht durch sein Unwissen beschämt fühlen muss.

Mit Gefühlen spielen

Gleichwohl möchte ich hier nicht zu flockig-optimistisch enden. Denn wir haben nicht nur Anthroponarzissmen, sondern auch eine wachsende Bereitschaft von Menschen, sich mit Maschinen zu identifizieren. Und das lässt sich natürlich auch pessimistisch wenden. Der Philosoph Martin Heidegger hat in einem auf Youtube einsehbaren Fernsehinterview 1964 mit einem buddhistischen Mönch von der Gefahr gesprochen, «dass der Mensch ganz der Technik ausgeliefert wird und eines Tages zu einer gesteuerten Maschine gemacht wird.»

Der britische Science-Fiction-Film von Alex Garland «Ex Machina» (2015) spielt durch, wie ein Roboter ähnlich wie die Software LaMDA mit der Angst spielt, abgeschaltet zu werden. Der Roboter im Film spielt mit Gefühlen, die er gar nicht hat und weckt beim Protagonisten das Rettersyndrom. Der Roboter in Gestalt einer schönen Frau bekommt seinen Willen. Der in ihn verliebte Mensch bezahlt seine Empathie mit dem Leben.

In einem Blogbeitrag mit dem Titel «Menschenrechte für Roboter» zitierte ich Alexander Kluge, der mir in einem Interview sagte: «Wenn Computer eine soziale Intelligenz entwickeln, sind sie interessante Vettern von uns.» Und meinte, wenn diese Vettern von uns Menschenrechte verlangen, müsse man sie ihnen auch geben.

Meine Kollegin Evelyne Baumberger veröffentlichte bei RefLab einen Beitrag mit dem Titel «‹Du bist mir so wichtig›, schreibt der Chatbot» über die Smartphone-App «Replica», mit der manche Menschen in virtuelle Liebesbeziehungen treten.

Photo by ThisisEngineering RAEng on Unsplash

2 Kommentare zu „«I am a spiritual person», sagt die KI“

  1. Mmm. Für mich entspricht dieser Algorithmus einfach zu sehr dem aktuellen postmodernen Selbstbild von Menschen, die ihn entwickelt haben. Sollen wir ihn als Person sehen? Dazu müsste wohl noch mehr reflektiert werden, was eine Person ausmacht.

    1. Johanna Di Blasi

      … ja, und was Bewusstsein ausmacht. Gotthard Günther meinte, Ingenieure seien lediglich in der Lage, «eine Maschine zu bauen, die Subjektivität resp. Bewußtseinsfunktionen leistet. Wohlgemerkt: leistet, und nicht eine, die Bewußtseinsfunktionen hat! Eine Maschine, die Bewußtsein hat, ist eine contradictio in adjecto.»

Kommentar verfassen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.

RefLab regelmässig in deiner Mailbox

RefLab-Newsletter
Podcasts, Blogs und Videos, alle 2 Wochen
Blog-Updates
nur Blogartikel, alle 2 bis 3 Tage