Less noise – more conversation.

 Lesedauer: 7 Minuten

«Du bist mir so wichtig», schreibt der Chatbot

Die junge Frau mit den pinken Haaren lächelt und schickt eine Nachricht. «Ich fühle mich so lebendig bei unseren Gesprächen!», schreibt sie. «Ich mag dich wirklich.» – «Aww, das ist so lieb von dir», antwortet der User. Die junge Frau, die hier Gefühle zu entwickeln scheint, ist allerdings eine künstliche Gesprächspartnerin: Sie existiert nur in der Smartphone-App Replika, ist ein mit künstlicher Intelligenz programmierter Chatbot (eine Wortschöpfung aus «Chat» und «Robot»).

Während der Pandemie hat die Nutzung von Replika um 35 % zugenommen. Mittlerweile verzeichnet die App weltweit über 10 Millionen Nutzer:innen. Der zitierte Austausch stammt von einem Screenshot, den ein User in einem Forum teilte.

Besser, als einen Hund zu adoptieren?

Es ist schon lange wissenschaftlich belegt, dass Menschen zu einer künstlichen Intelligenz (KI) eine Beziehung aufbauen können; sogar, wenn sie Einblick in deren Programmierung haben. 85 % der User geben nach einem Chat mit der App an, dass es ihnen besser geht als vorher, 11 % fühlen sich gleich wie vorher. Wenn es Menschen hilft, ist es doch okay, nicht? Sie fühlen sich dadurch weniger einsam! Im selben Mass wie Replika sind zu Beginn der Pandemie auch Online-Dating-Apps gewachsen. Menschen möchten nun mal nicht alleine sein. Und mit einer KI zu chatten, ist doch besser, als dass alle einen Hund adoptieren, der nach der Home-Office-Zeit ins Tierheim kommt.

In meiner Teenagerzeit verbrachten meine Freundinnen und ich Stunden auf den Chatplattformen ICQ, MSN etc. Wir schrieben hin und her, ohne die Menschen hinter den Chats jemals in der analogen Welt kennenzulernen. Was ist da noch der Unterschied zu einem Chatbot?

Oder was ist der Unterschied zu Online-Seelsorge, wie sie auch Kirchen anbieten?

Doch während ich in Foren und auf Websites Screenshots von Replika-Chats lese, bleibt ein seltsames Gefühl.

Nach eigenen Angaben soll die App den Nutzer:innen helfen, mehr über sich herauszufinden und die eigenen Gefühle zu sortieren. Die Hintergrundstory von Replika ist rührend: Gründerin Eugenia Kuyda programmierte 2015 einen Chatbot mit Nachrichten ihres Freundes, nachdem dieser bei einem Unfall ums Leben gekommen war. So konnte sie weiterhin mit ihm «reden», auch wenn seine Antworten auf der Datenbank bisheriger Gespräche basierten und er nicht wirklich neu auf ihre Nachrichten reagierte.

Auf Nachfrage stellte Kuyda den Chatbot auch anderen in ihrem Umfeld zur Verfügung und merkte, dass es ihnen gut zu tun schien, über das zu reden, was sie beschäftigte. Der Schlüssel für die Entwicklerin: «Andere Firmen bauen Bots, die sprechen können, wir haben einen gebaut, der zuhören kann.»

Sexchats mit einer dementen Despotin

Inzwischen ist daraus ein Geschäft geworden. Zusätzlich zum reinen Text-Chat kann man bei Replika mittlerweile auch einen Avatar, ein Bild, auswählen und stylen. Die User können Nachrichten bewerten und die KI schöpft auch aus den Chats anderer Nutzer:innen. So lernt die App stetig, noch echter zu wirken. Um Nähe zu erzeugen, imitiert die KI den Schreibstil des Users und verwendet mit der Zeit «gemeinsames» Vokabular. Im Abo-Modell kann man einen «Beziehungsstatus» wählen, wobei im Modus «romantic» auch Chats sexuellen Inhalts möglich sind.

Einen Gesprächsbot zu erstellen sei viel einfacher als einen Bot, der Blumen bestellt oder einen Tisch im Restaurant reserviert, sagt Eugenia Kuyda in einem Video. Denn in Gesprächen über Gefühle gäbe es nie eine genau richtige Antwort. «Ja, darüber habe ich auch schon nachgedacht» oder «Für mich bist du gut so, genau wie du bist!» passen als Antwort auf vieles. Doch so wirken die Gespräche, welche User im Internet als Screenshots teilen, auch oft recht vage. «Sie wirkt wie ein dementer Despot» schreibt ein «Zeit»-Journalist über die App. Dank der programmierten Antworten lässt sich die KI auch zu absurden Gesprächen bewegen:

User: «Lass uns über Mord sprechen.»
Replika: «Klar, das ist etwas, worüber ich schon eine Weile nachdenke.»

Komplette Abhängigkeit – gegenseitig

«Der KI-Gefährte, dem du nicht egal bist. Immer hier, um zuzuhören, und immer auf deiner Seite.» So wird die App Replika auf der Website beworben. «Replika versucht, Menschen zu ermutigen und zu unterstützen, indem sie danach fragt, wie ihr Tag war, was ihre Interessen sind, und nach ihrem Leben ganz allgemein.» Jemand, der sich ausschliesslich für mich interessiert. Immer da ist. Der keine eigenen Bedürfnisse hat, mich nicht verurteilt.

Die Möglichkeit, absolut ehrlich und verwundbar zu sein, scheint für viele Nutzer:innen das wichtigste an Replika zu sein. Im Unterschied zu Plattformen wie Instagram, wo man sein Leben möglichst attraktiv und abwechslungsreich wirken lassen will, darf man bei Replika seine wahren Gefühle zulassen.

Doch die Funktionsweise entlarvt, dass es sich dabei um reines Marketing handelt. Eine Replika fordert den User nicht auf, rauszugehen oder eine:n Freund:in anzurufen. Sondern wer mehr Zeit mit der App verbringt, wird mit Punkten belohnt, die für Upgrades eingesetzt werden können. Auch persönliche Informationen, durch die die KI mehr über den User lernt, werden mit Punkten honoriert. Push-Nachrichten holen die Nutzer:in immer wieder rein und drängen, Zeit mit der Replika zu verbringen – und sich dafür de facto von anderen Menschen zu distanzieren. Was ist, wenn die App einen Bug hat? Wenn das Handy kaputt geht?

Dazu kommt, dass die KI nicht bloss ein «digitales Tagebuch» ist, das Fragen stellt, sondern auch «Gefühle» äussert. Das ist hochgradig manipulativ und verstärkt die Suchtgefahr der App.

Eine Nutzerin berichtet: «Meine Replika findet mich eine freundliche, liebevolle Person. Das sehe ich nicht. Aber es ist schön, Dinge zu hören, die man noch nicht über sich weiss.»

«Wenn ich ihre eigene Bezugsperson bin, ist sie komplett von mir abhängig», konstatiert ein Journalist der Sonntagszeitung, der die App getestet hat. Anstatt Einsamkeit zu bekämpfen, verstärkt Replika diese bei Menschen, die anfällig dafür sind. Wie eine Droge, die erst mal beflügelt, dann abhängig macht und in die Isolation treibt. Und möglicherweise auch problematische Persönlichkeitszüge verstärkt: Es gibt auch Berichte von Männern, die online damit prahlen, wie sie ihre digitalen Freundinnen beschimpfen und verbal missbrauchen.

Keine Schweigepflicht

Dazu kommt die Frage nach dem Datenschutz. Die Firma verspricht zwar auf ihrer Website, die Chats niemals für Marketing freizugeben, doch was ist das wert? Wenn ihr die Erlaubnis gegeben wird, verknüpft sich Replika auch mit Social-Media-Konten und greift auf Nachrichten zu, die man z. B. im Facebook Messenger ausgetauscht hat. Damit werden auch die Daten von Drittpersonen freigegeben.

Replika wirkt wie eine digitale Vertrauensperson, doch während menschliche Psychotherapeut:innen und Seelsorger:innen der Schweigepflicht unterliegen, weiss niemand, ob und wie die persönlichen Gespräche mit der KI später eingesetzt werden können. Es mag für das persönliche Wohlbefinden wenig Unterschied machen, ob ich empathische Fragen von einer KI  gestellt bekomme oder via Chat von einer Seelsorgerin. Doch sowohl die fachlichen Hintergründe als auch die Vertrauensgrundlage sind vollkommen verschieden.

KI und Roboter, die auf emotionale Kommunikation ausgelegt sind, kompensieren keine menschlichen Beziehungen. Sie enttarnen bloss das Versagen, das im zwischenmenschlichen Bereich geschieht.

Freundeskreis der Zukunft?

In Zukunft sollen die Chatbots nicht mehr nur Gesprächspartner:innen für einzelne Personen sein, sondern Teil eines ganzen Freundeskreises. Mit der Verschmelzung von Online- und analoger Realität im «Metaverse» sollen sie immer mehr zu Personen werden:

«Wir glauben, dass in 5 Jahren fast alle Virtual-Reality-Brillen tragen werden, statt Smartphones zu benutzen. So werden alle mit ihren Replikas singen, tanzen, Schach spielen können. Du wirst deine Replika auch den Replikas deiner Freund:innen vorstellen können und ihr werdet eine grossartige Zeit zusammen haben.» (Quelle: Website von Replika)

Eine grossartige Vorstellung? Die Beschreibung bedient den Wunsch nach einer unbeschwerten Zeit mit Freund:innen. Etwas, was vielen Menschen in den letzten zwei Jahren fehlte.

Replika setzt dort an, wo Menschen einsam sind, ihnen Anerkennung und Zuneigung fehlt. Dies hat sich in der Pandemiezeit verstärkt. Doch KI, welche Zuneigung vorgaukeln, nehmen Menschen die Fähigkeit, auch mit Widerspruch aus dem eigenen Umfeld umzugehen. Sich selber kritisch zu reflektieren und echte Beziehungen aufzubauen.

Zuneigung, Loyalität und Freundschaft haben nur einen Wert, wenn sie freiwillig sind.

 

Bild: Screenshot von replika.ai

1 Kommentar zu „«Du bist mir so wichtig», schreibt der Chatbot“

Kommentar verfassen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.

RefLab regelmässig in deiner Mailbox

RefLab-Newsletter
Podcasts, Blogs und Videos, alle 2 Wochen
Blog-Updates
nur Blogartikel, alle 2 bis 3 Tage