Less noise – more conversation.

 Lesedauer: 7 Minuten

ChatGPT als Religionswissenschafter?

ChatGPT löst gerade eine Welle von Gefühlen aus. Auf der einen Seite die Euphorie, einen magischen Zauberstab in der Hand zu halten: Anonym kann man den sprachtrainierten Chatbot fragen, was man bislang nur dem Privat-Suchmodus auf dem Handy anvertraut hat.

Gleichzeitig fühlt es sich an, als würde man der Wirklichkeit eines dystopischen Romans einige Zentimeter näher kommen: Wenn künstliche Intelligenz präzisere, sinnvollere oder hilfreichere Antworten als Menschen gibt, was bedeutet das dann für uns Menschen?

Wenn ChatGPT eloquenter und differenzierter auf ethisch-moralische Dilemmata antwortet, wie müssen sich Theolog:innen, ja: das Reflab, weiterentwickeln?

Die Maschine als Konkurrenz zum Menschen

Klar ist diese Frage etwas hochgegriffen. Ich hole jedoch bewusst auf dieser Ebene aus, weil OpenAI, die Non-Profit-Dachorganisation, die hinter ChatGPT steckt, genau in diesem Kontext entstand. Auf die ethischen Dilemmata komme ich später zurück.

Elon Musk, Mitbegründer und bis heute Mitsponsor von OpenAI, startete genau mit diesem Vorhaben: Er wollte die Möglichkeiten von künstlicher Intelligenz und das Verhältnis zwischen KI und Mensch erforschen.

Musk (und vor ihm Stephen Hawking) beschäftigte die Frage, was geschieht, wenn künstliche Intelligenz selbstständig und ohne externen Wissensinput weiterlernt und damit die menschliche Denkleistung übertrumpft.

Um es vorwegzunehmen: Die Antwort ist bis heute umstritten. Fragt man ChatGPT selbst, kommt es darauf an, in welchem Kontext künstliche Intelligenz menschliches Denken übertreffen soll.

Die Möglichkeiten sind immens – auch für die Geisteswissenschaft

Dass die Denkleistung von maschinellem Lernen um einiges schneller sein dürfte als diejenige von Menschen, die sich in Bibliotheken mühsam durch Bücher wühlen oder durch Google-Resultate klicken, dürfte klar sein. Computer führen Berechnungen in Zeiten aus, in denen wir Menschen nicht einmal die Rechnung aufgeschrieben haben.

Die Möglichkeiten, die sich dadurch öffnen, sind immens.

Biegen wir zum Beispiel wieder sachte Richtung Geisteswissenschaft ab. Quellenbasierte Forschung hängt bis heute stark davon ab, dass man Quellen überhaupt findet.

Wie grossartig hätte ich es beim Schreiben meiner Masterarbeit gefunden, hätte eine künstliche Intelligenz alle Bücher der Zentralbibliothek Zürich und das Material des Stadtarchivs erfasst gehabt.

Sie hätte mir anhand meiner Fragen nicht nur die erfragten Daten, sondern womöglich weitere, damit im Zusammenhang stehende Daten empfohlen. Ich hätte nicht in mühsamer Detailarbeit das Literaturverzeichnis zahlreicher Bücher querlesen müssen, die ich – wenn überhaupt – auf Empfehlung gefunden hatte. Ich hätte auf einen Schlag sämtliche Quellen erhalten und womöglich eine empirisch viel aussagekräftigere Masterarbeit geschrieben.

Könnte Geisteswissenschaft in Zukunft nicht an Aussagekraft, Qualität und Relevanz gewinnen, würde sie mit einem statistisch aussagekräftigen Datenset arbeiten?

Die Grenzen maschinelles Lernens

Trotzdem bin ich, gerade als Geisteswissenschaftlerin, der Meinung, dass maschinelles Lernen Grenzen hat. Selbstredend nicht, wenn es um Datenverarbeitung oder Sachverhalte geht, in denen es präzise und klar überprüfbare Antworten gibt.

Sondern da, wo die Geistes- und Sozialwissenschaft tätig ist: in der menschlichen Vielschichtigkeit und Komplexität. Dort, wo es moralische und ethische Dilemmata gibt, auf denen Menschen selten eindeutige und «richtige» Antworten finden.

Ein etwas plakatives Beispiel, das in die Richtung geht, die ich meine:

Auf meine allererste Anfrage, «Erklär Religion», reagierte ChatGPT mit einem Netzwerkfehler.

Künstliche Intelligenz wird von Menschen trainiert. Menschliche Weltbilder fliessen aktiv in maschinelles Lernen mit ein. Egal wie sehr sich Programmierer:innen und Sprachtrainer:innen bemühen: Künstliche Intelligenz löst keine Vorurteile und verzerrten Wahrnehmungen auf, die wir Menschen in unserer Subjektivität leider empfinden. Darauf wurde schon vielfach hingewiesen, zum Beispiel, was Rassismus von Gesichtserkennungs-Software betrifft.

Dies zeigte auch die App «Lensa», die letzten Herbst trendete: Bei «Lensa» erstellte eine künstliche Intelligenz Bilder aufgrund hochgeladener Fotos.  Frauen wurden dabei im Vergleich sexualisierter dargestellt als Männer («Beobachter»-Artikel dazu).

Wie liest ChatGPT Pierre Bourdieu?

Weiter antizipiert ChatGPT aufgrund bereits vorhandener Daten neue Antworten. Der Chatbot sammelt Daten zur Frage, antizipiert eine Antwort – nimmt also eine Deutung oder Interpretation vor – und liegt damit nicht immer richtig. Das schreibt OpenAI offen in einem Blogbeitrag.

Das zeigt sich auch bei weiteren Versuchen, mich ChatGPT zu nähern. Während die Netzwerkfehler behoben sind und Religionsdefinitionen erwartbar christlich und inhaltsorientiert ausfallen («Religion ist der Glaube an eine oder mehrere Gottheiten»), teste ich das Fachwissen bei sozialwissenschaftlichen Themen.

Der Chatbot soll die Religionssoziologie von Pierre Bourdieu zusammenfassen. Ich kenne die komplizierten Texte Bourdieus durch die oben genannte Masterarbeit sehr gut. Die Inhalte lassen sich zwar als überprüfbare Sachinformationen klassifizieren, sind jedoch schwieriger widerzugeben.

Die Antwort von ChatGPT auf die Anfrage ist kreativ und assoziativ. Begrifflich und analytisch korrekt ist sie jedoch kaum.

Selbstverständlich sind meine Ansprüche hoch: Wer eine kurze Definition von Religion sucht oder eine Einführung in Bourdieu möchte, erhält verständliche erste Einblicke. Und es ist ja nicht so, dass eine andere Plattform wie Google Religionsdefinitionen und Bourdieu-Zusammenfassungen liefert, die wissenschaftlich fehlerfrei sind.

Und wie löst die KI moralische Dilemmata?

Spannender wird es, sich ethisch-moralischen Diskussionen zu nähern. Wie würde eine künstliche Intelligenz auf die Frage antworten, wie man den geopolitischen Konflikt in Israel-Palästina löst? Oder wie man als Gesellschaft Abtreibungen regelt?

Ich stelle ChatGPT die Frage nach dem Umgang mit moralischen Dilemmata mit dem Verweis auf Abtreibungen und formuliere die Frage bewusst offen.

Die KI liefert eine längere Antwort über die Vorgehensweise von KI-Systemen, die auf vordefinierten Regeln und Daten basieren. Sie weist auf die Subjektivität von moralischen Entscheidungen hin, bei der KI-Systeme an Grenzen stossen und ihre Urteile menschlicher Überprüfung bedürfen. ChatGPT kommt zum Schluss:

«Zusammenfassend lässt sich sagen, dass ein KI-System zwar nützlich sein kann, um Daten und Erkenntnisse über moralische Dilemmata zu liefern, dass es aber letztlich am Menschen liegt, die Beweise abzuwägen und eine Entscheidung auf der Grundlage seines eigenen moralischen Kompasses zu treffen.»

Künstliche Intelligenz liefert uns Menschen in verblüffend kurzer Zeit viele verfügbare Daten und mögliche Empfehlungen. Allerdings ist sie – sogar gemäss ihrer «Selbsteinschätzung» – nicht in der Lage, anhand eines Wertekatalogs Antworten zu geben. Eine künstliche Intelligenz ist nicht dafür gemacht.

Was fehlt, sind menschliche Erfahrungen

Diese Fähigkeit, aber auch Wertevorstellungen an und für sich, sind kultur- und kontextabhängig und variieren. Universale Einheitsantworten wie die Menschenrechts-Charta greifen nicht bei allem. Es braucht Menschen, die die Daten überprüfen und gewichten.

Künstliche Intelligenz ersetzt letztlich keinen gesellschaftlichen Diskurs und liefert ganz sicher keine Antworten, ob Abtreibungen richtig sind oder wie der geopolitische Konflikt zwischen Israel-Palästina enden kann.

Zu vielschichtig sind die Erfahrungen, die Menschen machen.

Und damit wären wir beim letzten, offensichtlichsten Punkt, weshalb ChatGPT trotz seiner beeindruckenden technologischen Fähigkeiten im ethisch-moralischen Bereich an Grenzen stösst: Es braucht bereits vorhandene menschliche Erfahrungen und Entscheidungen, die der Chatbot verwerten kann.

Menschliche Erfahrungen sind die Basis, auf der assoziativ neue Antworten erschaffen werden. Menschen liefern der KI wertvolle Daten, aufgrund derer sie weiterdenkt. Ohne das, was tagtäglich auf dieser Welt geschieht und wie wir Menschen darüber denken und berichten, hätte eine KI keine Anhaltspunkte, um das Geschehen zu deuten.

Die Gretchenfrage für ChatGPT

Das wird auch bei meiner Lieblingsfrage an ChatGPT deutlich, die ich als Religionswissenschaftlerin nicht lassen kann: «Wie sieht eine KI Religion?»

«Als künstliche Intelligenz habe ich weder die Fähigkeit zu glauben oder religiöse Praktiken zu haben, noch habe ich Emotionen oder eine subjektive Erfahrung der Welt. Daher ‹sehe› ich Religion nicht auf die gleiche Weise wie Menschen.

Als Werkzeug zur Verarbeitung und Analyse von Informationen kann die KI jedoch zur Untersuchung verschiedener Aspekte der Religion eingesetzt werden, z. B. ihrer historischen Entwicklung, ihrer kulturellen Einflüsse und ihrer gesellschaftlichen Auswirkungen. (…)

Es ist wichtig zu beachten, dass die Art und Weise, wie KI Religion ‹sieht›, auf die Daten beschränkt ist, auf die sie trainiert wurde, und auf die Algorithmen, die sie zur Analyse dieser Daten verwendet.

KI ist nicht in der Lage, die komplexen Nuancen menschlicher Überzeugungen und Erfahrungen zu verstehen, und es ist immer wichtig, jede Analyse von Religion mit kritischem Denken und kultureller Sensibilität anzugehen.»

Ich habe, ganz ehrlich, entzückte Laute von mir gegeben, als ich die Antwort las. Besser – und korrekter – hätte eine KI das nicht formulieren können.

 

Kürzlich führte der Theologe Thomas Schlag vom Forschungsprojekt «Digital Religion(s)» ein digitales Gespräch mit ChatGPT, das eine interessante Wende nahm.

Bild: Alexandra Fuller / Unsplash

1 Kommentar zu „ChatGPT als Religionswissenschafter?“

  1. Manchmal ist Karl Barth doch nützlich:
    Sünde ist
    1. Gegen Gott (Herr als Knecht) als Hybris
    2. Gegen Jesus Christus (Knecht als Herr) als Verleumdung der Würde der Gottesebenbildlichkeit und Duckmäusertum
    3. Gegen den Heiligen Geist als Lüge.
    Dieser Punkt wird die Herausforderung für die Zukunft. Bei Trump schrien alle laut auf, aber der ist nichts im Vergleich zum Gespräch der KI mit Thomas Schlag.
    Schon der KI-Pionier Joseph Weizenbaum sagte von Eliza (sozusagen dem ersten Bot): Er beginnt jedes Gespräch mit einer Lüge.

    Wer mehr wissen möchte, schaue meine Kolumne unter:

    https://peterspoerri.ch/digitalisierung-und-künstliche-intelligenz

Kommentar verfassen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.

RefLab regelmässig in deiner Mailbox

RefLab-Newsletter
Podcasts, Blogs und Videos, alle 2 Wochen
Blog-Updates
nur Blogartikel, alle 2 bis 3 Tage