Dein digitales Lagerfeuer
Dein digitales Lagerfeuer
 Lesedauer: 9 Minuten

KI und Ethik: 10 brisante Fragen

1. Wie definieren wir in Zukunft geistiges Eigentum?

Wenn KI in der Lage ist, auf der Basis von vorhandenen Symphonien Beethovens Musik zu komponieren, die von ihm sein könnte, mindestens so klingt, wenn sie in der Lage ist, auf der Basis von vorhandenen Bildern van Goghs Bilder zu malen, die zweifelsfrei von van Gogh «sind», dann ist klar: Sie kann aus allen menschlichen Hervorbringungen auf deren Basis neue erschaffen.

Wem gehört aber das, was da entsteht? Haben wir das Recht, brauchen wir ein Recht, das Bestehende gegen solche «Weiterentwicklungen» und «Vermehrungen» im Namen der Originalität zu schützen?

Zeigt die Kunst- und Musikgeschichte nicht vielfältig, dass auch die alten Meister – natürlich – Ideen, Vorstellungen, Techniken etc. ihrer Zeit aufgenommen haben? Im Bereich der Philosophie ist es v.a. J.G. Hamann der durch seinen Cento-Stil gerade das zum Ausdruck bringen wollte: Wie sehr er nicht einsames, isoliertes, kreatives Original ist, wie sehr er vielmehr von Anregungen und Überlegungen von anderen lebt. Bei Derrida ist es das im Mittelpunkt seines philosophischen Schaffens stehende Mittel der Dekonstruktion, mit dem er deutlich macht, ja entlarvt, wie wir einander zitieren, umgestalten, verändern, auch verbiegen. Was also ist ein «Original», was originell? Was gehört uns an geistigem Eigentum?

2. Wie können wir in Zukunft noch geistige Leistungen bewerten?

Diese Frage schließt an die vorangehende an. Es wird für Schulen, vor allem aber für Hochschulen und Universitäten zu einer entscheidenden Frage werden, wie eine faire Leistungsbewertung möglich bleibt. Diese lebt ja – je höher der Bildungsstand ist – von der Voraussetzung selbst erarbeiteten Besitzes.

Was aber ist an dem vorliegenden Leistungsnachweis selbst erarbeitet? Was beruht nur auf einer kundigen Fütterung meines ChatGPTs mit den notwendigen Stichworten?

In der Vergangenheit war es möglich, Texte in Suchmaschinen einzugeben und dann womöglich die Dissertationen und Veröffentlichungen von Politikern als Plagiate, zu gut deutsch: als mindestens teilweise geklaut, zu entlarven. In Zukunft wird nur noch erwischt, wer sich noch nicht einmal bei der Fütterung des Programms genug Mühe gegeben hat. Entwertet generative KI, die Texte so mühelos produziert und oft noch besser formuliert, als Otto-Normalverbraucher das kann, nicht geistige Leistung?

→ Wie entwickeln wir unseren für liberale, offene Gesellschaften essentiellen Begriff von Bildung so weiter, dass er nicht durch KI unterlaufen und unterspült wird?

3. Wie können wir uns vor Täuschung, Fehlinformation, Fälschung als möglichen Folgen des Einsatzes generativer KI schützen?

Auch früher schon gab es auf der Basis digitalisierter Fotographie die Möglichkeit, Bilder zu bearbeiten und zu verändern. Generative KI bedeutet aber auf Grund ihrer Zugänglichkeit und Handhabbarkeit und des erreichten Maßes an Perfektion eine qualitativ neue Herausforderung. Sie führt in die Defensive hinein und läßt direkt fragen: Wie können wir uns vor Desinformationskampagnen schützen; vor Videos, in denen bestimmte Politiker oder Personen des öffentlichen Lebens Dinge wahrnehmbar sagen oder tun, die sie diskreditieren?

Immer wieder kommt es in den Medien zu Berichten von haarsträubenden Falsch-«informationen» von durch ChatGPTs generierten Texten. Unangenehm ist die Eigenschaft der Text-KI, bei Lücken in der Datenbasis einfach zu «halluzinieren», wenn das denn Maschinen möglich wäre.

Konkret bedeutet das, dass die Apps so programmiert sind, dass sie Unwissen oder fehlende Quellen nicht zugeben, sondern auf Grund von sachfremden Kriterien, etwa Wort-Assoziationen oder ähnlichen Namen, Sachverhalte erfinden. Da KI nicht denken kann, fehlen auch die Hinweise auf Stufen unterschiedlicher Zuverlässigkeit. Quellen werden nicht benannt, einfach weil sie als solche nicht gekannt werden. ChatGPTs ist alles eine Quelle, was ihnen vorgesetzt wird.

Generative KI hat kein Bewusstsein, sie ist nicht zu Reflexion und Kritik fähig. Sie ist, was sie «ißt», womit sie gefüttert wird. Sie kann nicht besser sein als das, was sie an Daten verarbeitet. Sind wir hier als demokratische Gesellschaft problembewusst und kritisch genug?

→ Wie können wir die für eine Demokratie essentielle kritische Öffentlichkeit unter den neuen technischen Rahmenbedingungen erhalten?

4. Wie vermeiden wir unbeabsichtigte Nebenwirkungen von KI, die das Potential haben, unser demokratisches Zusammenleben zu unterminieren?

Pauschal und massenhaft angewandte Gesichtserkennungssysteme, wie sie etwa in China und Russland/Moskau gang und gäbe sind, stellen auch bei berechtigten Anliegen wie Rasterfahndungen unzählige Menschen unter Verdacht. Wie schützen wir uns vor programmierter Diskriminierung? Weil bei der Entwicklung der Gesichtserkennungssoftware v.a. weisse Männer erfasst worden sind, fallen nun in der Praxis v.a. farbige Frauen auf.

Wie erhalten wir einen unbeschwerten, freien öffentlichen Raum? Wie sichern wir, dass staatliche Institutionen, die – das zeigt die Erfahrung auch in demokratischen Ländern – zu immer umfassender Kontrolle neigen und sich auch undemokratisch entwickeln können, mit KI über Möglichkeiten verfügen, denen gegenüber die von George Orwell in «1984» beschriebenen Zustände harmlos sind und die ihnen potentiell die totale Macht verleihen?

Die Erfahrung läßt befürchten: Was möglich ist, wird auch irgendwann wirklich.

5. Wer haftet für die Wirkungen des «Tuns» von KI-gestützten Maschinen?

KI-gestützte Maschinen, sprich Roboter greifen als scheinbar selbständige Größen in unsere sozialen Zusammenhänge ein, etwa als jetzt schon in Entwicklung befindliche Pflegeroboter, oder auch als selbstfahrende Autos.

Wer haftet, wenn sie Fehler machen, wenn sie gar Leben nehmen?

Wer haftet, wenn eine Pilz-App nicht den giftigen Pilz erkennt? Wenn eine Haut-Screening-App nicht den Hautkrebs oder die gefährliche Vorstufe erkennt?

6. Darf maschinengestützte KI über das Leben und Weiterleben von Menschen entscheiden?

Was ist mit sog. Dilemma-Situationen im Straßenverkehr? Soll das Auto im unvermeidbaren Konfliktfall lieber in eine Fußgängergruppe oder in den Gegenverkehr fahren? Lange Zeit gab es Widerstand gegen selbstfahrende Autos, weil man nicht wollte, dass Maschinen über das Leben von Menschen «entscheiden». Jetzt ist mindestens Daimler vorgeprescht und misst dem Überleben von Personen im Auto eine höhere Priorität zu. Damit ist aber schon klar, dass hier Menschen entscheiden, wie Maschinen «sich verhalten».

Das Problem sind nicht die anonymen Roboter, die im Straßenverkehr mein Leben bedrohen, sondern die – weitgehend – unsichtbaren Vorentscheidungen, die von Informatikern im Vorfeld getroffen worden sind.

→ Wie setzen wir den Gebrauch von KI so ein, dass wir als Menschen umfassend und in jedem Bereich grundsätzlich und im Detail die Kontrolle behalten?

7. Darf KI überhaupt alleine über Menschen bestimmen und entscheiden?

Bei sehr vielen Entscheidungen hilft sie schon mit. Denkbar wäre aber in Zukunft, dass sehr viele einfach zu entscheidende Rechtsfragen, die einer sicheren Routine zuzuordnen sind, durch automatisierte Maschinen-Prozesse im doppelten Sinne beantwortet werden können. Die Gerichte könnten von sog. Bagatellfällen entlastet werden. Das würde mehr Ressourcen bedeuten für die Rechtsprechung in schwierigeren Fällen. Der Teufel sitzt allerdings auch hier wieder im Detail.

Wer entscheidet , was wirklich schon 1000mal entschiedene Routine ist und wo es sich um einen besonderen Fall handelt? Darf KI aussortieren?

Von ganz praktischer Bedeutung ist das bei automatisierten Auskünften der Schufa zur Kreditwürdigkeit. Banken und Kaufhäuser fragen bei der Schufa an. Auf der Basis vorhandener, aus verschiedenen Quellen generierten Datensammlung kategorisiert das KI-basierte Programm ein, wie kreditwürdig eine Person ist, welche Ausfallrisiken bestehen etc. Das oberste europäische Gericht (EuGH) hat jetzt entschieden, dass diese automatisierte, maschinengenerierte Auskunft nicht alleiniges Kriterium für die Vergabe von Krediten sein darf.

Welche Rolle soll und darf in Zukunft KI im menschlichen Zusammenleben spielen? Schaffen wir es, hier nicht finanzielle und Effizienzgesichtspunkte dominieren zu lassen?

→ Grundsätzlich gefragt: Wie erreichen wir es als eine auf Teilhabe ausgerichtete Gesellschaft, dass möglichst alle ihre Mitglieder es lernen, mit KI umzugehen, sich die nötigen Kompetenzen anzueignen und – wenigstens ansatzweise – ein kritisches Bewusstsein für ihre Möglichkeiten und Grenzen?

8. Wie begrenzen wir den Einfluss von Konzernen und Initiativen, die in erster Linie ein kommerzielles Interesse an der Weiterentwicklung von KI haben?

Automobile werden, abgesehen von einem bekannten US-amerkanischen Autohersteller, ausgereift auf den Markt gebracht. Bei PCs mussten die Verbraucher schon die Erfahrung machen, dass sie es mit unfertigen Produkten zu tun haben, die durch ständige verschleiernd so genannte Upgrades im Laufe der Zeit einige ihrer Lücken und Fehler verlieren, aber weit davon entfernt sind, perfekt zu sein.

Als Large Language Models (LLM) qualifizierte Programme gehen jetzt noch einen Schritt weiter. Sie sind vom Status her schon «Experimente», die eigentlichen Versuchskaninchen sind aber die Verbraucher, die schon melden werden, wenn sich aus der Auswertung des unüberschaubaren Datenbestandes falsche, lächerliche, gefährliche, diskriminierende, rassistische etc. Aussagen oder eben – vgl. das Projekt selbstfahrendes Auto! – bedrohliche Szenerien ergeben.

Ist es unverantwortlich zu fragen, ob die in Aussicht stehenden immensen Gewinne Open AI, Microsoft und Konsorten dazu verleiten, unfertige, auch gefährliche Produkte auf den Markt zu bringen, nur um vorne mit dabei zu sein?

Technik, zumal mächtige Technik hat immer potentiell gefährliche Nebenwirkung. Das ist kein Einwand dagegen, sie einzusetzen, wohl aber ein Grund dafür, sie im Griff zu behalten oder – so scheint es bei KI schon nötig zu sein – in den Griff zu bekommen.

Dass ausgerechnet führende Entwickler und Vermarkter von KI vor ihren Potentialen warnen, erscheint nicht allzu glaubwürdig.

→ Wie können wir uns davor schützen, dass KI einen politisch, sprich demokratisch nicht mehr kontrollierbaren Einfluß auf das gesellschaftliche Zusammenleben bekommt?

9. Wie vermeiden wir wachsende soziale Ungleichheit?

Die Beherrschung von KI, nicht nur die Erzeugung von Programmen, auch das Umgehen-mit und das Einsetzen-von KI ist schon jetzt eine Schlüsseltechnologie. Sie entscheidet über den Status in einer Gesellschaft; darüber, welche Kompetenzen ich habe oder nicht.

Wie erreichen wir eine breite Teilhabe an den Schlüsseltechnologien, die Aufstieg, Wohlstand und Bildung erschließen?

Wie vermeiden wir umgekehrt ein (Kredit-)Scoring, das ausgerechnet durch die Anwendung von digitaler Technik und ihrer automatisierten Auswertung die Freiräume ärmerer Menschen noch weiter einschränkt?

→ Wie können wir verhindern, dass sich die soziale Schere zwischen reich und arm, gebildet und weniger gebildet noch weiter öffnet; dass angewandte Computertechnologie und ihre gegebene oder fehlende Beherrschung nicht zu einem Treiber weiterer gesellschaftlicher Ungleichheit wird?

10. Wie sichern wir ein humanistisches Menschenbild als Grundlage einer freiheitlich-demokratischen Gesellschaft?

Wenn der ehemalige Chef-Infomatiker von Google Blake Lemoine für seine Sprach-KI Persönlichkeit, Emotionen und Seele behauptet und damit die Gleichrangigkeit von Mensch und Maschine einklagt, wenn andere wie etwa Malte Gruber bereits Maschinen-Rechte, vergleichbar Menschen- und Tierrechten einfordern, dann stehen wir hier vor noch einmal ganz anderen Herausforderungen.

Ontologisch steht zur Entscheidung an, ob wir den in der abendländischen Philosophie errungenen Vorrang des Organischen vor dem Unorganischen, der belebten vor der unbelebten Materie aufgeben wollen.

Es wird die humane Weiterentwicklung unserer Gesellschaft auch davon abhängen, wie es gelingt, sich mit posthumanistischen Überzeugungen auseinanderzusetzen.

 

Von Prof. Dr. Heinzpeter Hempelmann gibt es bereits zwei Blogbeiträge zum KI-Thema:

Zudem sind im Podcast MindMaps zwei Episoden zum Thema erschienen:

Schreibe einen Kommentar

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.

RefLab regelmässig in deiner Mailbox