Less noise – more conversation.

 Lesedauer: 6 Minuten

Wie intelligent ist die Künstliche Intelligenz?

Der Anlass

Im Zusammenhang der Vorgänge um Sam Altmann wird erneut die Frage interessant, was KI eigentlich ist und wie gefährlich sie eigentlich werden kann. In der Führung von Open AI hatte sich der Eindruck festgesetzt, dass der CEO der Firma womöglich die Gefahren der Entwicklung unterschätze und ihre Möglichkeiten zu optimistisch.

Den Stein ins Rollen gebracht hatte die explosionsartige Nutzung der von Open AI vorgestellten ChatGPTs. Ein sehr breites Publikum war über die zum Download zur Verfügung stehende App mit einem Mal selber in der Lage, sich von der bereits gegebenen Mächtigkeit von KI zu überzeugen.

Viele mussten entdecken: Was diese KI schafft, übertrifft sie schon in ihrer jetztigen Version meine eigenen Möglichkeiten, einen vernünftigen, weitgehend sachkundigen Text zu schreiben.

Die Frage nach den womöglich zukünftigen Potentialen von KI ist naheliegend. Naheliegend sind dann auch Extrapolationen, die vor einer Super-Intelligenz warnen, die als eine fremde Größe – vergleichbar überlegenen Alien aus einer anderen Galaxie – den Menschen und gleich die Menschheit bedrohen.

Nun kann kein Mensch zuverlässig zukünftige Entwicklungen vorhersehen. Philosophisch gebietet sich aber die Grundhaltung des Fragens und bei besonderem Überschwang auch der Skepsis.

1. Haben Maschinen Intelligenz?

Es kommt natürlich darauf an, was man unter Intelligenz versteht. Man kann natürlich das, was Maschinen schon heute tun, etwa als Assistenten im Auto, als kybernetische Regelkreise, die auf sensorische Marker «selbständig», sprich ohne weiteres Eingreifen des Menschen «reagieren», als «Intelligenz» verstehen, nach dem Motto: «Das ist so beeindruckend. Das muss intelligent sein. Ich kann es nicht.» Man ist dann auch frei, Tieren eine Intelligenz beizumessen.

Es gibt ja keinen Zettel vom Himmel, keine platonische Intelligenz, die uns das Wesen von Intelligenz mitteilte, das wir als Norm vorauszusetzen und nach der wir uns zu richten hätten. Wir können Intelligenz definieren, wie wir wollen.

Der Knackpunkt in der wieder aufgeflammten Diskussion um KI ist aber, dass der Vergleich zum Menschen gezogen wird, also zur Intelligenz, die wir beim Menschen beobachten können. Psychologisch ist menschliche Intelligenz ein mit Hilfe von unterschiedlichen Messverfahren gemessene Problemlösefähigkeit, mit der vorhandenes Wissen auf neue Situationen angewandt und neue Herausforderungen reflektiert bewältigt werden können.

Genau diese Fähigkeit haben programmierte Maschinen eben nicht. Maschinen «handeln» so, wie wir es ihnen vorschreiben. Darin besteht eben der Reiz im «Umgang» mit ihnen. Sie verlassen nicht die Norm, streng genommen kennen sie auch keine «Normativität», eben weil sie den Unterschied zwischen Sein und Sollen gar nicht kennen. Sie bewegen sich ausschließlich in dem Rahmen, den wir ihnen gesetzt haben.

Das macht ihre absolute Verläßlichkeit aus, auch da, wo wir womöglich einen Zufallsgenerator eingebaut haben. Intelligenz würde genau die Fähigkeit voraussetzen, die Maschinen nicht haben: Sich außerhalb, neben den Programmen zu bewegen, die wir für sie geschrieben haben. Selbst ihre «Spielräume» legen wir ja fest.

Intelligenz besitzen die Subjekte, die KI entworfen und entwickelt haben, nicht aber ihre Geschöpfe.

2. Können Maschinen «verstehen»? Haben sie Bewusstsein? Handeln sie intentional?

Weil PCs, Apps, Roboter für die meisten Menschen eine black box darstellen, ist es wichtig, mit Hilfe der Informatik über dieses «Innenleben» zu verständigen. Hier lautet die nüchterne Auskunft: «Alle Rechenoperationen bestehen aus Zählen mit einer formalen Einheit, an der nichts begrifflich zu verstehen ist» (Borinski). Sie können daher mechanisch – völlig ohne Geist, geistlos – vorgenommen werden. Nehmen wir das aktuelle Beispiel der Chat GPTs: «Die Maschine operiert völlig frei von Vorstellungen wie wahr oder falsch, auch weiß sie nicht, was Namen oder Personen oder Geburtsdaten sind.

Alles, was derlei neuronale Netze tun, ist: Wahrscheinlichkeiten berechnen.

Die Software hat dann etwa einen Datensatz von 50 oder 100 Millionen Wörtern in allen Flexionen. Und wann immer Sie ein Wort im Chatfenster eingeben, beginnt die Software, eine Wahrscheinlichkeitsberechnung anzustellen: Welches Wort könnte, rein statistisch gesehen, als Nächstes kommen? Das ist alles.» (Katharina Zweig, DER SPIEGEL 5/2023)

Intelligent sind die Programmierer, nicht aber die Programme oder die Geräte, über die sie laufen.

3. Instrument oder Intelligenz?

KI selbst ist ein überaus mächtiges Instrument, vielleicht das mächtigste, das der Mensch jemals geschaffen hat. Aber genauso wenig, wie die Nutzung der Atomkraft oder die Anwendung der Gentechnik Atomkraft und Gentechnik zu Intelligenzen macht, genauso wenig sind die programmierten Maschinen intelligent, ist KI intelligent. Intelligent sind die, die einen solch mächtigen Hebel geschaffen haben. Diese Einsicht ist unbequem. Sie verpflichtet den Menschen, selbst Verantwortung zu übernehmen. Es ist ja soviel einfacher, sich vor «etwas» zu fürchten und etwas abzuwehren, was man nicht selber ist.

Gefahr geht nicht von dem Potential der KI selbst aus, sondern von den Menschen, die sie ggf. für unethische Zwecke entwickeln und einsetzen.

4. KI – eine fremde Art und gefährliche Species?

Auch bei KI kann man beobachten, was Nietzsche bereits im Hinblick auf die Geschichte der abendländischen Metaphysik beobachtete: Unsere «Sprache necessitiert uns zum Irrtum» (Die Vernunft in der Philosophie). Unsere Sprache, speziell, die in ihr durch Grammatik und Semantik vorgegebenen Möglichkeiten und Grenzen zwingen uns geradezu zum Irrtum.

Der Grundirrtum besteht darin, dass wir KI, auch Chat GPTs, Sprach-PCs – wie niedlich etwa, wenn sie als Siri und Alexa auch noch reden können! – als Subjekte behandeln. Ihnen kommt dann – das liegt nahe – Personsein zu.

Und haben Personen nicht Bewusstsein? Haben sie nicht sogar Selbstbewusstsein? Müssen sie nicht denken können? Müssen sie dann nicht auch eine menschliche Intelligenz besitzen? Der Mensch hat die verständliche, sich manchmal aber auch verhängnisvoll auswirkende Tendenz, Gegenstände zu personifizieren, u.a. auch deshalb, um etwas, was man nicht kennt, vertraut zu machen, sich anzueignen, mit ihm umgehen zu können. Das verstärkt noch den Drang, die KI und Roboter als Subjekte zu begreifen und dann menschliche Eigenschaften in sie hineinzuprojizieren.

Ein paar Beispiele: KI «lernt» dann, sie «lernt» dann sogar «selbständig». Dann muss «sie» natürlich auch «Intelligenz» besitzen, «intelligent» sein. «Sie» hat «Bewusstsein», und als Subjekt ist «sie» natürlich auch «gefährlich». Was für ein Unsinn! Nicht sie ist gefährlich, sondern der Mensch, der mit ihr umgeht und sie in unverantwortlicherweise entwickelt. Aber davon können wir uns entlasten, wo wir KI als Alien, als Subjekte, betrachten:

Später wird es dann sicher einmal auch heißen: Die KI ist schuld – Schuldfähigkeit als eines der höchsten Prädikate, die wir moralischen Subjekten zusprechen können.

Fazit

Wir können natürlich von der Intelligenz von Maschinen sprechen, wenn wir die Leistungsfähigkeit von Maschinen ansprechen, sollten aber im Bewusstsein haben, dass wir den Begriff hier uneigentlich, vermenschelnd gebrauchen.

Weil wir von Natur aus bequeme Wesen sind und uns das Personifizieren, selbst von Maschinen, allzu nahe liegt, würde ich dennoch dazu raten, nicht von der Intelligenz von Maschinen zu reden.

3 Kommentare zu „Wie intelligent ist die Künstliche Intelligenz?“

  1. Wie relevant ist es eigentlich für die korrekte Einschätzung des Risikos, dass von einer für alle verfügbaren KI ausgeht, ob sie in der Lage ist ausserhalb ihrer gesetzten Parameter selbstständig zu agieren oder nicht? Wenn selbst ein Virus, sei es Sasser oder Covid, dessen Parameter in Anzahl und Funktion absolut überschaubar sind, einmal gestartet kaum noch kontrollierbar sind, wie schwer ist es dann bei einer KI? Ist das Risiko, dass die Maschine zum Schaden einer Person oder Gruppe agiert (oder re-agiert sie lediglich?) größer wenn sie ausschließlich auf statistischer und stochastischer Basis funktioniert oder wenn sie moralische Prinzipien kennt und in die Gesamtrechnung mit einbezieht? Ich befürchte, es macht keinen Unterschied. Auch ein Putin kennt diese Prinzipien, er hat nur andere, ihm höhere Werte. Zuviel Macht in der Hand eines Einzelnen ist gefährlich, egal ob Mensch oder KI. Jetzt haben wir eine KI mit fehlender Moral und Intelligenz in den Händen von Menschen mit potenziell fehlender oder gefährlicher Moral. Ich gestehe, meine Erwartungen für die Zukunft sind eher düster pessimistisch was dieses Thema angeht.

  2. Danke für die Klarstellung.

    Beschäftige mich auch seit Jahren mit dem Thema. Mein liebstes Buch dazu ist „Shadows of the Mind“ von Roger Penrose. Ein wilder Ritt durch Mathematik, Informatik und Quantenphysik auf der Suche nach der Natur des Bewusstseins. Und er kommt zum Schluss: „There is something essential in human understanding that is not possible to simulate by any computational means.“

    Das menschliche Bewusstsein kann nicht berechnet werden. Unser Hirn mag ein neuronaler Computer sein, doch wir sind mehr als das.

  3. Wichtiger als nach der „Intelligenz“ der KI zu fragen, ist mir die Frage, was wird diese technische Entwicklung mit uns machen?
    Bereits zu Beginn der Computerentwicklung warnte Joseph Weizenbaum (der das erste Computer-Sprachprogramm „Eliza“ entwickelte) vor den Folgen der EDV (Elektronischen Datenverarbeitung). Sie sei gefährlicher als die Atomkraft: https://manfredreichelt.wordpress.com/2017/07/08/was-ganz-gewiss-auf-uns-zukommt/ Da der Mensch ethisch und moralisch überhaupt nicht dem Fortschritt der Wissenschaft gewachsen ist, kann man annehmen, dass auch hier der Missbrauch nicht ausbleiben wird.

Kommentar verfassen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.

RefLab regelmässig in deiner Mailbox

RefLab-Newsletter
Podcasts, Blogs und Videos, alle 2 Wochen
Blog-Updates
nur Blogartikel, alle 2 bis 3 Tage