Wir kennen Wetterprognosen aus dem Fernsehen, aus Zeitungen und Apps. Es wird von „Niederschlagswahrscheinlichkeiten“ gesprochen, oftmals werden auch Informationen zur „gefühlten Temperatur“ angegeben. Zweifellos gibt es zwischen Künstlicher Intelligenz (KI) und Wettervorhersagen eine Vielzahl markanter Unterschiede. Das wird man nicht leugnen wollen. Spielen aber nicht doch auch „Wissenswahrscheinlichkeiten“ und „gefühltes Wissen“ im Falle von KI eine Rolle?
Bedeutet die Regenwahrscheinlichkeit von sechzig Prozent für einen bestimmten Zeitraum in einem bestimmten Ort, dass es bei einer vergleichbaren Wetterlage in sechs von zehn Fällen irgendwo in dem Ort einmal geregnet hat, so dürfte die Trefferwahrscheinlichkeit von ChatGPT auf die Frage, worin der Unterschied zwischen „Sinn“ und „Bedeutung“ bestehe, geschätzt ebenfalls sechzig Prozent betragen. In sechs von zehn Fällen passt die Antwort (allerdings auch nur „irgendwie“, so wie es etwa in dem angeführten Ort im Falle der Wetterprognose „irgendwo“ regnete). Aber in vielen Fällen passt sie eben nicht, so wie es auch nicht immer und überall gemäß der Prognose regnet.
Zur „gefühlten Temperatur“ gibt der Deutsche Wetterdienst folgende Auskunft: „Im Deutschen Wetterdienst wird die gefühlte Temperatur nach dem sogenannten ‚Klima-Michel-Modell‘ berechnet, das den Wärmehaushalt eines Modellmenschen bewertet. Der ‚Klima-Michel‘ ist eine männliche Person mit einer Größe von 1,75 m, einem Gewicht von 75 kg und ist etwa 35 Jahre alt.“[1] Im Falle der „gefühlten Temperatur“ handelt es sich nicht um die tatsächlich erfahrene Temperatur, sondern diejenige Temperatur, die der modellierte, körperlose „Klima-Michel“ fühlen müsste, wenn er es denn könnte (was er allerdings nicht kann, weil seine Körperlichkeit ein bloßes Modell ist). Im Falle der KI ist es nicht ganz anders. Der „Intelligenz-Michel“ der KI, wie man ihn nennen müsste, wäre eine modellierte, körperlose Intelligenz, die etwas wissen müsste, wenn sie denn wissen könnte. Aber sie kann es nicht.
Begreifen geht nur körperlich
Der Intelligenz-Michel mit seinem wahrscheinlichen Wissen ist keineswegs unbrauchbar. Im Gegenteil. Der Intelligenz-Michel ist das, was man sich vorstellt, wenn die Frage lautet, was man wissen müsste, wenn es in den meisten standardisierten Fällen irgendwie passen soll. Das ist sicherlich nicht nichts. Es ist das Ideal der Kompetenz: Unter bekannten Umständen verlässt man sich darauf, dass das antrainierte Wissen und Können irgendwie passt.[2] Kompetenz ist angepasstes Wissen. Und Kompetenz lässt sich delegieren, andere können den Job übernehmen, wenn es um das Passende geht.
Mit Bildung, Verstehen und Begreifen hat dies freilich noch nichts zu tun. Bildung ist kein Modell irgendeines modellierten Wissens, das irgendwie passt, sondern der Vollzug eines Wissens, das aus seiner Nicht-Passung das Beste macht. Etwas Verstehen bedeutet, dem Nicht-Verstandenen auf die Spur zu kommen. Und begreifen kann nur derjenige, der einen Standpunkt besitzt, der also mit anderen Worten tatsächlich körperlich verfasst ist. Bildung ist auch keine Sache, die man outsourcen könnte. Man muss sich schon selbst bilden – und zwar in Auseinandersetzung mit etwas, das einen Wert besitzt und nicht nur einen Preis hat. Mündigkeit ist hier das Ziel, nicht Anpassung.
Und doch reißen die Diskussionen um die sogenannte Künstliche Intelligenz nicht ab, im Gegenteil, das Krisenbewusstsein nimmt zu und wird geschürt. Dies liegt auch an dem eigentümlich unklaren Konzept der Intelligenz, in dem die Grenzen zwischen Kompetenz und Bildung verschwimmen – wahrscheinlich zuungunsten der Bildung. Auszuschließen ist nicht, dass viele erregte und aufgebrachte Diskussionen um die KI daraus resultieren. Warum sind wir eigentlich so leichtfertig, etwas intelligent zu nennen, das nicht weiß, was es tut, das pausenlos Worte aneinanderreiht, aber nichts versteht, das Denken simuliert, aber nichts hat, worüber es in seinem Prozessieren stolpern könnte?
Alarmieren als Geschäftsmodell
Die Warnungen vor den Folgen der KI werden von Tag zu Tag prägnanter, aber auch fatalistischer. Unlängst versammelten sich namhafte Vertreter der KI-Industrie hinter einem einzigen Satz, der auf der Website des Center for AI Safety veröffentlicht wurde: „Die Eindämmung des Risikos einer Vernichtung durch KI sollte neben anderen gesellschaftlichen Risiken wie Pandemien und Atomkriegen eine globale Priorität sein.“ Die Proklamation wurde unter anderen von Sam Altman und Demis Hassabis unterschrieben – der eine CEO von OpenAI, einem US-amerikanischen Unternehmen, das sich mit der Erforschung von KI beschäftigt, der andere Mitbegründer von DeepMind, befasst mit KI-Programmierung und 2014 von Google übernommen.
Das Center for AI Safety listet zum Beleg einige Gefahrenpotenziale auf, darunter weaponization, also den Einsatz der Software zur Entwicklung neuer Waffen und Steuerung globaler Verbrechen; die Gefahr gesellschaftlicher Verwerfungen, die durch gezielten Einsatz von Falschinformationen entstehen; oder auch ein durch KI gemanagtes Werteregime, denen einzelne Personen oder ganze Gesellschaften unterworfen werden.
Der von René Descartes vor fast 400 Jahren im Rahmen seines methodischen Zweifels imaginierte „betrügerische Geist“ („genius malignus“), der die Autonomie menschlichen Urteilens außer Kraft setzt, scheint nunmehr Realität geworden zu sein. Dem böswilligen Gott in Gestalt der KI wird sogar unterstellt, noch listiger agieren zu können als die Cartesische Fiktion. Denn nunmehr sei es mit und durch den Einsatz von KI möglich, nicht einfach aus Böswilligkeit zu täuschen. Der täuschende Dämon könne noch listiger sein Werk verrichten, weil er nun aus Gutwilligkeit täusche. Letztlich drohe dann eine Erschöpfung („enfeeblement“), eine saturierte geistige Umnachtung der Menschheit, wenn mehr und mehr intellektuelle und praktische Aufgaben an Maschinen delegiert werden. Zur Illustration wird in dem Text auf den Film Wall-E verwiesen, in dem ein Roboter die vermüllte und unbewohnbare Erde aufräumt, während Menschen körperlich aufgedunsen und geistig unterversorgt in Raumschiffen ihr Leben fristen.
Ein gutes Geschäftsmodell besteht nicht nur darin, ein verführerisches Produkt auf den Markt zu bringen, sondern zugleich die Mittel anzupreisen, die sich gegen die unerwünschten Nebenwirkungen oder Folgen richten. Die Marktposition dürfte damit auf lange Sicht gesichert sein. Und so wurde Anfang Juli 2023 verkündet, dass OpenAI eine Forschergruppe zusammenstellt, die sich den Folgen der KI widmet. Natürlich, so heißt es selbstbewusst, könne nicht bezweifelt werden, dass die KI die wirkungsvollste Technologie sei, die die Menschheit je erfunden habe. Doch die Gefahren seien absehbar: Die Selbstentmachtung der Menschheit und das Aussterben der Menschen seien ebenfalls durch die KI möglich. Und sie lägen näher, als man vermute. Darum wolle man eine finanziell gut ausgestattete Forschergruppe einrichten, die sich diesen Gefahren widmet, um sie einzudämmen – natürlich wieder mithilfe der KI.
Wie uns Algorithmen auf den Leib rücken
Es sind starke Bilder, die hier aufgerufen und von den Medien dankbar aufgegriffen werden. Sie rufen Assoziationen wach und wirken ohne jeden Kommentar. Doch die Frage darf gestellt werden, ob solche oder ähnliche Formen der öffentlichkeitswirksamen KI-Inszenierung nicht selbst schon Resultat eines erschöpften Bewusstseins sind. In diesen und ähnlichen Szenarien wird Menschliches, allzu Menschliches zum Thema. Ängste werden bedient, Propheten verkünden Verheißungen; Apokalyptiker machen das, was immer funktioniert: Sie verkünden den Untergang. Doch wie nah kann uns die körperlose Gestalt eines Algorithmus, der keinen Namen hat, sondern zuerst einmal nur eine Bezeichnung ist, wirklich auf den Leib rücken?
Unbestritten ist, dass sich mit Nutzung von KI-Systemen wie ChatGPT die Berufswelt ändert. Nach allem, was wir wissen, auch radikal. Zweifellos werden rechtliche Fragen virulent, vom Urheberrecht bis zu Haftungsfragen. Und die KI wird auch nicht bei der Freizeit haltmachen, sie wird in Fernseher Eingang finden, sollten diese nicht schon bald durch Augmented Reality-(AR)-Brillen abgelöst werden. Selbstverständlich also wird die sogenannte KI ihren Platz in der Welt haben – aber in der Welt des Menschen. Es lohnt also, die technischen Entwicklungen nicht einfach nur zu begleiten, sondern sie zu gestalten. Wenig hilfreich ist allerdings das fortwährende Zeichnen von Untergangsszenarien, bei denen schnell klar wird, dass es schlicht zum Marketing gehört.
Gleichzeitig sollte jedoch in anthropologischer Hinsicht etwas anderes zu denken geben: Mit Chatbots wie ChatGPT, die Dialog simulieren, in denen jedoch kein Gespräch zustande kommt, tritt uns eine Technik entgegen, die alles Mögliche zu sein vorgibt, aber eines sicherlich nicht ist – ein körperliches Wesen, das aufgrund seiner Körperlichkeit einen Standpunkt besitzt. Menschen sind Lebewesen, die durch ein „Zur-Welt-Sein“ (Maurice Merleau-Ponty) oder „In-der-Welt-Sein“ (Martin Heidegger) ausgezeichnet sind – dies aber doch letztlich aufgrund ihrer leiblichen Verfassung. Welchen Standpunkt könnte ChatGPT haben? Welches Verständnis von Welt soll eine KI ausbilden können?
Körperlichkeit ist kein Defekt der menschlichen Existenz, sondern Garant des eigenen, des menschlichen Selbstverständnisses. Ohne Standpunkt lassen sich vielleicht Projekte formulieren, aber keine Ziele diskutieren. Ohne Standpunkt mag man sich viele Dinge zutrauen, doch man kann sich kaum auf etwas verlassen. Und ohne Standpunkt verliert man die Distanz. Diese allerdings ist es, die Verstehen, Begreifen und Bildung auszeichnet – sich in Distanz setzen zu können: zu sich selbst, zu anderen und der Welt. Diese Fähigkeit ist körperlosen Wesen nicht gestattet. Manche mögen darin einen Fehler der menschlichen Existenz sehen und träumen einer körperlosen Welt entgegen. Ein waghalsiger Traum, der letztlich sogar dem Träumen keine Chance mehr lässt.
Christian Bermes, geboren 1968 in Trier, Professor für Philosophie und Leiter des Instituts für Philosophie, Rheinland-Pfälzische Technische Universität (RPTU), Landau.
[1] Vgl. Dipl.-Met. Sabine Krüger: Die „gefühlte“ Temperatur, Deutscher Wetterdienst, Vorhersage- und Beratungszentrale Offenbach, 17.02.2017, www.dwd.de/DE/wetter/thema_des_tages/2017/2/7.html [letzter Zugriff: 17.07.2023].
[2] Vgl. Christian Bermes / Andreas Dörpinghaus: „Wer hat Angst vor ChatGPT?“, in: Frankfurter Allgemeine Zeitung, Nr. 91, 19.04.2023, Seite N4.