Haftungsausschluss: Der unten angezeigte Text wurde mithilfe eines Drittanbieter-bersetzungstools automatisch aus einer anderen Sprache bersetzt.
AI ist BS
von: Brian D. Wassom
Zum Zeitpunkt des Verfassens dieses Artikels scheint sich die Gesellschaft irgendwo in der Phase des vierten Datums ihrer Beziehung zu generativer kunstlicher Intelligenz zu befinden: immer noch vernarrt, aber allmahlich nuchtern genug, um anzuerkennen, dass das Objekt unserer Zuneigung moglicherweise nicht ganz unser Vertrauen wert ist. Alle auser den gluhendsten Enthusiasten haben erkannt, dass wir nicht davon ausgehen konnen, dass alles, was KI-Anwendungen uns erzahlen, wahr ist. ChatGPT zum Beispiel, der Liebling des Augenblicks, antwortet auf unsere Fragen ohne Umschweife mit Fakten und Fiktion gleichermasen. Die vorherrschende Beschreibung dieser Hohenfluge ist "Halluzination" - ein anthropomorphisierender Begriff, der andeutet, dass die App wirklich ehrlich zu uns sein mochte, aber ungewollt durch einen gelegentlichen schizophrenen Bruch mit der Realitat zuruckgehalten wird.
Insofern diese Terminologie vermittelt, dass ChatGPT uns nicht absichtlich anlugt, ist sie fair genug. Aber in dem Mase, in dem das Wort "Halluzination" impliziert, dass die App ansonsten die Wahrheit sagt, ist es in hohem Mase irrefuhrend. Von KI zu sprechen, als sei sie etwas Personlicheres als das komplexe Zusammenspiel von 1en und 0en, ist naturlich unser erster Fehler und eine eigene Art von Fiktion. Ein Stephen Hawking zugeschriebenes Zitat definiert "Intelligenz" als "die Fahigkeit, sich an Veranderungen anzupassen". Nach diesem Masstab handeln KI-Programme intelligent. Was KI von gewohnlicher Software unterscheidet, ist ihre Fahigkeit, ihre Funktionsweise als Reaktion auf die Ruckmeldungen, die sie aus fruheren Eingaben und Aktionen erhalt, anzupassen. Wir nennen diese Prozesse "maschinelles Lernen" oder "Deep Learning", und die fortschrittlicheren KI-Designs sind als "neuronale Netze" bekannt - alles Begriffe, die sich an der Arbeitsweise des menschlichen Geistes orientieren.
Aber diese Begriffe sind eher analog als prazise. KI ist nicht "intelligent" wie ein menschliches Gehirn, denn Software hat keinen Verstand. Merriam Webster definiert "Intelligenz" genauer als "die Fahigkeit zu lernen oder zu verstehen", "der geschickte Einsatz des Verstandes" und "die Fahigkeit, Wissen anzuwenden ... oder abstrakt zu denken". Maschinen konnen nichts von alledem tun. Wenn ein KI-Programm Daten erzeugt, die zufallig mit der Realitat ubereinstimmen, dann ist das das gluckliche Ergebnis der Bemuhungen seiner menschlichen Programmierer. Diese Programmierer sind wie Bauingenieure, die ein komplexes unterirdisches Rohrsystem so genau planen, dass das Wasser nur an die gewunschte Stelle fliest. Aber ein KI-Programm weis nicht, dass es die Wahrheit sagt, genauso wenig wie ein Rohr weis, dass es das Wasser richtig leitet, denn es hat keinen Verstand, mit dem es die Realitat erkennen kann.
Wenigstens konnen wir uns damit trosten, dass KI uns nicht belugen kann. Ein Lugner ist jemand, der die Wahrheit erkennt und sich dafur entscheidet, den Zuhorer etwas anderes glauben zu lassen. KI kann die Wahrheit nicht "erkennen", also kann sie auch nicht lugen.
Aber streng genommen kann sie auch nicht "halluzinieren"; halluzinieren bedeutet immer noch, eine Realitat wahrzunehmen, nur nicht die tatsachliche. Wenn wir also - was unvermeidlich scheint - weiterhin von KI in anthropomorphisierten Begriffen sprechen, sollten wir zumindest praziser sein. Wenn wir uns in einem falschen Verstandnis der Funktionsweise der Software wiegen, verkennen wir, was sie fur uns tut, und verpassen so sowohl ihre Grenzen als auch ihren wahren potenziellen Nutzen. Aus diesem Grund schlage ich vor, dass die genaueste Art und Weise, den Output generativer KI-Programme zu beschreiben, die Abkurzung "BS" ist.
Ich meine es ernst. In einem Buch aus dem Jahr 2005, das zu seiner popularsten Veroffentlichung wurde, machte sich der heute 94-jahrige amerikanische Philosoph Harry G. Frankfurt daran, diesen oft verwendeten, aber schlecht verstandenen Begriff zu definieren. In dem Buch mit dem Titel On Bullsh*t wird behauptet, dass "das Wesen von [BS] nicht darin besteht, dass es falsch ist, sondern dass es unecht ist". Im Gegensatz zu einem Lugner, der aktiv "versucht, uns von einer korrekten Wahrnehmung der Realitat wegzufuhren", kummert sich der BS-Kunstler "nicht darum, ob die Dinge, die er sagt, die Realitat korrekt beschreiben. Er wahlt sie einfach aus oder erfindet sie, um seinen Zweck zu erfullen".
Besser konnen wir die Gesprache von ChatGPT mit uns nicht beschreiben. Der einzige Unterschied zwischen einem Chatbot und einem menschlichen BS-Kunstler besteht darin, dass der Mensch dies absichtlich tut. KI hat keine Absicht. Aber das zementiert nur die Beschreibung. Wie Frankfurt sagt: "[BS] ist unvermeidlich, wenn die Umstande es erfordern, dass jemand redet, ohne zu wissen, wovon er redet." Da ChatGPT nicht wissen kann, wovon es spricht, kann es nichts anderes als BS sagen.
Dies ist am einfachsten im Kontext eines Chatbots zu sehen, aber das gleiche Prinzip gilt fur alle Erscheinungsformen von KI. Andere KI-Programme sind dafur bekannt, dass sie Behandlungsempfehlungen fur das Gesundheitswesen abgeben, die auf ungenauen Schlussfolgerungen aus unvollstandigen Daten beruhen. Oder Beschaftigungsentscheidungen auf der Grundlage von Datensatzen, die durch vorherige Diskriminierung verzerrt waren. Oder sie identifizieren kriminelle Verdachtige auf der Grundlage von Gesichtserkennungsdaten, die farbige Gesichter schlechter erkennen als weise Gesichter. Oder die Autokorrektur von Wortern, die eine unschuldige Textnachricht in einen peinlichen Fauxpas verwandelt.
Keines dieser Ergebnisse war unvermeidlich, und sie waren auch nicht die Schuld der Programme selbst. Die Ungenauigkeiten in der KI-Ausgabe konnen und werden oft dadurch verringert, dass Menschen einen raffinierteren Code implementieren - ausgefeiltere Rohre, die sicherstellen, dass das Wasser nur dorthin fliest, wo es hin soll, und nirgendwo anders. Abgesehen davon liegt ein groser Teil des Erstaunlichen und Besorgniserregenden an vielen der fortschrittlichsten KI-Programme darin, dass ihre menschlichen Autoren nicht wissen, wie sie funktionieren; die KI selbst hat ihren eigenen Code langst so oft umgeschrieben, dass ihre Funktion selbst fur ihre Schopfer unergrundlich ist. BS gezeugt durch BS.
Das heist aber nicht, dass wir nicht weiterhin KI-Anwendungen entwickeln und nutzen sollten. Im Gegenteil, es gibt brillante Menschen, die nutzliche, ethisch vertretbare Anwendungen der KI entwickeln. Die Macht und der Nutzen solcher Erfindungen kann nicht geleugnet werden, solange sie zweckgebundene Werkzeuge und keine vertrauenswurdigen Berater bleiben. KI-Losungen mussen innerhalb eines Rahmens implementiert werden, der eng genug ist, um sicherzustellen, dass die endgultigen Ergebnisse des Programms mit hinreichender Wahrscheinlichkeit mit der Realitat ubereinstimmen, um (nach einer von Menschen durchgefuhrten Uberprufung und Uberarbeitung) fur den beabsichtigten Zweck nutzlich zu sein. Die akzeptablen Parameter werden je nach Kontext variieren. Und manchmal kann ein wenig BS eine gute Sache sein - zum Beispiel, wenn man ChatGPT benutzt, um zu uberlegen, wie man ein Meeting interessant gestalten kann, oder wenn man sich auf Midjourney verlasst, um erstaunliche und inspirierende Bilder zu rendern, selbst wenn die Menschen darauf am Ende ein paar Finger mehr haben.
Die halsbrecherische Geschwindigkeit, mit der sich KI in praktisch allen Wirtschaftszweigen gleichzeitig durchsetzt, und die atemlose Ehrfurcht, mit der Verkaufer und Manager der mittleren Ebene uber das Potenzial dieser Anwendungen sprechen, geben jedoch weiterhin Anlass zu ernster Sorge. Auch wenn Teile unseres gesellschaftlichen Bewusstseins es besser wissen, als der KI zu vertrauen, lassen sich immer noch viel zu viele von uns von ihrem Schonreden verfuhren.
KI-gestutzte Werkzeuge werden fur ein immer breiteres Spektrum von Anwendungen nutzlich sein, die den Menschen bei der Entscheidungsfindung informieren und unterstutzen, aber sie mussen immer von Menschen eingesetzt werden, die ein unabhangiges Urteilsvermogen besitzen. "Der [BS-Kunstler] ... lehnt die Autoritat der Wahrheit nicht ab, wie es der Lugner tut .... Er schenkt ihr uberhaupt keine Beachtung. Dadurch ist [BS] ein groserer Feind der Wahrheit als die Luge", warnte Frankfurt. In dem Mase, in dem wir uns oder unseren Unternehmen erlauben, sich unkritisch auf generative KI als Quelle der Wahrheit zu verlassen, werden wir es bereuen.