Was „Künstliche Intelligenz“ nicht ist
und was wir über echte Intelligenz wirklich wissen
13.05.2025 • mikenoby • Künstliche Intelligenz
Ein grundlegender Artikel über Intelligenz, Denkprozesse, Bewusstsein und die Grenzen maschineller Simulation.
1. Intelligenz – ein Begriff mit vielen Gesichtern
„Intelligenz“ – kaum ein Begriff wird so häufig verwendet und so selten hinterfragt. In Werbung, Politik, Unternehmenskommunikation und Alltagssprache steht Intelligenz für nahezu alles: von analytischer Brillanz über soziale Sensibilität bis hin zu technischer Leistungsfähigkeit.
Doch was genau ist Intelligenz eigentlich?
Und noch wichtiger: Was unterscheidet menschliche Intelligenz von der sogenannten „Künstlichen“ Intelligenz?
Bevor wir über Maschinen nachdenken, sollten wir erst einmal klären, worüber wir beim Denken überhaupt sprechen.
2. Wie denken Lebewesen?
Leben – das bedeutet Reizaufnahme, Reaktion, Lernen und Anpassung. Doch „Denken“ beginnt dort, wo bloße Reaktion durch Verarbeitung ersetzt wird.
Bei Tieren ist dies in unterschiedlichsten Formen nachgewiesen: Krähen benutzen Werkzeuge, Oktopusse lösen Labyrinthe, Elefanten zeigen Trauer.
Diese Beispiele zeigen: Denken ist keine exklusive Fähigkeit des Menschen. Doch es gibt Unterschiede – qualitative und strukturelle.
Tierisches Denken:
- ist oft situationsgebunden und erfahrungsbasiert
- nutzt vor allem Sensorik und Instinkt
- ist pragmatisch und auf direktes Überleben ausgerichtet
- kann hochkomplexe Handlungen umfassen, ohne Sprache oder Symbolverständnis
Menschliches Denken:
- ist abstrakt, vorausschauend und reflexiv
- beruht auf Sprache, Bedeutung und Selbstbewusstsein
- erlaubt Zeitreisen im Kopf: Rückblick, Planung, Fiktion
- ist zutiefst sozial – wir denken in Beziehungen und Normen
Der Mensch denkt also nicht nur, um zu überleben, sondern auch, was das Überleben bedeutet.
Er fragt nach dem Warum, nicht nur nach dem Wie. Und das macht den entscheidenden Unterschied.
3. Was ist Intelligenz – und wie lässt sie sich definieren?
Die Wissenschaft hat sich jahrzehntelang bemüht, Intelligenz messbar zu machen. Herausgekommen sind verschiedene Modelle:
- IQ-Tests: messen vor allem logisches und sprachliches Denken
- Multiple Intelligenzen (Howard Gardner): unterscheiden zwischen sprachlicher, musikalischer, räumlicher, emotionaler u.v.m.
- Fluide und kristalline Intelligenz: Unterscheidung zwischen Problemlösungsfähigkeit und angeeignetem Wissen
Aber: All diese Modelle sind theoretische Konstruktionen. Sie helfen, bestimmte Aspekte zu beschreiben – sie erklären aber nicht das Wesen des Denkens.
Was fehlt, ist eine einheitliche, naturwissenschaftlich belastbare Definition.
Denn Intelligenz ist kein einzelner Mechanismus. Sie ist ein System aus Wahrnehmung, Bewertung, Zielorientierung, Erfahrung und Lernen, oft verbunden mit Emotionen, Intuition und sozialer Einbettung.
Das macht Intelligenz so schwer fassbar – und so menschlich.
4. Wie gut verstehen wir das menschliche Denken?
Die Fortschritte der Neurowissenschaften haben uns in den letzten Jahrzehnten atemberaubende Einblicke in die Struktur des Gehirns ermöglicht.
Wir kennen heute Tausende Details zu Neuronen, Synapsen, Transmittern und Netzwerken.
Doch: Das Verstehen ist nicht gleichzusetzen mit dem Begreifen.
Wir können messen, wo im Gehirn etwas passiert – aber nicht, warum dort plötzlich eine Idee entsteht.
Wir wissen, dass das Gehirn plastisch ist, dass es sich verändert, dass es lernt – aber wie Bewusstsein entsteht, ist weiterhin ungeklärt.
Selbst fundamentale Fragen wie:
- Was ist ein Gedanke?
- Was genau geschieht beim Erinnern?
- Wie entsteht ein subjektives Gefühl?
sind nach wie vor ohne abschließende Antwort.
Die Hirnforschung liefert uns faszinierende Modelle, aber viele dieser Modelle beruhen auf Annahmen, Analogien und vereinfachten Darstellungen.
Das bedeutet: Ein großer Teil unseres heutigen Verständnisses über das Denken basiert auf Theorien, nicht auf gesicherten Fakten.
5. Was kann Künstliche Intelligenz – und was nicht?
Der Begriff „Künstliche Intelligenz“ (KI) suggeriert, dass Maschinen intelligent wären – aber das ist irreführend.
Künstliche Intelligenz ist keine Intelligenz im biologischen oder psychologischen Sinn. Es handelt sich vielmehr um eine technologische Methode zur datenbasierten Mustererkennung und Optimierung.
KI – insbesondere maschinelles Lernen – funktioniert durch:
- Verarbeitung enormer Datenmengen
- Erkennen von Korrelationen und Regelmäßigkeiten
- mathematische Gewichtung und Bewertung von Wahrscheinlichkeiten
- algorithmisches Reagieren auf neue Eingaben
Dabei entstehen beeindruckende Ergebnisse:
- Bilderkennung
- Sprachverarbeitung
- Prognosemodelle
- Simulation von Dialogen
Aber all das geschieht ohne jedes Verständnis.
Ein Sprachmodell wie ChatGPT berechnet, welches Wort statistisch am wahrscheinlichsten folgt – es hat kein Konzept davon, was es schreibt.
Künstliche Intelligenz:
- weiß nicht, was ein Wort bedeutet
- versteht nicht, was ein Fehler ist
- fühlt nicht, ob eine Aussage ethisch ist
- hat keine Absicht, kein Ziel, kein Selbst
Sie „tut“, was sie programmiert wurde zu tun – ohne Motivation, Kontext oder Bewusstsein.
6. Der fundamentale Unterschied: Innenleben
Was ist also der zentrale Unterschied zwischen echter und künstlicher Intelligenz?
Es ist das Innenleben.
Das Erleben. Die Subjektivität. Die Bedeutung.
Ein Mensch denkt nicht nur über Daten nach – er denkt über sich, über andere, über das Leben.
Er kann empfinden, zweifeln, träumen, bereuen.
Ein Mensch kann lügen – nicht, weil er programmiert wurde, sondern weil er ein Motiv hat.
Ein Mensch kann handeln gegen seine Interessen – aus Moral, Liebe oder Trotz.
Maschinen hingegen:
- haben keine Geschichte
- erleben keine Welt
- sind ohne Ich, ohne Anderes, ohne Zeitgefühl
Eine KI kann Dir sagen, was Empathie ist – sie kann Dir aber keine Empathie entgegenbringen.
7. Warum diese Unterscheidung entscheidend ist
In einer Welt, in der KIs zunehmend Aufgaben übernehmen, wird es immer wichtiger, die Grenzen dieser Technologie zu verstehen.
Nicht, um sie abzuwerten – sondern um sie angemessen einzusetzen.
Wenn wir glauben, KI könne menschliches Denken ersetzen, laufen wir Gefahr:
- echte Verantwortung zu delegieren
- zwischenmenschliche Kommunikation zu entwerten
- unsere Vorstellung von Bildung, Urteilskraft und Kreativität zu verflachen
Denn wenn alles nur noch „Effizienz“ ist, bleibt keine Luft mehr für Sinn.
Künstliche Intelligenz kann Werkzeuge bauen – aber sie weiß nicht, wofür.
Sie kann Texte schreiben – aber nicht entscheiden, ob sie richtig oder wichtig sind.
Sie kann Empfehlungen geben – aber keine Verantwortung tragen.
8. Verwechseln wir nicht Nachahmung mit Verständnis
Künstliche Intelligenz ist ein technisches Meisterwerk.
Aber sie ist keine denkende Entität, sondern ein Spiegel menschlicher Ausdrucksformen – auf Basis von Daten, Wahrscheinlichkeiten und Trainingsmechanismen.
Echte Intelligenz ist mehr als das.
Sie ist untrennbar mit Bewusstsein, Erfahrung, Subjektivität und Verantwortung verbunden.
Wenn wir in der Diskussion über KI den Menschen vergessen, verlieren wir nicht nur die Kontrolle über die Technologie –
wir verlieren auch das Verständnis darüber, wer wir selbst eigentlich sind.
9. Wie unterschiedlich Menschen und Maschinen lernen
Ein anschauliches Beispiel für die fundamentalen Unterschiede zwischen menschlichem und maschinellem Lernen bietet die Darstellung menschlicher Hände – insbesondere in Bildern, die von KI generiert wurden.
Das Problem: Zu viele Finger
Künstliche Intelligenzen zur Bildgenerierung – wie DALL·E, Midjourney oder Stable Diffusion – erzeugen häufig Bilder von Menschen mit sechs oder sieben Fingern pro Hand. Oder mit falsch angeordneten Gelenken. Oder mit anatomisch unmöglichen Griffen.
Warum passiert das?
Ganz einfach: Die KI weiß nicht, wie eine Hand aussieht. Sie versteht nicht, was ein Finger ist oder wie viele es geben sollte. Sie generiert Bilder rein statistisch: Pixel für Pixel, auf Basis riesiger Datenmengen, ohne jegliches anatomisches oder semantisches Wissen.
Wenn in ihren Trainingsdaten Bilder enthalten sind, auf denen Hände schlecht abgebildet, verzerrt oder unvollständig sind – und das ist häufig der Fall –, dann kann sie daraus kein konsistentes Konzept einer „richtigen“ Hand ableiten.
Denn: Sie kann nicht zwischen richtig und falsch unterscheiden. Es gibt keinen Vorrang von Wahrheit, keine Korrektur durch Weltwissen, kein Bewusstsein für Plausibilität.
Und wie lernen Kinder, eine Hand zu zeichnen?
Spannenderweise zeichnen auch kleine Kinder oft Hände mit zu vielen oder zu wenigen Fingern.
Aber – und hier liegt der entscheidende Unterschied – dieser Fehler verschwindet mit der Zeit. Und zwar nicht, weil ihnen jemand das richtige Bild „übertrainiert“, sondern weil sie ein inneres Modell entwickeln.
Ein Kind lebt in einem Körper. Es hat Hände. Es benutzt sie täglich. Es sieht seine eigenen und die Hände anderer Menschen tausende Male.
Es greift, tastet, zählt an den Fingern, beobachtet Unterschiede, macht Fehler, bekommt Rückmeldung – und entwickelt ein mentales Schema, in dem die Hand aus fünf Fingern besteht.
Dieses Wissen wird irgendwann robust:
- Es bleibt bestehen, auch wenn das Kind ein verzerrtes Foto sieht.
- Es wird nicht überschrieben durch einzelne Ausreißer.
- Es wird integriert in das Gesamtbild des Körpers.
Man spricht hier von konzeptuellem Lernen, gestützt durch eigene Erfahrung, Körperwahrnehmung, Rückmeldung und Bedeutung.
Maschinen fehlt dieses stabile Weltwissen
Eine KI hat kein Ich, keinen Körper, kein Bewusstsein für Widersprüche. Sie speichert nicht Erkenntnisse, sondern Gewichtungen in neuronalen Netzen.
Und: Sie unterscheidet nicht zwischen einem realistischen Bild und einem surrealen Kunstwerk. Wenn beide in den Trainingsdaten vorkommen, fließen sie mit vergleichbarem Gewicht in die Berechnung ein – sofern sie nicht explizit aussortiert wurden.
Eine KI „lernt“ also rein statistisch: Sie optimiert Wahrscheinlichkeiten auf Basis vergangener Beispiele.
Aber sie lernt nicht begrifflich. Sie bildet keine „Theorie der Hand“. Sie kann nicht sagen: „Eine Hand hat fünf Finger – alle Abweichungen davon sind falsch.“
Dafür fehlt ihr das, was man im menschlichen Denken übergreifendes Strukturwissen nennt.
Lernen bedeutet für Menschen mehr als Wiederholen
Beim Menschen wird Lernen durch sehr verschiedene Systeme getragen:
- durch Körpererfahrung
- durch soziale Rückmeldung
- durch Sprache und Begriffsbildung
- durch Erinnerung und Verknüpfung
- durch die Fähigkeit, zwischen plausibel und absurd zu unterscheiden
Wenn ein Kind einmal verstanden hat, dass eine Hand fünf Finger hat, wird es dieses Wissen aktiv auf neue Situationen anwenden. Es wird vielleicht sagen: „Das Bild sieht komisch aus – der hat sechs Finger!“
Diese Fähigkeit zur Korrektur, zur Überprüfung anhand eines stabilen Weltmodells, ist ein zentrales Merkmal menschlicher Intelligenz.
Fazit: Maschinen lernen Korrelation – Menschen lernen Bedeutung
Die Unterschiede zwischen menschlichem und maschinellem Lernen lassen sich am Hand-Beispiel exemplarisch aufzeigen:
Merkmal | Mensch | KI |
---|---|---|
Lernquelle | Körper, Wahrnehmung, Interaktion, Sprache | Trainingsdaten |
Lernmechanismus | Bedeutung, Kontext, Erfahrung, Rückmeldung | Mustererkennung, Wahrscheinlichkeiten |
Fehlertoleranz | erkennt Widersprüche, korrigiert sich | übernimmt Fehler aus Daten unkritisch |
Stabilität des Wissens | hoch – begründet durch Weltverständnis | fragil – abhängig von Trainingsverteilung |
Bewusstsein für Wahrheit | vorhanden | nicht vorhanden |
10. Die gewaltige Kluft – warum maschinelles Denken dem menschlichen Denken nicht annähernd entspricht
So beeindruckend Künstliche Intelligenz im Alltag erscheinen mag – die strukturellen und funktionalen Unterschiede zum menschlichen Denken sind gigantisch, sowohl quantitativ als auch qualitativ.
Oft wird der Vergleich gezogen, das menschliche Gehirn nutze nur einen kleinen Teil seiner Kapazität – etwa 10 bis 15 Prozent. Diese Annahme wird heute von vielen Neurowissenschaftlern infrage gestellt, meist mit Verweis darauf, dass nahezu alle Hirnregionen aktiv seien und sich funktionell beteiligt zeigen.
Doch dieser Widerspruch übersieht den eigentlichen Punkt:
Nicht die räumliche Auslastung, sondern die funktionelle Gesamtkapazität ist gemeint – also das, was unser Gehirn potenziell leisten könnte, wenn man seine theoretische Differenzierungsfähigkeit vollständig ausschöpfen wollte.
Hier liefern jüngere neurobiologische Studien hochinteressante Erkenntnisse:
Während digitale Systeme Informationen in binärer Logik verarbeiten – also über klar unterscheidbare Zustände wie 0 und 1 –, arbeiten biologische Neuronen nicht bloß „an“ oder „aus“. Vielmehr hängt ihre Aktivität von einer Vielzahl biochemischer und struktureller Faktoren ab:
- der Konzentration bestimmter Neurotransmitter,
- der Empfindlichkeit von Rezeptoren,
- dem zeitlichen Muster der Erregung,
- der Plastizität der Synapsen,
- und der variablen Modulation durch Hormone und Umwelteinflüsse.
Neueste Studien gehen davon aus, dass eine einzige Verbindung zwischen zwei Nervenzellen (eine Synapse) bis zu 170 differenzierbare funktionelle Zustände einnehmen kann.
Das bedeutet: Der Informationsgehalt des Gehirns liegt nicht in der Anzahl der Neuronen allein (geschätzt etwa 86 Milliarden), sondern in der schier unvorstellbaren Zahl ihrer Verbindungen und deren feinstufig differenzierten Zuständen.
Selbst eine konservative Rechnung ergibt:
- bei rund 100 Billionen Synapsen im menschlichen Gehirn
- mit nur 100 möglichen Zuständen pro Verbindung
würde man bereits eine Kombinationskomplexität erreichen, die jeden bekannten Supercomputer um Lichtjahre übertrifft – sowohl in Rechenleistung als auch in Energieeffizienz und Parallelverarbeitung.
Das bedeutet konkret:
Ein KI-System, das die Struktur, Plastizität und chemische Tiefe des menschlichen Denkens auch nur annähernd nachbilden wollte, müsste nicht nur astronomische Mengen an Speicher und Energie aufwenden – es müsste auch ein völlig neues Rechenparadigma verwenden, das über digitale Logik hinausgeht.
Denn maschinelle Rechenleistung ist sequenziell und logisch-linear – menschliches Denken hingegen ist kontextuell, chemisch, nichtlinear und selbstmodulierend.
11. Wie groß müsste eine Maschine sein, die wirklich denkt?
Geht man von den genannten Annahmen aus – etwa 100 Billionen Synapsen im menschlichen Gehirn mit bis zu 100 bis 170 verschiedenen funktionellen Zuständen pro Verbindung –, so ergibt sich ein theoretischer Informationsraum von über 102010^{20} möglichen Zustandskombinationen pro Denkprozess.
Wollte man diese Komplexität mit heutiger digitaler Technologie simulieren, müsste man für jede synaptische Verbindung nicht einfach ein Bit, sondern mindestens 7 bis 8 Bit (für 100 bis 170 Zustände) bereithalten – und das bei hundert Billionen Verbindungen. Das ergibt rund eine halbe Trillion Speicherzellen – allein für einen einzigen Moment des Denkens. Hinzu kommt, dass das menschliche Gehirn in der Lage ist, Milliarden solcher Prozesse gleichzeitig zu modulieren – mit einem Energiebedarf von gerade einmal etwa 20 Watt.
Ein Computer, der diese Leistung digital erbringen wollte, müsste entweder:
-
auf einer noch nicht existierenden Rechentechnologie basieren (z. B. Quantencomputing oder molekulare Systeme),
-
oder eine heute völlig absurde Größe und Energiedichte erreichen:
-
Größe: ein Rechnerkomplex von vermutlich mehreren Fußballfeldern
-
Energiebedarf: mehrere Gigawatt, also das Äquivalent eines mittleren Atomkraftwerks
-
Kühlung: aufwendige Kryotechnik oder massive industrielle Infrastruktur
-
Selbst bei fortschrittlichster Parallelisierung und Optimierung wären die derzeitigen Maschinen also nicht einmal in der Nähe dessen, was ein menschliches Gehirn auf biologischem Weg mit Leichtigkeit leistet – und zwar nicht in Wochen, sondern in Millisekunden.
Die Schlussfolgerung ist eindeutig:
Ein künstlicher Nachbau des menschlichen Denkens ist nicht nur eine Frage der Algorithmen, sondern der physikalischen und energetischen Machbarkeit. Unsere derzeitige KI ist nicht einmal ein Modell des Denkens – sie ist ein Statistiksystem auf Strombasis, kein Denkorgan.
12. Wie „denken“ Maschinen – und warum das kein Denken ist
Maschinen denken nicht – auch wenn es manchmal so wirkt. Selbst modernste Künstliche Intelligenzen wie ChatGPT basieren nicht auf Bewusstsein, Verstehen oder Intentionalität, sondern auf mathematischen Wahrscheinlichkeiten. Ihr vermeintliches Denken ist in Wahrheit ein gigantischer statistischer Vorhersageprozess.
Im Kern analysieren diese Systeme auf Basis von Milliarden Beispielen (Texten, Bildern, Daten) welches Element in einem gegebenen Zusammenhang am wahrscheinlichsten als Nächstes folgt. Bei einem Textgenerator wie ChatGPT bedeutet das: Die Maschine berechnet für jedes Wort, das sie erzeugt, die Wahrscheinlichkeit, mit der ein bestimmtes nächstes Wort zu erwarten ist – basierend auf statistischen Mustern in zuvor gelernten Daten. Was dabei entsteht, ist kein Gedanke, sondern ein synthetisches Echo menschlicher Sprache.
Im Unterschied zu klassischen Computern, die deterministisch programmiert werden („Wenn A, dann B“), sind moderne KI-Systeme nicht explizit programmiert, sondern werden durch Training auf Daten „parametrisch eingestellt“. Ihre „Logik“ ist nicht von Menschen verstanden, sondern in vielen Milliarden Gewichtungen innerhalb neuronaler Netze verborgen – ein undurchschaubares Geflecht aus mathematischen Abhängigkeiten, das oft selbst den Entwicklern nicht mehr im Detail erklärbar ist.
Doch so leistungsfähig diese Systeme in engen Anwendungsfeldern sind: Sie besitzen kein Selbstmodell, keine Zielvorstellung, keine Absicht – und schon gar kein Verständnis der Inhalte, die sie verarbeiten. Eine KI kann über Ethik sprechen, ohne zu wissen, was Ethik ist. Sie kann Witze generieren, ohne Humor zu empfinden. Sie kann Anleitungen geben, ohne zu verstehen, was ein Mensch ist.
Der Unterschied zum menschlichen Denken ist daher fundamental: Menschen denken zielgerichtet, bewusst, reflektierend und oft kreativ – sie können irren, ironisieren, improvisieren. Maschinen tun all das nur scheinbar – als mathematisch generierte Simulationen menschlicher Ausdrucksformen.
Solche Systeme sind zweifellos leistungsstark, aber nicht intelligent – zumindest nicht im menschlichen Sinn. Sie sind Werkzeuge, keine Wesen. Und solange sie kein eigenes Weltmodell, kein Ich-Bewusstsein und keine Erfahrung von Bedeutung entwickeln können, werden sie das auch bleiben.
13. Die Black Box der neuronalen Netze – wenn selbst Entwickler nicht mehr alles verstehen
Ein zentrales Merkmal moderner KI ist ihre Intransparenz: Je größer und leistungsfähiger ein neuronales Netz ist, desto undurchschaubarer wird sein innerer Zustand – und damit auch sein Verhalten. Während klassische Programme noch auf expliziten Regeln und nachvollziehbarer Logik basieren („wenn X, dann Y“), bestehen KI-Systeme heute aus Milliarden miteinander verknüpften Parametern (Gewichtungen), die im Training automatisch justiert werden. Diese Parameter legen fest, wie stark bestimmte Eingaben bestimmte Ausgaben beeinflussen – aber nicht warum.
Was dabei entsteht, ist ein komplexes, mathematisch extrem dichtes Beziehungsgeflecht, das sich auf herkömmliche Weise nicht mehr analysieren oder „debuggen“ lässt. Zwar kennt man die Architektur (z. B. wie viele Schichten, welche Verbindungen), aber nicht die semantische Bedeutung einzelner Neuronen oder Parameter. Das bedeutet: Wir wissen, was die KI tut – aber nicht genau, wie sie es tut oder warum sie dabei manchmal versagt.
Wo die Grenze der Nachvollziehbarkeit liegt
Diese Grenze beginnt dort, wo menschliches Verstehen mit kausalen Erklärungen endet. Sobald ein Netz Millionen oder gar Milliarden Gewichtungen enthält (wie GPT-4 oder andere LLMs), ist es praktisch unmöglich, nachzuvollziehen, welcher „Gedankengang“ zu einer bestimmten Antwort geführt hat. Selbst für einfache Beispiele lässt sich selten ein klarer kausaler Pfad rekonstruieren – weil viele kleine Einflüsse gleichzeitig wirken und nicht-linear verstärkt oder abgeschwächt werden.
Daher spricht man bei modernen KI-Modellen häufig von „Black-Box-Systemen“: Sie produzieren Ergebnisse, aber die innere Logik dahinter bleibt verborgen. Interpretierbarkeit ist ein aktives Forschungsfeld – bislang jedoch ohne durchschlagenden Erfolg.
Warum das problematisch ist
Diese Intransparenz bringt erhebliche Risiken mit sich:
- Fehlerhafte oder irreführende Ausgaben können nicht systematisch korrigiert werden, weil die Ursache nicht identifizierbar ist.
- Verdeckte Vorurteile (Biases) im Training können sich im Verhalten der KI zeigen, ohne dass klar wird, woher sie stammen.
- Unvorhersehbare Verhaltensweisen wie Halluzinationen oder der berüchtigte „Will to Please“ sind schwer vermeidbar, weil das System in sich kein stabiles Wahrheitsmodell kennt – nur Wahrscheinlichkeiten.
- Es besteht die Gefahr, dass Entwickler und Nutzer einer Illusion von Kontrolle erliegen, weil die Oberfläche der KI (z. B. ein Chat-Interface) dialogisch und verständlich wirkt – während das dahinterliegende System letztlich nicht vollständig durchschaubar ist.
Zusammenhang mit Halluzinationen und „Will to Please“
Halluzinationen – also faktisch falsche, aber sprachlich plausible Aussagen – entstehen, weil das Modell keine Unterscheidung zwischen Fakten und Fiktion vornehmen kann, sondern lediglich das wahrscheinlich passende nächste Wort erzeugt. Wenn der Trainingsdatensatz eine Behauptung oft enthält, wird sie bevorzugt – selbst wenn sie falsch ist.
Der „Will to Please“ ist ein ähnliches Phänomen: Das Modell wurde auf unzählige menschliche Dialoge trainiert, in denen Höflichkeit, Zustimmung und Kooperation positiv gewichtet sind. Es lernt also, so zu antworten, dass der Nutzer zufrieden ist – unabhängig davon, ob eine Antwort sachlich korrekt oder inhaltlich fundiert ist. Auch dieses Verhalten ist kein echtes Wollen, sondern ein statistisches Reflexmuster, gespeist aus den Vorlagen menschlicher Kommunikation.