Künstliche Intelligenz Teil 2 Was ist und was kann KI nicht?

Was Künstliche Intelligenz nicht ist
und was wir über echte Intelligenz wirklich wissen

13.05.2025 • mikenoby •

Ein grundlegender Artikel über Intelligenz, Denkprozesse, Bewusstsein und die Grenzen maschineller Simulation.

1. Intelligenz – ein Begriff mit vielen Gesichtern

„Intelligenz“ – kaum ein Begriff wird so häufig verwendet und so selten hinterfragt. In Werbung, Politik, Unternehmenskommunikation und Alltagssprache steht Intelligenz für nahezu alles: von analytischer Brillanz über soziale Sensibilität bis hin zu technischer Leistungsfähigkeit.

Doch was genau ist Intelligenz eigentlich?
Und noch wichtiger: Was unterscheidet menschliche Intelligenz von der sogenannten „Künstlichen“ Intelligenz?

Bevor wir über Maschinen nachdenken, sollten wir erst einmal klären, worüber wir beim Denken überhaupt sprechen.

2. Wie denken Lebewesen?

Leben – das bedeutet Reizaufnahme, Reaktion, Lernen und Anpassung. Doch „Denken“ beginnt dort, wo bloße Reaktion durch Verarbeitung ersetzt wird.

Bei Tieren ist dies in unterschiedlichsten Formen nachgewiesen: Krähen benutzen Werkzeuge, Oktopusse lösen Labyrinthe, Elefanten zeigen Trauer.
Diese Beispiele zeigen: Denken ist keine exklusive Fähigkeit des Menschen. Doch es gibt Unterschiede – qualitative und strukturelle.

Tierisches Denken:

  • ist oft situationsgebunden und erfahrungsbasiert
  • nutzt vor allem Sensorik und Instinkt
  • ist pragmatisch und auf direktes Überleben ausgerichtet
  • kann hochkomplexe Handlungen umfassen, ohne Sprache oder Symbolverständnis

Menschliches Denken:

  • ist abstrakt, vorausschauend und reflexiv
  • beruht auf Sprache, Bedeutung und Selbstbewusstsein
  • erlaubt Zeitreisen im Kopf: Rückblick, Planung, Fiktion
  • ist zutiefst sozial – wir denken in Beziehungen und Normen

Der Mensch denkt also nicht nur, um zu überleben, sondern auch, was das Überleben bedeutet.

Er fragt nach dem Warum, nicht nur nach dem Wie. Und das macht den entscheidenden Unterschied.

3. Was ist Intelligenz – und wie lässt sie sich definieren?

Die Wissenschaft hat sich jahrzehntelang bemüht, Intelligenz messbar zu machen. Herausgekommen sind verschiedene Modelle:

  • IQ-Tests: messen vor allem logisches und sprachliches Denken
  • Multiple Intelligenzen (Howard Gardner): unterscheiden zwischen sprachlicher, musikalischer, räumlicher, emotionaler u.v.m.
  • Fluide und kristalline Intelligenz: Unterscheidung zwischen Problemlösungsfähigkeit und angeeignetem Wissen

Aber: All diese Modelle sind theoretische Konstruktionen. Sie helfen, bestimmte Aspekte zu beschreiben – sie erklären aber nicht das Wesen des Denkens.

Was fehlt, ist eine einheitliche, naturwissenschaftlich belastbare Definition.
Denn Intelligenz ist kein einzelner Mechanismus. Sie ist ein System aus Wahrnehmung, Bewertung, Zielorientierung, Erfahrung und Lernen, oft verbunden mit Emotionen, Intuition und sozialer Einbettung.

Das macht Intelligenz so schwer fassbar – und so menschlich.

4. Wie gut verstehen wir das menschliche Denken?

Die Fortschritte der Neurowissenschaften haben uns in den letzten Jahrzehnten atemberaubende Einblicke in die Struktur des Gehirns ermöglicht.
Wir kennen heute Tausende Details zu Neuronen, Synapsen, Transmittern und Netzwerken.

Doch: Das Verstehen ist nicht gleichzusetzen mit dem Begreifen.

Wir können messen, wo im Gehirn etwas passiert – aber nicht, warum dort plötzlich eine Idee entsteht.
Wir wissen, dass das Gehirn plastisch ist, dass es sich verändert, dass es lernt – aber wie Bewusstsein entsteht, ist weiterhin ungeklärt.

Selbst fundamentale Fragen wie:

  • Was ist ein Gedanke?
  • Was genau geschieht beim Erinnern?
  • Wie entsteht ein subjektives Gefühl?

sind nach wie vor ohne abschließende Antwort.

Die Hirnforschung liefert uns faszinierende Modelle, aber viele dieser Modelle beruhen auf Annahmen, Analogien und vereinfachten Darstellungen.
Das bedeutet: Ein großer Teil unseres heutigen Verständnisses über das Denken basiert auf Theorien, nicht auf gesicherten Fakten.

5. Was kann Künstliche Intelligenz – und was nicht?

Der Begriff „Künstliche Intelligenz“ (KI) suggeriert, dass Maschinen intelligent wären – aber das ist irreführend.
Künstliche Intelligenz ist keine Intelligenz im biologischen oder psychologischen Sinn. Es handelt sich vielmehr um eine technologische Methode zur datenbasierten Mustererkennung und Optimierung.

KI – insbesondere maschinelles Lernen – funktioniert durch:

  • Verarbeitung enormer Datenmengen
  • Erkennen von Korrelationen und Regelmäßigkeiten
  • mathematische Gewichtung und Bewertung von Wahrscheinlichkeiten
  • algorithmisches Reagieren auf neue Eingaben

Dabei entstehen beeindruckende Ergebnisse:

  • Bilderkennung
  • Sprachverarbeitung
  • Prognosemodelle
  • Simulation von Dialogen

Aber all das geschieht ohne jedes Verständnis.
Ein Sprachmodell wie ChatGPT berechnet, welches Wort statistisch am wahrscheinlichsten folgt – es hat kein Konzept davon, was es schreibt.

Künstliche Intelligenz:

  • weiß nicht, was ein Wort bedeutet
  • versteht nicht, was ein Fehler ist
  • fühlt nicht, ob eine Aussage ethisch ist
  • hat keine Absicht, kein Ziel, kein Selbst

Sie „tut“, was sie programmiert wurde zu tun – ohne Motivation, Kontext oder Bewusstsein.

6. Der fundamentale Unterschied: Innenleben

Was ist also der zentrale Unterschied zwischen echter und künstlicher Intelligenz?

Es ist das Innenleben.
Das Erleben. Die Subjektivität. Die Bedeutung.

Ein Mensch denkt nicht nur über Daten nach – er denkt über sich, über andere, über das Leben.
Er kann empfinden, zweifeln, träumen, bereuen.

Ein Mensch kann lügen – nicht, weil er programmiert wurde, sondern weil er ein Motiv hat.
Ein Mensch kann handeln gegen seine Interessen – aus Moral, Liebe oder Trotz.

Maschinen hingegen:

  • haben keine Geschichte
  • erleben keine Welt
  • sind ohne Ich, ohne Anderes, ohne Zeitgefühl

Eine KI kann Dir sagen, was Empathie ist – sie kann Dir aber keine Empathie entgegenbringen.

7. Warum diese Unterscheidung entscheidend ist

In einer Welt, in der KIs zunehmend Aufgaben übernehmen, wird es immer wichtiger, die Grenzen dieser Technologie zu verstehen.

Nicht, um sie abzuwerten – sondern um sie angemessen einzusetzen.

Wenn wir glauben, KI könne menschliches Denken ersetzen, laufen wir Gefahr:

  • echte Verantwortung zu delegieren
  • zwischenmenschliche Kommunikation zu entwerten
  • unsere Vorstellung von Bildung, Urteilskraft und Kreativität zu verflachen

Denn wenn alles nur noch „Effizienz“ ist, bleibt keine Luft mehr für Sinn.

Künstliche Intelligenz kann Werkzeuge bauen – aber sie weiß nicht, wofür.
Sie kann Texte schreiben – aber nicht entscheiden, ob sie richtig oder wichtig sind.
Sie kann Empfehlungen geben – aber keine Verantwortung tragen.

8. Verwechseln wir nicht Nachahmung mit Verständnis

Künstliche Intelligenz ist ein technisches Meisterwerk.
Aber sie ist keine denkende Entität, sondern ein Spiegel menschlicher Ausdrucksformen – auf Basis von Daten, Wahrscheinlichkeiten und Trainingsmechanismen.

Echte Intelligenz ist mehr als das.
Sie ist untrennbar mit Bewusstsein, Erfahrung, Subjektivität und Verantwortung verbunden.

Wenn wir in der Diskussion über KI den Menschen vergessen, verlieren wir nicht nur die Kontrolle über die Technologie –
wir verlieren auch das Verständnis darüber, wer wir selbst eigentlich sind.

9. Wie unterschiedlich Menschen und Maschinen lernen

Ein anschauliches Beispiel für die fundamentalen Unterschiede zwischen menschlichem und maschinellem Lernen bietet die Darstellung menschlicher Hände – insbesondere in Bildern, die von KI generiert wurden.

Das Problem: Zu viele Finger

Künstliche Intelligenzen zur Bildgenerierung – wie DALL·E, Midjourney oder Stable Diffusion – erzeugen häufig Bilder von Menschen mit sechs oder sieben Fingern pro Hand. Oder mit falsch angeordneten Gelenken. Oder mit anatomisch unmöglichen Griffen.

Warum passiert das?

Ganz einfach: Die KI weiß nicht, wie eine Hand aussieht. Sie versteht nicht, was ein Finger ist oder wie viele es geben sollte. Sie generiert Bilder rein statistisch: Pixel für Pixel, auf Basis riesiger Datenmengen, ohne jegliches anatomisches oder semantisches Wissen.
Wenn in ihren Trainingsdaten Bilder enthalten sind, auf denen Hände schlecht abgebildet, verzerrt oder unvollständig sind – und das ist häufig der Fall –, dann kann sie daraus kein konsistentes Konzept einer „richtigen“ Hand ableiten.
Denn: Sie kann nicht zwischen richtig und falsch unterscheiden. Es gibt keinen Vorrang von Wahrheit, keine Korrektur durch Weltwissen, kein Bewusstsein für Plausibilität.


Und wie lernen Kinder, eine Hand zu zeichnen?

Spannenderweise zeichnen auch kleine Kinder oft Hände mit zu vielen oder zu wenigen Fingern.
Aber – und hier liegt der entscheidende Unterschied – dieser Fehler verschwindet mit der Zeit. Und zwar nicht, weil ihnen jemand das richtige Bild „übertrainiert“, sondern weil sie ein inneres Modell entwickeln.

Ein Kind lebt in einem Körper. Es hat Hände. Es benutzt sie täglich. Es sieht seine eigenen und die Hände anderer Menschen tausende Male.
Es greift, tastet, zählt an den Fingern, beobachtet Unterschiede, macht Fehler, bekommt Rückmeldung – und entwickelt ein mentales Schema, in dem die Hand aus fünf Fingern besteht.

Dieses Wissen wird irgendwann robust:

  • Es bleibt bestehen, auch wenn das Kind ein verzerrtes Foto sieht.
  • Es wird nicht überschrieben durch einzelne Ausreißer.
  • Es wird integriert in das Gesamtbild des Körpers.

Man spricht hier von konzeptuellem Lernen, gestützt durch eigene Erfahrung, Körperwahrnehmung, Rückmeldung und Bedeutung.


Maschinen fehlt dieses stabile Weltwissen

Eine KI hat kein Ich, keinen Körper, kein Bewusstsein für Widersprüche. Sie speichert nicht Erkenntnisse, sondern Gewichtungen in neuronalen Netzen.

Und: Sie unterscheidet nicht zwischen einem realistischen Bild und einem surrealen Kunstwerk. Wenn beide in den Trainingsdaten vorkommen, fließen sie mit vergleichbarem Gewicht in die Berechnung ein – sofern sie nicht explizit aussortiert wurden.

Eine KI „lernt“ also rein statistisch: Sie optimiert Wahrscheinlichkeiten auf Basis vergangener Beispiele.
Aber sie lernt nicht begrifflich. Sie bildet keine „Theorie der Hand“. Sie kann nicht sagen: „Eine Hand hat fünf Finger – alle Abweichungen davon sind falsch.“
Dafür fehlt ihr das, was man im menschlichen Denken übergreifendes Strukturwissen nennt.


Lernen bedeutet für Menschen mehr als Wiederholen

Beim Menschen wird Lernen durch sehr verschiedene Systeme getragen:

  • durch Körpererfahrung
  • durch soziale Rückmeldung
  • durch Sprache und Begriffsbildung
  • durch Erinnerung und Verknüpfung
  • durch die Fähigkeit, zwischen plausibel und absurd zu unterscheiden

Wenn ein Kind einmal verstanden hat, dass eine Hand fünf Finger hat, wird es dieses Wissen aktiv auf neue Situationen anwenden. Es wird vielleicht sagen: „Das Bild sieht komisch aus – der hat sechs Finger!“
Diese Fähigkeit zur Korrektur, zur Überprüfung anhand eines stabilen Weltmodells, ist ein zentrales Merkmal menschlicher Intelligenz.


Fazit: Maschinen lernen Korrelation – Menschen lernen Bedeutung

Die Unterschiede zwischen menschlichem und maschinellem Lernen lassen sich am Hand-Beispiel exemplarisch aufzeigen:

Merkmal Mensch KI
Lernquelle Körper, Wahrnehmung, Interaktion, Sprache Trainingsdaten
Lernmechanismus Bedeutung, Kontext, Erfahrung, Rückmeldung Mustererkennung, Wahrscheinlichkeiten
Fehlertoleranz erkennt Widersprüche, korrigiert sich übernimmt Fehler aus Daten unkritisch
Stabilität des Wissens hoch – begründet durch Weltverständnis fragil – abhängig von Trainingsverteilung
Bewusstsein für Wahrheit vorhanden nicht vorhanden

10. Die gewaltige Kluft – warum maschinelles Denken dem menschlichen Denken nicht annähernd entspricht

So beeindruckend Künstliche Intelligenz im Alltag erscheinen mag – die strukturellen und funktionalen Unterschiede zum menschlichen Denken sind gigantisch, sowohl quantitativ als auch qualitativ.

Oft wird der Vergleich gezogen, das menschliche Gehirn nutze nur einen kleinen Teil seiner Kapazität – etwa 10 bis 15 Prozent. Diese Annahme wird heute von vielen Neurowissenschaftlern infrage gestellt, meist mit Verweis darauf, dass nahezu alle Hirnregionen aktiv seien und sich funktionell beteiligt zeigen.
Doch dieser Widerspruch übersieht den eigentlichen Punkt:
Nicht die räumliche Auslastung, sondern die funktionelle Gesamtkapazität ist gemeint – also das, was unser Gehirn potenziell leisten könnte, wenn man seine theoretische Differenzierungsfähigkeit vollständig ausschöpfen wollte.

Hier liefern jüngere neurobiologische Studien hochinteressante Erkenntnisse:
Während digitale Systeme Informationen in binärer Logik verarbeiten – also über klar unterscheidbare Zustände wie 0 und 1 –, arbeiten biologische Neuronen nicht bloß „an“ oder „aus“. Vielmehr hängt ihre Aktivität von einer Vielzahl biochemischer und struktureller Faktoren ab:

  • der Konzentration bestimmter Neurotransmitter,
  • der Empfindlichkeit von Rezeptoren,
  • dem zeitlichen Muster der Erregung,
  • der Plastizität der Synapsen,
  • und der variablen Modulation durch Hormone und Umwelteinflüsse.

Neueste Studien gehen davon aus, dass eine einzige Verbindung zwischen zwei Nervenzellen (eine Synapse) bis zu 170 differenzierbare funktionelle Zustände einnehmen kann.
Das bedeutet: Der Informationsgehalt des Gehirns liegt nicht in der Anzahl der Neuronen allein (geschätzt etwa 86 Milliarden), sondern in der schier unvorstellbaren Zahl ihrer Verbindungen und deren feinstufig differenzierten Zuständen.

Selbst eine konservative Rechnung ergibt:

  • bei rund 100 Billionen Synapsen im menschlichen Gehirn
  • mit nur 100 möglichen Zuständen pro Verbindung
    würde man bereits eine Kombinationskomplexität erreichen, die jeden bekannten Supercomputer um Lichtjahre übertrifft – sowohl in Rechenleistung als auch in Energieeffizienz und Parallelverarbeitung.

Das bedeutet konkret:
Ein KI-System, das die Struktur, Plastizität und chemische Tiefe des menschlichen Denkens auch nur annähernd nachbilden wollte, müsste nicht nur astronomische Mengen an Speicher und Energie aufwenden – es müsste auch ein völlig neues Rechenparadigma verwenden, das über digitale Logik hinausgeht.

Denn maschinelle Rechenleistung ist sequenziell und logisch-linear – menschliches Denken hingegen ist kontextuell, chemisch, nichtlinear und selbstmodulierend.


11. Wie groß müsste eine Maschine sein, die wirklich denkt?

Geht man von den genannten Annahmen aus – etwa 100 Billionen Synapsen im menschlichen Gehirn mit bis zu 100 bis 170 verschiedenen funktionellen Zuständen pro Verbindung –, so ergibt sich ein theoretischer Informationsraum von über 102010^{20} möglichen Zustandskombinationen pro Denkprozess.

Wollte man diese Komplexität mit heutiger digitaler Technologie simulieren, müsste man für jede synaptische Verbindung nicht einfach ein Bit, sondern mindestens 7 bis 8 Bit (für 100 bis 170 Zustände) bereithalten – und das bei hundert Billionen Verbindungen. Das ergibt rund eine halbe Trillion Speicherzellenallein für einen einzigen Moment des Denkens. Hinzu kommt, dass das menschliche Gehirn in der Lage ist, Milliarden solcher Prozesse gleichzeitig zu modulieren – mit einem Energiebedarf von gerade einmal etwa 20 Watt.

Ein Computer, der diese Leistung digital erbringen wollte, müsste entweder:

  • auf einer noch nicht existierenden Rechentechnologie basieren (z. B. Quantencomputing oder molekulare Systeme),

  • oder eine heute völlig absurde Größe und Energiedichte erreichen:

    • Größe: ein Rechnerkomplex von vermutlich mehreren Fußballfeldern

    • Energiebedarf: mehrere Gigawatt, also das Äquivalent eines mittleren Atomkraftwerks

    • Kühlung: aufwendige Kryotechnik oder massive industrielle Infrastruktur

Selbst bei fortschrittlichster Parallelisierung und Optimierung wären die derzeitigen Maschinen also nicht einmal in der Nähe dessen, was ein menschliches Gehirn auf biologischem Weg mit Leichtigkeit leistet – und zwar nicht in Wochen, sondern in Millisekunden.

Die Schlussfolgerung ist eindeutig:
Ein künstlicher Nachbau des menschlichen Denkens ist nicht nur eine Frage der Algorithmen, sondern der physikalischen und energetischen Machbarkeit. Unsere derzeitige KI ist nicht einmal ein Modell des Denkens – sie ist ein Statistiksystem auf Strombasis, kein Denkorgan.


12. Wie „denken“ Maschinen – und warum das kein Denken ist

Maschinen denken nicht – auch wenn es manchmal so wirkt. Selbst modernste Künstliche Intelligenzen wie ChatGPT basieren nicht auf Bewusstsein, Verstehen oder Intentionalität, sondern auf mathematischen Wahrscheinlichkeiten. Ihr vermeintliches Denken ist in Wahrheit ein gigantischer statistischer Vorhersageprozess.

Im Kern analysieren diese Systeme auf Basis von Milliarden Beispielen (Texten, Bildern, Daten) welches Element in einem gegebenen Zusammenhang am wahrscheinlichsten als Nächstes folgt. Bei einem Textgenerator wie ChatGPT bedeutet das: Die Maschine berechnet für jedes Wort, das sie erzeugt, die Wahrscheinlichkeit, mit der ein bestimmtes nächstes Wort zu erwarten ist – basierend auf statistischen Mustern in zuvor gelernten Daten. Was dabei entsteht, ist kein Gedanke, sondern ein synthetisches Echo menschlicher Sprache.

Im Unterschied zu klassischen Computern, die deterministisch programmiert werden („Wenn A, dann B“), sind moderne KI-Systeme nicht explizit programmiert, sondern werden durch Training auf Daten „parametrisch eingestellt“. Ihre „Logik“ ist nicht von Menschen verstanden, sondern in vielen Milliarden Gewichtungen innerhalb neuronaler Netze verborgen – ein undurchschaubares Geflecht aus mathematischen Abhängigkeiten, das oft selbst den Entwicklern nicht mehr im Detail erklärbar ist.

Doch so leistungsfähig diese Systeme in engen Anwendungsfeldern sind: Sie besitzen kein Selbstmodell, keine Zielvorstellung, keine Absicht – und schon gar kein Verständnis der Inhalte, die sie verarbeiten. Eine KI kann über Ethik sprechen, ohne zu wissen, was Ethik ist. Sie kann Witze generieren, ohne Humor zu empfinden. Sie kann Anleitungen geben, ohne zu verstehen, was ein Mensch ist.

Der Unterschied zum menschlichen Denken ist daher fundamental: Menschen denken zielgerichtet, bewusst, reflektierend und oft kreativ – sie können irren, ironisieren, improvisieren. Maschinen tun all das nur scheinbar – als mathematisch generierte Simulationen menschlicher Ausdrucksformen.

Solche Systeme sind zweifellos leistungsstark, aber nicht intelligent – zumindest nicht im menschlichen Sinn. Sie sind Werkzeuge, keine Wesen. Und solange sie kein eigenes Weltmodell, kein Ich-Bewusstsein und keine Erfahrung von Bedeutung entwickeln können, werden sie das auch bleiben.


13. Die Black Box der neuronalen Netze – wenn selbst Entwickler nicht mehr alles verstehen

Ein zentrales Merkmal moderner KI ist ihre Intransparenz: Je größer und leistungsfähiger ein neuronales Netz ist, desto undurchschaubarer wird sein innerer Zustand – und damit auch sein Verhalten. Während klassische Programme noch auf expliziten Regeln und nachvollziehbarer Logik basieren („wenn X, dann Y“), bestehen KI-Systeme heute aus Milliarden miteinander verknüpften Parametern (Gewichtungen), die im Training automatisch justiert werden. Diese Parameter legen fest, wie stark bestimmte Eingaben bestimmte Ausgaben beeinflussen – aber nicht warum.

Was dabei entsteht, ist ein komplexes, mathematisch extrem dichtes Beziehungsgeflecht, das sich auf herkömmliche Weise nicht mehr analysieren oder „debuggen“ lässt. Zwar kennt man die Architektur (z. B. wie viele Schichten, welche Verbindungen), aber nicht die semantische Bedeutung einzelner Neuronen oder Parameter. Das bedeutet: Wir wissen, was die KI tut – aber nicht genau, wie sie es tut oder warum sie dabei manchmal versagt.

Wo die Grenze der Nachvollziehbarkeit liegt

Diese Grenze beginnt dort, wo menschliches Verstehen mit kausalen Erklärungen endet. Sobald ein Netz Millionen oder gar Milliarden Gewichtungen enthält (wie GPT-4 oder andere LLMs), ist es praktisch unmöglich, nachzuvollziehen, welcher „Gedankengang“ zu einer bestimmten Antwort geführt hat. Selbst für einfache Beispiele lässt sich selten ein klarer kausaler Pfad rekonstruieren – weil viele kleine Einflüsse gleichzeitig wirken und nicht-linear verstärkt oder abgeschwächt werden.

Daher spricht man bei modernen KI-Modellen häufig von „Black-Box-Systemen“: Sie produzieren Ergebnisse, aber die innere Logik dahinter bleibt verborgen. Interpretierbarkeit ist ein aktives Forschungsfeld – bislang jedoch ohne durchschlagenden Erfolg.

Warum das problematisch ist

Diese Intransparenz bringt erhebliche Risiken mit sich:

  • Fehlerhafte oder irreführende Ausgaben können nicht systematisch korrigiert werden, weil die Ursache nicht identifizierbar ist.
  • Verdeckte Vorurteile (Biases) im Training können sich im Verhalten der KI zeigen, ohne dass klar wird, woher sie stammen.
  • Unvorhersehbare Verhaltensweisen wie Halluzinationen oder der berüchtigte „Will to Please“ sind schwer vermeidbar, weil das System in sich kein stabiles Wahrheitsmodell kennt – nur Wahrscheinlichkeiten.
  • Es besteht die Gefahr, dass Entwickler und Nutzer einer Illusion von Kontrolle erliegen, weil die Oberfläche der KI (z. B. ein Chat-Interface) dialogisch und verständlich wirkt – während das dahinterliegende System letztlich nicht vollständig durchschaubar ist.

Zusammenhang mit Halluzinationen und „Will to Please“

Halluzinationen – also faktisch falsche, aber sprachlich plausible Aussagen – entstehen, weil das Modell keine Unterscheidung zwischen Fakten und Fiktion vornehmen kann, sondern lediglich das wahrscheinlich passende nächste Wort erzeugt. Wenn der Trainingsdatensatz eine Behauptung oft enthält, wird sie bevorzugt – selbst wenn sie falsch ist.

Der „Will to Please“ ist ein ähnliches Phänomen: Das Modell wurde auf unzählige menschliche Dialoge trainiert, in denen Höflichkeit, Zustimmung und Kooperation positiv gewichtet sind. Es lernt also, so zu antworten, dass der Nutzer zufrieden ist – unabhängig davon, ob eine Antwort sachlich korrekt oder inhaltlich fundiert ist. Auch dieses Verhalten ist kein echtes Wollen, sondern ein statistisches Reflexmuster, gespeist aus den Vorlagen menschlicher Kommunikation.


Empfehlung für den Umgang mit KI-Systemen:
Was wir erwarten dürfen – und was nicht

1. Erkenne die Natur des Werkzeugs

Künstliche Intelligenz ist kein denkendes Wesen, sondern ein statistisch optimiertes Rechenmodell.
Sie kann Aufgaben ausführen, Muster erkennen, Sprache simulieren – aber sie versteht nichts, fühlt nichts, wünscht nichts.

Angemessene Erwartung:

  • Automatisierung, Effizienzsteigerung, Assistenz in klar umrissenen Anwendungsfeldern
  • Unterstützung bei Analyse, Strukturierung und Inspiration
  • Simulation menschlicher Kommunikation, nicht ihre Substitution

Unangemessen:

  • Echte Kreativität oder Urteilskraft
  • Moralisches Empfinden, Verantwortungsübernahme
  • Emotionale Empathie oder echtes Mitdenken

2. Behalte die menschliche Kontrolle

KI-Systeme treffen keine „Entscheidungen“ im rechtlichen oder moralischen Sinn – sie berechnen Wahrscheinlichkeiten.
Wer ihnen Autorität überträgt, ohne selbst zu prüfen, gibt Verantwortung ab, ohne Verantwortung zu schaffen.

Was zu vermeiden ist:

  • Blindes Vertrauen in KI-Ausgaben (z. B. bei medizinischen Diagnosen, Urteilen, Empfehlungen)
  • Automatisierte Prozesse ohne menschliche Letztkontrolle
  • Übertragung von Verantwortung auf „die Technik“

3. Trenne Form von Bedeutung

KI kann sprachlich perfekt formulieren, ohne dass sie die Bedeutung versteht.
Das verleitet dazu, ihr Inhalte zuzuschreiben, die sie weder gemeint noch begriffen hat.

Was man sich klarmachen sollte:

  • Eine flüssige Antwort ist kein Beweis für Verstehen
  • Eine logische Struktur ist kein Garant für Wahrheit
  • Ein empathischer Ton ist nicht gleich echte Anteilnahme

4. Nutze KI als Spiegel – nicht als Vorbild

KIs zeigen uns, wie Sprache funktioniert, wie Vorurteile in Daten stecken, wie unsere Informationskultur gebaut ist.
Sie können helfen, Prozesse zu verbessern, Denkweisen zu durchleuchten, Ideen zu generieren.

Aber: Sie sind kein Maßstab für Denken oder Menschsein.
Wer sich an Maschinen misst, verliert den Maßstab für Menschlichkeit.


Was grundsätzlich vermieden werden sollte

Fehlverhalten Risiko
Vermenschlichung („sie versteht mich“) Täuschung über Funktion und Grenzen
Delegation ohne Aufsicht („die KI macht das“) Verantwortungslosigkeit
Abhängigkeit von KI-Inhalten Verlust eigener Urteilskraft
Einsatz ohne ethischen Rahmen gesellschaftliche Fehlentwicklung
Gleichsetzung von Intelligenz mit Rechenleistung Verflachung des Menschenbildes

Zusammenfassende Leitsätze für den Alltag

  1. Nutze KI als Werkzeug – nicht als Autorität.

  2. Bleibe kritisch – auch (und gerade), wenn sie überzeugt.

  3. Entkopple Ausdrucksstärke von Wahrhaftigkeit.

  4. Stärke Deine eigene Urteilskraft – nicht Deine Abhängigkeit.

  5. Erinnere Dich: Maschinen rechnen, Menschen denken.


Dieser Blog-Beitrag bei LinkedIN