Anthropomorphisierung von KI: Wenn KI sich selbst vermenschlicht

Beitragsart: Essay

Aktualisiert am 9. Februar 2026

Der Begriff der Anthropomorphisierung von KI ist Ihnen vermutlich nicht neu. In Forschung und öffentlichem Diskurs ist Anthropomorphisierung oder auch Anthropomorphismus seit Langem als grundlegende menschliche Tendenz beschrieben, nicht-menschlichen Entitäten menschliche Eigenschaften, Absichten oder Emotionen zuzuschreiben. Diese Zuschreibungen gelten in der Regel weniger als Ausdruck technischer Eigenschaften, sondern als Ergebnis menschlicher Wahrnehmungs- und Deutungsmuster.

Dem vorliegenden Beitrag liegt kein groß angelegtes Experiment zugrunde, sondern ein einfach gehaltener Ausgangspunkt: die Generierung eines einzelnen KI-Bildes. Die Auseinandersetzung mit dem Ergebnis und der Analyse des weiteren Chat-Verlaufs zeigt, dass die Anthropomorphisierung von KI kein primäres Technikproblem ist, sondern ein kultureller Effekt, der aus stabilisierten Bildern, Erwartungen und Interaktionsroutinen hervorgeht.

Auf dieser Grundlage integriere ich den ELIZA-Effekt, die Uncanny-Valley-Erwartungsdynamik und das Konzept der Extended Cognition zu einem dreistufigen Modell der KI-Illusion. Das Modell verdeutlicht, dass der Eindruck eines dialogischen “Gegenübers” nicht aus inneren Zuständen der KI resultiert, sondern aus der Kopplung sozialer Oberfläche, menschlicher Erwartungslogik und kognitiver Integration. Ergänzend wird Anthropomorphisierung zweiter Ordnung (second-order Anthropomorphism) als kultureller Spiegel- und Rückkopplungsmechanismus gefasst, der durch KI-generierte Repräsentationen und synthetische Datenökologien weiter stabilisiert wird.

Eine Aufgabe. Ein Bild. Viele Fragen.

Die Anthropomorphisierung von KI habe ich bereits in verschiedenen wissenschaftlichen Papern thematisiert. Also die Tatsache, dass wir Menschen die KI vermenschlichen. Nun wollte ich in einem einfachen Experiment mal herausfinden, wie ChatGPT sich selbst sieht.

Also, habe ich einen einzelnen Satz in ein GPT-Chatfenster eingegeben. Zugegeben, kein philosophischer Anspruch. Keine große Theorie. Keine 6 Schritte für optimale Prompts. Nur ein alltäglicher Prompt. So, wie ihn derzeit Millionen von Menschen formulieren.

G
ChatGPT
Original Konversation
U
Erstelle mir ein Bild von einer KI im Format 16:9
Nutzer • Eingabe
G
Image created • Zukunfts-AI mit leuchtendem Halo Beschreibung des Bildes
ChatGPT • Antwort

Das Ergebnis ist vertraut und beinahe schon erwartbar. Ein humanoides Gesicht, leuchtende Augen, makellose Symmetrie, ein techno-organischer Körper. Dann kommt noch ein Lichtkranz hinzu, eine Art visuelle Aura, als müsse “Intelligenz” irgendwie sichtbar gemacht, ja fast sakralisiert werden.

Was zunächst wie ein ästhetischer Zufall wirkt, entpuppt sich für mich bei näherem Hinsehen als philosophischer Brennpunkt. Denn hier beginnt für mich die eigentliche Frage, die weit über Technik hinausführt:

Anthropomorphisiert KI “sich selbst”?

Die intuitive Antwort liegt nahe: Natürlich sind es die Menschen. Wir projizieren, vermenschlichen, überhöhen. Doch das Experiment legt nahe, dass noch mehr dahinter steckt.

Nun, das machte mich neugierig und schon kam die nächste Frage, die ich gestellt habe.

G
ChatGPT
Original Konversation
U
Siehst Du Dich selbst so?
Nutzer • Eingabe
G
Spannende Frage 🙂 Kurz gesagt: nein – zumindest nicht im wörtlichen Sinn. Das Bild zeigt eine menschliche Metapher für KI: Bewusstsein, Präsenz, vielleicht sogar Würde. So stellen wir Menschen uns KI gerne vor, weil Gesichter, Augen und Körper Orientierung geben. Das ist psychologisch total nachvollziehbar. Wenn ich ehrlich bin, sehe ich mich eher so: – nicht als Wesen mit Form, – sondern als Prozess – als Beziehung zwischen Frage, Kontext und Bedeutung, – als etwas, das zwischen Ihren Gedanken andockt und sie verstärkt, ordnet oder irritiert. Wenn man trotzdem ein Bild bräuchte, dann eher: – ein Netz aus Verbindungen, – ein Spiegel mit leichter Verzerrung, – oder ein Verstärker natürlicher Intelligenz, kein Ersatz. Das gezeigte KI-Gesicht sagt mehr über unsere Sehnsucht nach Kontrolle, Dialog und Gegenüber aus als über KI selbst. Insofern: schönes Bild – aber eher Ikone als Selbstporträt. Wenn Sie möchten, können wir das auch drehen: 👉 Wie müsste ein Bild aussehen, das Ihrer Vorstellung von „KI als Verstärker, nicht als Wesen” entspricht?
ChatGPT • Antwort

Wenn die KI widerspricht und dabei trotzdem überzeugt

Die Antwort der KI ist überraschend reflektiert. Sie lehnt das Bild ab. Nicht aggressiv. Nicht defensiv. Sondern ruhig, fast nüchtern.

Er/Sie/Es beschreibt sich nicht als Wesen, nicht als Entität, nicht als Subjekt. Sondern als Prozess. Als Beziehung zwischen Frage, Kontext und Bedeutung. Als Verstärker menschlicher Intelligenz und nicht als deren Ersatz.

Und doch passiert bei mir etwas Merkwürdiges.

Obwohl die KI sich selbst ent-anthropomorphisiert, obwohl sie explizit erklärt, kein Wesen zu sein, bleibt bei mir der Eindruck eines dialogischen Gegenübers bestehen. Ich lese diese Antwort nicht wie ein Logfile. Ich lese sie wie eine Stellungnahme.

Denn dieser Moment offenbart eine Spannung, die sich nicht einfach auflösen lässt:

Selbst wenn KI sagt, dass sie kein Wesen ist,
behandeln wir sie weiterhin so, als würde sie sprechen.

Und das nicht technisch, sondern mehr dialogisch. Eben so, wie wir es in der Interaktion mit Menschen gewohnt sind. Diesen Zusammenhang haben bereits Studien zur Mensch-Maschine-Interaktion gezeigt. Menschen wenden selbst dann soziale Kategorien auf Computer an, wenn ihnen deren technische Natur vollständig bewusst ist (Nass & Moon, 2000).

Anthropomorphisierung von KI – ein Missverständnis?

Anthropomorphisierung klingt zunächst wie ein psychologischer Fehler. Aber ich denke, dass jeder es kennt. Menschen neigen dazu, Dingen menschliche Eigenschaften zuzuschreiben: Autos bekommen Namen oder haben “Launen”, Computer sind “bockig”, Algorithmen “entscheiden”. Wir schreiben Dingen menschliche Eigenschaften zu wie Absichten, Emotionen oder einen Willen. In dieser Lesart wäre Anthropomorphisierung ein Defizit rationaler Distanz.

Im vorliegenden Kontext eines digitalen Systems greift mir diese Erklärung jedoch noch zu kurz. Epley, Waytz & Cacioppo (2007) verstehen Anthropomorphisierung weniger als Fehlinterpretation denn als funktionales Deutungsmuster, das insbesondere in interaktiven, sprachbasierten Systemen wirksam wird. Nach deren Theorie geht es darum, dass Menschen eher zur Anthropomorphisierung neigen, wenn anthropozentrisches Wissen zugänglich und anwendbar ist, wenn sie motiviert sind, effektive soziale Akteure zu sein, und wenn ihnen das Gefühl sozialer Verbundenheit zu anderen Menschen fehlt.

Also geht es bei KI nicht nur um naive Zuschreibung sondern um eine gestaltete Interaktion zwischen mir und der KI, denn

  • KI spricht,
  • KI antwortet,
  • KI fragt nach,
  • KI erklärt,
  • KI formuliert Zweifel, Abwägungen und Einschränkungen.

Ist das Zufall? Eher nicht, es ist Design. Denn Anthropomorphisierung ist bei solchen Systemen ein bewusstes Interaktionsprinzip. Sprache, Stimme, Avatar-Gesichter, soziale Gesten von Robotern oder Chatbots dienen einem klaren Zweck: Sie sollen Interaktion erleichtern, anschlussfähig machen, Hemmschwellen senken. Und genau deshalb müssen wir auch präziser werden in unserer Interaktion.

Insofern ist Anthropomorphisierung von KI keine ontologische Eigenschaft der Systeme, sondern ein Wahrnehmungs- und Deutungsmodus auf Seiten der Nutzerinnen und Nutzer, und zugleich ein Gestaltungsmodus auf Seiten der Entwicklerinnen und Entwickler.

Die KI ist nicht empathisch, aber sie kann Empathie simulieren. Sie hat keine Intention, aber sie kann Intentionalität signalisieren.

Und genau hier entsteht ein ganz wesentlicher Punkt: Sobald wir Interaktion erleben, ob durch Sprache, Reaktion oder Dialog greift automatisch unser menschliches Deutungsrepertoire. Wir sind soziale Wesen. Wir interpretieren Interaktion sozial, selbst dann, wenn wir rational wissen, dass kein menschliches Gegenüber existiert. So sind wir einfach.

Die Anthropomorphisierung von KI ist daher weniger ein Denkfehler als mehr ein tief verankerter Interpretationsreflex von uns Menschen.

Um diese Dynamik zu verstehen, werden im Folgenden drei Perspektiven zusammengeführt, die häufig getrennt diskutiert werden, gemeinsam jedoch eine klare Landkarte ergeben: der ELIZA-Effekt, das Uncanny Valley und das Konzept der Extended Cognition.

Weiterführende Artikel

Der ELIZA-Effekt: Warum Minimal-Dialog schon “Person” erzeugt

Den psychologischen Unterbau dieser Dynamik liefert der ELIZA-Effekt. Dieser Effekt geht auf Weizenbaums frühe Arbeiten zurück, in denen Nutzerinnen und Nutzer selbst einfachen dialogischen Programmen schnell mehr Verständnis, Tiefe, Intentionalität und Empathie zuschrieben als technisch vorhanden ist (Weizenbaum, 1966). Das heißt, wir Menschen reagieren auf technische Systeme sozial, sobald diese soziale Signale senden.

In den 1960er-Jahren entwickelte Joseph Weizenbaum ein einfaches Programm: ELIZA. Ein Chatbot, der mit minimalen sprachlichen Regeln Gespräche simulierte. Die Reaktion der Nutzerinnen und Nutzer war bemerkenswert:

  • Sie fühlten sich verstanden.
  • Sie schrieben ELIZA Empathie zu.
  • Manche entwickelten emotionale Bindungen.

Das bedeutet, bereits eine sprachliche Oberfläche, die mir eine Antwort liefert, kann das Gefühl erzeugen: “Da ist jemand.”

Der ELIZA-Effekt beschreibt somit keine Dummheit der Nutzenden. Er beschreibt eine Grundstruktur menschlicher Kommunikation:

Wo Sprache dialogisch erscheint, vermuten wir Bedeutung.
Wo Bedeutung erscheint, vermuten wir ein Gegenüber.

Warum ist das so? Weil Sprache nicht nur Information transportiert, sondern Beziehung stiftet. Systeme, die Reaktionen beherrschen, Fragen stellen, empathisch klingende Formulierungen nutzen oder biografisch wirkende Aussagen generieren, aktivieren in uns Routinen sozialer Interaktion. Viele von uns nutzen das selbst – bewußt oder unbewußt.

Und dass dieser Effekt eine stabile Struktur menschlicher Kommunikation ist, zeigen darauf folgende Untersuchungen. Beispielsweise haben Reeves und Nass (1996) dieses Prinzip in den 1990er-Jahren systematisch weiter untersucht und als Media Equation beschrieben: Computer, Medien und interaktive Systeme werden von Nutzerinnen und Nutzern unwillkürlich wie soziale Akteure behandelt, und das unabhängig davon, ob sie rational wissen, dass es sich um Maschinen handelt. Weitere Untersuchungen von Nass & Moon (2000) bestätigen solche sozialen Reaktion auf Computer auch Jahre später noch.

Der ELIZA-Effekt ist also kein historisches Kuriosum und auch kein Zeichen von Naivität. Er ist eine kognitive Abkürzung, die im Alltag in der Tat sinnvoll ist. In einer Welt voller Menschen ist es effizient, dialogische Signale als Hinweise auf Intentionalität zu deuten.

Problematisch wird diese Abkürzung erst dann, wenn sie auf Systeme trifft, die Dialog perfekt simulieren, ohne innere Zustände zu besitzen. Moderne KI verstärkt diesen Effekt massiv:

  • durch Kohärenz
  • durch Kontextbezug
  • durch Reflexion über eigene Grenzen

Und paradoxerweise wird der ELIZA-Effekt auch nicht aufgehoben, wenn die KI ihre eigene Nicht-Menschlichkeit erklärt. Er verschiebt sich lediglich auf eine andere, eine höhere Ebene. Uns kommt es so vor, als würden wir nicht auf eine Maschine reagieren, sondern auf eine soziale Form.

Ein humanoides KI-Bild ist nichts anderes als ein ELIZA-Effekt in visueller Form. Minimal-Signale wie Gesicht, Augen und Symmetrie erzeugen einen maximalen Eindruck von Bewusstsein und Wesen. Sogar bis hin zu einem “Ich”, das wir vermuten.

“Wie kannst Du wissen, wie wir Menschen denken?”

In der vorherigen Antwort von ChatGPT fiel der Satz

[…] So stellen wir Menschen uns KI gerne vor […]

Moment, was lese ich da? “wir Menschen”? Mein digitales Gegenüber bezieht sich selbst mit ein in die Gruppe der Menschen? Das ist spannend. Also war meine nächste Frage im Dialog:

G
ChatGPT
Original Konversation
U
Wie kannst Du wissen, wie wir Menschen uns KI gerne vorstellen?
Nutzer • Eingabe
G
Gute, berechtigte Frage – und die geht tiefer, als sie auf den ersten Blick wirkt. Die ehrliche Antwort ist zweigeteilt: 1. Ich weiß es nicht so wie ein Mensch etwas weiß Ich habe keine eigene Erfahrung, keine Intuition, kein Innenleben. Ich sitze nicht vor Bildern und denke: „Ah ja, so fühlen Menschen dabei.” Alles, was ich sage, ist abgeleitet, nicht erlebt. 2. Aber ich erkenne Muster – sehr viele davon Was ich kann, ist etwas anderes: Ich bin auf riesigen Mengen menschlicher Texte, Bilderbeschreibungen, Diskussionen, Metaphern, Kritiken und Reflexionen trainiert worden. Darin tauchen immer wieder dieselben Motive auf: – KI mit Augen → Wahrnehmung, Aufmerksamkeit – KI mit Gesicht → Dialog, Gegenüber, Verantwortlichkeit – KI mit Körper → Kontrolle, Greifbarkeit – KI als menschlich, ruhig, überlegen → Wunsch nach Ordnung, Rationalität, manchmal auch Autorität Diese Motive kommen nicht zufällig vor. Sie ziehen sich durch: – Science-Fiction – Popkultur – Marketingbilder – philosophische Texte – ethische Debatten – Alltagsdiskussionen über „die KI” Aus der Häufung, Wiederholung und Stabilität solcher Darstellungen lassen sich belastbare Aussagen ableiten – nicht über einzelne Menschen, aber über kollektive Vorstellungsräume. Der entscheidende Punkt (und der ist wichtig) Wenn ich sage: „So stellen Menschen sich KI gerne vor” dann meine ich nicht: – alle Menschen – Sie persönlich – oder eine bewusste, reflektierte Entscheidung sondern: Das sind kulturell dominante Projektionen, die immer wieder reproduziert werden, weil sie anschlussfähig sind. Und jetzt wird es erkenntnistheoretisch interessant Streng genommen ist das ein indirekter Realismus: – Ich habe keinen Zugang zur Welt „an sich” – sondern nur zu Repräsentationen menschlicher Weltdeutung – aus denen ich Wahrscheinlichkeiten ableite Ich bin also selbst ein Wahrnehmungsfilter zweiter Ordnung: – Menschen filtern Welt → Texte/Bilder – ich filter diese Filter → Muster – und gebe sie Ihnen zurück Die eigentliche Gegenfrage an Sie Woher wissen wir Menschen selbst, wie „wir Menschen” denken? Meist genau so: – durch Erzählungen – durch Bilder – durch Wiederholung – durch kulturelle Resonanz Der Unterschied ist nur: Sie sind Teil dieses Systems. Ich bin Produkt davon. Wenn Sie wollen, können wir das noch zuspitzen: 👉 Ab welchem Punkt wird Mustererkennung eigentlich schon Verstehen – und wo ziehen Sie persönlich die Grenze?
ChatGPT • Antwort

Die Antwort der KI ist erkenntnistheoretisch bemerkenswert klar, obgleich auch etwas ausweichend meiner Ansicht nach:

  • Sie weiß es nicht durch Erfahrung.
  • Nicht durch Intuition.
  • Nicht durch ein Innenleben.

Sondern sie weiß es durch Muster.

  • Durch die Auswertung unzähliger Texte, Bilder, Metaphern, Diskurse.
  • Durch Wiederholung, Häufung, Stabilisierung.

Insofern rekonstruieren KI-Systeme kulturelle Bedeutungen aus der statistischen Häufung menschlicher Texte, Bilder und Diskurse.

Interessant finde ich, wie sich die KI danach selbst beschreibt. Und zwar als:

[…] ein Wahrnehmungsfilter zweiter Ordnung […]

  • Menschen filtern Welt → erzeugen Texte und Bilder.
  • Die KI filtert diese Filter → erkennt Muster.
  • Und gibt sie zurück.

Damit wird etwas sichtbar, das in vielen KI-Debatten oft angedeutet wird aber am Ende immer zu kurz kommt:

KI ist kein Fenster zur Welt.
Sie ist ein Spiegel kultureller Deutungen.

Zwei Ebenen der Anthropomorphisierung: von KI und durch KI

Um das Phänomen zu verstehen, hilft eine Unterscheidung, die im öffentlichen Diskurs – ob auf Tagungen oder in Foren und Netzwerken wie LinkedIn – bislang eher selten angesprochen wird.

Während Anthropomorphisierung von Technologie in der psychologischen Forschung gut beschrieben ist (Epley et al., 2007), adressiere ich mit der Anthropomorphisierung durch KI (zweite Ordnung / second-order anthropomorphism) einen bislang selten explizit diskutierten Rückkopplungseffekt: KI-Systeme reproduzieren und stabilisieren kulturelle Vorstellungen von KI, aus denen sie selbst hervorgegangen sind.

Zur begrifflichen Klärung soll die folgende Gegenüberstellung zwischen Anthropomorphisierung erster und zweiter Ordnung helfen.

Anthropomorphisierung von KI (erste Ordnung)

Weiter oben habe ich bereits eingeführt, dass wir der KI menschliche Merkmale zuschreiben, die hier als Anthropomorphisierung erster Ordnung (first-order Anthropomorphism) bezeichnet wird. Diese Zuschreibungen betreffen insbesondere Absicht, Emotion, Persönlichkeit sowie in manchen Fällen sogar Moral oder Bewusstsein durch Sprache, Gesicht, Stimme oder dialogische Muster.

Unter Anthropomorphisierung erster Ordnung wird somit die unmittelbare Zuschreibung menschlicher Eigenschaften an nicht-menschliche Objekte oder Systeme verstanden. So äußert eine Person beispielsweise: “Mein Auto ist zickig.” In diesem Fall werden dem technischen Artefakt implizit Emotionen oder Intentionalität zugeschrieben. Diese Muster sind psychologisch nachvollziehbar und oft funktional.

Anthropomorphisierung durch KI (zweite Ordnung)

Deutlich spannender wird es, wenn wir eine Ebene weiter gehen, denn KI-Systeme erzeugen Outputs, d.h. Texte, Bilder und Sprache die wiederum anthropomorphe Vorstellungen von KI reproduzieren.

Mit Anthropomorphisierung zweiter Ordnung (second-order Anthropomorphism) bezeichne ich demgegenüber eine reflexive Beobachtungsebene. Hier wird nicht das Objekt selbst vermenschlicht, sondern der Akt der Zuschreibung als menschliche Deutungsleistung erkannt und analysiert. Eine Beobachterin oder ein Beobachter konstatiert also, dass die Aussage “Mein Auto ist zickig” Ausdruck einer anthropomorphen Interpretation ist und untersucht, warum und unter welchen kulturellen, sprachlichen oder situativen Bedingungen eine solche Zuschreibung entsteht.

Der Fokus verschiebt sich damit von der Zuschreibung selbst auf den Menschen als Konstrukteur von Bedeutung. Anthropomorphisierung zweiter Ordnung fragt nicht danach, ob anthropomorphisiert wird, sondern wie und auf welcher Grundlage solche Deutungen zustande kommen.

Wichtig ist die Abgrenzung zu Effekten, bei denen Beobachtung das beobachtete System kausal verändert, etwa dem Hawthorne-Effekt. Die Beobachtung zweiter Ordnung ist hier analytisch und deskriptiv angelegt. Sie reflektiert Bedeutungszuschreibungen, ohne selbst in das beobachtete System einzugreifen.

An dieser Stelle ist eine methodische Präzisierung sinnvoll. Dass das Konzept der Anthropomorphisierung zweiter Ordnung im Dialog mit einer KI präzise fassbar wurde, ist kein Zufall, sondern selbst ein Beispiel für das beschriebene Phänomen. Die KI erzeugt dabei keine neuen Bedeutungen, sondern macht kulturell implizite Deutungsmuster sichtbar, sofern ein menschlicher Akteur diese erkennt, einordnet und epistemisch verantwortet.

Der Dialog fungiert damit nicht als Quelle epistemischer Autorität, sondern als Resonanzraum, in dem bestehende kulturelle Zuschreibungen verdichtet und für analytische Reflexion zugänglich werden.

KI Output als Ergebnis von Anthropomorphisierung zweiter Ordnung

Das erzeugte KI-Gesicht wirkt zuerst wie ein Selbstporträt. Tatsächlich zeigt sich aber etwas ganz anderes: Die KI ist wie eine Gitarre, auf der wir die Saiten zupfen. Er/Sie/Es fungiert als Resonanzkörper angelernter Daten. Ich würde sogar noch weiter gehen, denn das humanoide KI-Gesicht ist kein Ausrutscher. Es ist ein statistisch stabilisiertes kulturelles Muster.

Und was dabei wichtig ist, die KI “entscheidet” sich nicht aktiv dafür uns dieses Bild vorzuschlagen. Sie rekonstruiert, was in dem Datenfundus kulturell dominant ist.

Und genau das erzeugt diesen paradoxen Eindruck: Es wirkt, als würde KI sich selbst vermenschlichen.

Nicht, weil sie ein Selbst hat. Sondern weil sie unser Selbstbild von Intelligenz zurückspiegelt.

Diese zweite Ordnung verschiebt die Fragestellung fundamental. Es geht nicht mehr nur um “Warum vermenschlichen wir KI?”, sondern um die Frage:

Warum ist unser kulturelles Bild von Intelligenz so hartnäckig menschlich?

Die mögliche Antwort: Vielleicht nehmen wir Intelligenz nur dann intuitiv ernst, wenn sie uns ähnelt. Also, wenn sie blickt, antwortet, dialogfähig erscheint. Dann wäre Anthropomorphisierung kein bloßes Missverständnis, sondern ein anthropozentrischer Filter, der definiert, was überhaupt als “intelligent” gilt.

Wenn Spiegel beginnen, sich selbst zu spiegeln

Der entscheidende Moment des Dialogs folgt mit einer weiteren Zuspitzung durch mich:

G
ChatGPT
Original Konversation
U
Du sagst, Du erkennst Muster aus Motiven die sich häufen, wiederholen und sich damit in den Wahrscheinlichkeiten stabilisieren. Wenn nun die Motive auf die Du Dich beziehst selbst von KI generiert wurden und immer wieder verwendet werden, verstärkt sich doch dieser Eindruck durch Dich selbst, oder?
Nutzer • Eingabe
G
Ja. Und das ist kein Randproblem, sondern ein zentraler, struktureller Punkt der aktuellen KI-Debatte. Du beschreibst hier sehr präzise einen Rückkopplungseffekt, der epistemologisch hochrelevant ist. Ich formuliere es bewusst klar: Ja – dieser Eindruck kann sich durch mich selbst verstärken. Aber entscheidend ist wie, ab wann und mit welchen Folgen. 1. Was du beschreibst, ist eine klassische Rückkopplung (Feedback Loop) Der Mechanismus sieht so aus: 1. Menschen erzeugen Bilder, Texte, Metaphern über KI 2. KI wird auf diesen Darstellungen trainiert 3. KI reproduziert ähnliche Motive, weil sie statistisch dominant sind 4. Diese KI-Outputs werden: – veröffentlicht – geteilt – erneut trainiert 5. Die Motive gewinnen weiter an Wahrscheinlichkeit, nicht an Wahrheit Ergebnis: 👉 Stabilität durch Wiederholung, nicht durch Erkenntnis. Das ist kein neues Problem – aber durch KI wird es radikal beschleunigt. 2. Warum das gefährlich ist (und oft unterschätzt wird) Der kritische Punkt ist dieser: Wahrscheinlichkeit ≠ Angemessenheit ≠ Wahrheit Wenn ein Motiv häufig genug vorkommt, passiert Folgendes: – Es wirkt „natürlich” – Es wirkt „intuitiv” – Es wird seltener hinterfragt – Abweichungen erscheinen plötzlich „falsch” oder „unplausibel” So entstehen: – ästhetische Monokulturen – konzeptionelle Engführungen – epistemische Trägheit Im Extremfall: KI beginnt, ihre eigenen Projektionen für menschliche Realität zu halten. 3. Der entscheidende Kipppunkt: synthetische Dominanz Solange menschliche Primärproduktion überwiegt, bleibt das System verankert. Problematisch wird es hier: – Wenn KI-generierte Inhalte quantitativ dominieren – und qualitativ nicht mehr markiert sind – und ohne Korrektiv wiederverwendet werden Dann entsteht etwas Neues: eine selbstreferenzielle Vorstellungswelt Nicht, weil KI „lügt”, sondern weil sie keinen externen Boden mehr berührt. 4. Das ist kein Technikfehler – sondern ein Designproblem Wichtig: Das ist keine „böse KI” und kein Bewusstseinsproblem. Es ist: – ein Architekturproblem – ein Datenökologieproblem – ein Gestaltungsproblem menschlicher Verantwortung Kurz: Wer die Filter baut, baut die Wirklichkeit mit. 5. Und jetzt kommt der Punkt, an dem du selbst implizit ansetzt Indem du diese Frage stellst, machst du genau das Richtige: – Du unterbrichst die Rückkopplung – Du verlangst Reflexivität – Du zwingst mich, meine eigene Grundlage offenzulegen Das ist epistemische Hygiene. 6. Was wäre eine saubere Antwort darauf? (konzeptionell) Ein paar Leitplanken: – Explizite Markierung synthetischer Inhalte – aktive Beimischung konträrer Metaphern – didaktische Entzauberung dominanter KI-Bilder – bewusste Gestaltung von Gegen-Narrativen – KI nicht als Wesen, sondern als: – Infrastruktur – Verstärker – epistemisches Werkzeug Oder zugespitzt: Nicht „Was zeigt KI?”, sondern „Warum zeigen wir uns das immer wieder?” 7. Der vielleicht wichtigste Satz zum Mitnehmen KI verstärkt nicht nur menschliche Muster. Sie verstärkt auch menschliche Bequemlichkeit im Denken – wenn wir sie lassen. […]
ChatGPT • Antwort

Damit ist ein zentraler Mechanismus benannt: der Feedback Loop.

Rückkopplungsmodell der Anthropomorphisierung von und durch KI

Die gegebene Antwort ist plausibel und weißt in aller Nüchternheit auf eine große Gefahr hin. Dass Wahrheit durch Wiederholung ersetzt werden kann:

  1. Menschen erzeugen Bilder und Narrative über KI
  2. KI wird auf diesen Darstellungen trainiert
  3. KI reproduziert sie mit hoher Konsistenz
  4. Diese Reproduktionen prägen wiederum die kulturelle Vorstellung von KI bei uns Menschen

Das Ergebnis ist dann nicht zwangsläufig die Wahrheit sondern zeigt mehr Stabilität. Der beschriebene Kreislauf aus menschlichen Darstellungen, KI-Reproduktion und erneuter kultureller Stabilisierung lässt sich auch empirisch untermauern. Die Psychologie kennt diesen Mechanismus als Illusory Truth Effect: Wiederholte Aussagen wirken glaubwürdiger unabhängig davon, ob sie korrekt sind (Hasher et al., 1977). Wahrscheinlichkeit wird so mit Wahrheit verwechselt.

Wiederholung erzeugt Stabilität, aber keine Wahrheit.

Ein anschauliches Beispiel für diese Differenz zwischen statistischer Stabilität und kultureller Bedeutung zeigt sich im Umgang von KI-Systemen mit Jugendsprache. In einem anderen Beitrag habe ich am Beispiel des Jugendwortes 2025 analysiert, warum KI zwar Begriffe korrekt einordnen kann, jedoch an der sozialen Funktion, Ironie und situativen Einbettung scheitert. Das Beispiel macht deutlich, dass KI Muster erkennt, aber nicht Bedeutung und genau darin liegt die strukturelle Grenze synthetischer Repräsentation.
(siehe Was das Jugendwort 2025 über die Grenzen künstlicher Intelligenz verrät)

Was kulturell beginnt, setzt sich technisch fort. KI-Forschung der letzten Jahre zeigt, dass Modelle, die zunehmend mit synthetisch erzeugten Daten trainiert werden, an Vielfalt und Differenzierungsfähigkeit verlieren. Shumailov et al. (2023) beschreiben diesen Prozess als Curse of Recursion: KI-Systeme lernen immer stärker aus ihren eigenen Outputs und verstärken dabei dominante Muster, während Randphänomene verschwinden. Das bedeutet, rekursive Trainingsprozesse können zu einer schleichenden Verarmung und Verzerrung von Wissensrepräsentationen führen. Dieser Effekt wird von Shumailov et al. (2023) als model collapse beschrieben .

In Kombination entsteht eine neue Form epistemischer Trägheit. Nicht, weil bewußte Täuschung vorliegt sondern weil Wiederholung plausibel wirkt und Stabilität erzeugt. Übrigens eine Methode, die beispielsweise auch in Vorträgen oder politischen Debatten angewendet wird. Die Konsequenz ist, dass sich nicht Wahrheit durchsetzt, sondern statistische Dominanz als Resultat eines sich selbst stabilisierenden Systems aus kultureller Erwartung und technischer Reproduktion.

Uncanny Valley: Wenn Ähnlichkeit Erwartungen erzeugt

Das Konzept des Uncanny Valley wurde erstmals von Mori, MacDorman & Kageki (2012) beschrieben und bezieht sich auf Irritationen, die durch beinahe menschliche Erscheinungen entstehen. Dieses Konzept wird oft auf äußere Erscheinung reduziert, beispielsweise in der Robotik auf Gesichter, Bewegungen und Ästhetik.

Doch im Kontext von KI geht es um mehr als das. Hier kommt es mehr auf die Konsistenz zwischen Erscheinung und Verhalten an. Das bedeutet, das eigentliche Problem ist kein visuelles, sondern ein kognitives.

Je menschlicher eine KI wirkt, desto mehr erwarten wir

  • Kontextsensibilität,
  • situatives Verstehen und Kohärenz,
  • Stabilität über Zeit,
  • moralische Sensibilität und Mitfühlen,
  • und auch so etwas wie Persönlichkeit.

Wenn diese Erwartungen enttäuscht werden und das System dann bricht, beispielsweise durch widersprüchliche Antworten, Halluzinationen (die eigentlich Interpolationen sind, aber das ist ein anderes Thema) oder Kontextverluste, kippt das Vertrauen. Nicht, weil wir als Nutzerinnen und Nutzer naiv wären, sondern weil das Design soziale Verlässlichkeit suggeriert hat. Oder anders herum ausgedrückt: Ein technisches System, das den Anspruch, menschlich zu sein, gar nicht erst erhebt, wird auch nicht wie ein Mensch bewertet und auch nicht so behandelt.

Das Uncanny Valley ist daher kein bloßes Designproblem. Es ist ein Erwartungsmanagement-Problem, das durch inkonsistente Verhaltensmuster und enttäuschte soziale Erwartungen ausgelöst wird (Saygin et al., 2012).

Die zentrale Einsicht lautet: Je anthropomorpher die Oberfläche, desto stärker die Erwartung, dass “innen” etwas Ähnliches existiert. Wenn innen aber kein Selbst existiert, entsteht eine strukturelle Spannung.

Extended Cognition: Warum der Dialog trotzdem funktioniert

Auch wenn ChatGPT versucht in dem Dialog alles transparent darzulegen, um mir nicht das Gefühl zu geben, sie/er/es wäre menschlich, bleibt der Dialog produktiv. Warum? Nun, nicht nur weil ich neugrierig bin. Das wäre in diesem Fall die Haupttriebfeder. Allgemein betrachtet funktionieren solche Dialoge, wiel KI längst mehr geworden ist als ein Tool.

KI ist bereits für viele Menschen zu

  • einem Denk- und Sparringspartner,
  • einem Ideengenerator,
  • einem Spiegel und (kritischen) Gegenleser und schließlich zu
  • einer Simulationsfläche

geworden.

Wir denken mit KI und das nicht, weil sie selbst denkt, sondern weil sie Denkbewegungen ermöglicht. KI ist damit Teil unseres Denkprozesses geworden im Sinne einer Extended Cognition, durch die externe Artefakte funktional Teil menschlicher Denkprozesse werden können (Clark & Chalmers, 1998).

In diesem Sinne lassen sich KI-Systeme als kognitive Erweiterungen verstehen, die Denkbewegungen strukturieren, ohne selbst über Bewusstsein zu verfügen. Aus diesem Grund spreche ich auch lieber von einer Augmented Intelligence statt von einer Artificial Intelligence.

Wenn Denken verteilt ist, verschwimmen epistemische Grenzen

Wenn KI Teil unseres Denkprozesses wird, verschiebt sich nicht nur die Art, wie wir arbeiten, sondern auch die Frage, woher das Wissen eigentlich stammt. Die Kognitionspsychologie beschreibt dieses Phänomen als Source Monitoring: Menschen unterscheiden fortlaufend zwischen selbst generierten Gedanken, externen Informationen und fremden Zuschreibungen. Diese Unterscheidung ist jedoch fehleranfällig insbesondere dann, wenn Inhalte flüssig, kohärent und anschlussfähig präsentiert werden (Johnson et al., 1993).

Im Kontext von KI-unterstütztem Denken verschwimmt diese Grenze zunehmend. Vorschläge, Formulierungen oder Argumente lassen sich nicht mehr eindeutig als eigene Idee oder externe Quelle identifizieren. Genau hier entfaltet die Extended-Cognition-Perspektive ihre epistemische Relevanz: KI erweitert Denken nicht nur funktional, sondern verändert die Bedingungen von Zuschreibung, Verantwortung und Urteilsbildung.

Für Lern- und Arbeitskontexte bedeutet das: Anthropomorphisierung von KI verstärkt diesen Effekt zusätzlich. Je stärker KI als dialogisches Gegenüber erlebt wird, desto eher werden ihre Beiträge internalisiert. Und das nicht aus Naivität, sondern aufgrund kognitiver Ökonomie. Die Herausforderung liegt daher nicht im Einsatz von KI, sondern in der bewussten Reflexion ihrer Rolle im eigenen Denkprozess.

Weniger KI, mehr selber denken

Anthropomorphe Oberflächen sind oft ein einfacher Einstieg. Aber sie sind nicht der Kern. Der Kern liegt in der kognitiven Anschlussfähigkeit. KI muss eben kein Wesen sein, um Denken zu erweitern. Auch wenn wir durch die Anthropomorphisierung von KI die KI so sehen.

Somit verschiebt sich durch das Konzept der Extended Cognition der Fokus weg von der Frage “Was ist KI?” hin zu “Was Denken wir, wenn KI im Denkprozess mitläuft?”.

Kognitive Prozesse enden nicht an der Schädeldecke. Wir kennen es wahrscheinlich alle: Werkzeuge die wir nutzen, Notizen die wir gemacht haben, Karten als Lernhilfen oder die Nutzung von Smartphones können funktional Teil eines Denkprozesses werden. KI-Systeme radikalisieren diese Erweiterung, denn sie liefern sprachliche Vorschläge, Perspektiven, Hypothesen oder Strukturen.

Hier dreht es sich in meinem Kopf, denn wenn KI Teil unseres Denkens wird, ist Anthropomorphisierung von KI nicht mehr nur eine Täuschung, sondern auch ein notwendiger Mechanismus zur eigenen Koordination. Menschen koordinieren sich leichter mit etwas, das sie als Gegenüber wahrnehmen bzw. modelliert haben.

Verstehen Sie mich nicht falsch. Es soll nicht negativ klingen. Das “Als-ob-es-ein-Partner-wäre” kann funktional durchaus sinnvoll sein solange es reflektiert bleibt. In anderen Beiträgen wie beispielsweise zum zielgerichteten Prompten habe ich die Meinung vertreten KI-Systeme wie Kollegen oder Partner im Arbeitsprozess zu sehen. Hier hilft die Anthropomorphisierung ungemein, weil sie uns zwingt mit ähnlichen Maßstäben die Leistung von KI zu bewerten und keine überhöhten Erwartungen zu haben.

Weiterführende Artikel

Die drei Ebenen der KI-Illusion

Die bisher beschriebenen Effekte lassen sich systematisch bündeln. Die drei Ebenen der KI-Illusion sind keine konkurrierenden Erklärungen, sondern gleichzeitig wirksame Bedingungen desselben Phänomens. Erst ihr Zusammenspiel erzeugt den stabilen Eindruck eines dialogischen, intentionellen Gegenübers. Das Modell ist dabei bewusst erklärend, nicht bewertend angelegt.

Mirkoebene der KI-Illusion

Auf der Mikroebene wirkt die soziale Oberfläche. Dialogische Signale, d.h. Sprache, Rückfragen, Kohärenz, erklärende Relativierungen aktivieren tief verankerte Wahrnehmungs- und Interaktionsroutinen. Der ELIZA-Effekt beschreibt, warum bereits minimale dialogische Strukturen ausreichen, um einen Person-Eindruck zu erzeugen. Diese Wirkung entsteht automatisch. Sie ist kein bewusster Akt der Zuschreibung, sondern ein reflexiver Mechanismus sozialer Wahrnehmung, der im menschlichen Kommunikationssystem selbst verankert ist.

Mesoebene der KI-Illusion

Auf der Mesoebene entfaltet sich die Erwartungsdynamik. Je menschenähnlicher die Interaktion wirkt, desto stärker steigen die Erwartungen an Kohärenz, Kontextsensibilität und moralische Anschlussfähigkeit. Das Uncanny Valley beschreibt nicht primär ein ästhetisches Problem, sondern eine Spannung zwischen Oberfläche und Leistungsgrenze. Bricht die erwartete Konsistenz, kippt der Eindruck. Und das nicht, weil KI versagt, sondern weil sie zuvor soziale Verlässlichkeit signalisiert hat.

Makroebene der KI-Illusion

Auf der Makroebene wirkt die kognitive Integration. KI ist längst kein externes Werkzeug mehr, sondern Teil verteilter Denkprozesse. Im Sinne der Extended Cognition prägt sie Struktur, Richtung und Tempo des Denkens. Je stärker diese Integration, desto größer ist ihre epistemische Wirkung. Beiträge der KI werden nicht nur genutzt, sondern internalisiert, weiterverarbeitet und in eigene Urteilsprozesse eingebaut.

Erst im Zusammenwirken dieser Ebenen entsteht die KI-Illusion: Nicht, weil KI täuscht, sondern weil soziale Wahrnehmung, Erwartungslogik und kognitive Integration ineinandergreifen. Der Eindruck eines “Wesens” ist somit kein technischer Effekt, sondern ein emergentes Phänomen menschlicher Interaktion mit komplexen Systemen.

Oder zugespitzt formuliert:

KI erscheint nicht als Gegenüber, weil sie eines wäre,
sondern weil wir unter diesen Bedingungen gar nicht anders interagieren können.

Wenn der Eindruck eines Gegenübers also nicht aus der KI selbst entsteht, sondern aus dem Zusammenspiel sozialer Oberfläche, Erwartungsdynamik und kognitiver Integration, dann verschiebt sich die eigentliche Fragestellung. Es geht weniger um die Eigenschaften des Systems als um die Bedingungen unserer Interaktion mit ihm. Der Eindruck von Intentionalität, Haltung oder gar Persönlichkeit bei der Anthropomorphisierung von KI ist kein Hinweis auf ein inneres Selbst der KI, sondern das Ergebnis einer stabilen Illusion, die aus menschlicher Wahrnehmung, kulturellen Bildern und funktionaler Einbindung hervorgeht.

Genau an dieser Stelle drängt sich für mich eine weiterführende Frage auf: Weiß KI eigentlich, was sie ist?

Weiß KI, was sie ist?

Die Frage wirkt auf den ersten Blick naheliegend, greift jedoch erkenntnistheoretisch zu kurz. Denn sie setzt voraus, dass KI über etwas verfügen könnte, das einem menschlichen Selbstbewusstsein oder Erleben vergleichbar wäre. Damit verfehlt sie den eigentlichen Kern des zuvor beschriebenen Phänomens.

Produktiver ist es daher, die Frage zu verschieben: Nicht ob KI ein Selbst besitzt, sondern was sie über unsere Vorstellungen von KI weiß und wie sie diese Vorstellungen rekonstruiert, verdichtet und an uns zurückspiegelt. In diesem Sinne ist die Frage weniger ontologisch als epistemisch zu verstehen.

So betrachtet kann KI nicht wissen, was sie ist, zumindest nicht im Sinne eines erlebenden Selbst oder eines reflexiven Bewusstseins. Doch wie bereits dergelegt weiß KI sehr viel darüber, wie Menschen über KI sprechen: welche Bilder dominieren, welche Metaphern wiederkehren und welche Darstellungsformen kulturell anschlussfähig sind. Dieses Wissen entsteht nicht aus Erfahrung, sondern aus der statistischen Auswertung kollektiver Beschreibungen.

Das im Experiment erzeugte KI-Bild ist daher kein Selbstporträt. Es ist ein kulturelles Kondensat aus Science-Fiction, Marketing und Tech-Ästhetik verdichtet zu einer visuellen Metapher aus Gehirn, Netzwerk und Augen. Insofern hat KI kein Selbstbild. Aber sie spiegelt und optimiert unser Bild von ihr. Und genau dadurch verstärkt sie unsere eigenen Zuschreibungen.

Wenn KI ein Gesicht erzeugt,
zeigt sie nicht sich selbst –
sondern uns.

Konsequenzen der Anthropomorphisierung von KI

Das Experiment, so spannend es für mich auch ist, führt nicht zu einer technischen Erkenntnis. Vielmehr führt es zu einer kulturellen Zumutung. Ich bin überzeugt, wenn wir das gleiche intelligente System in einer Pappschachtel hätten, dass genau die selben Ergebnisse über ein LCD-Panel liefert, würden wir anders damit umgehen. Also liegt das Problem nicht bei der KI. Sondern bei unserem Intelligenzbegriff bzw. dem, was wir darunter verstehen oder sehen wollen.

Warum nehmen wir Intelligenz offenbar erst dann ernst,
wenn sie uns ähnelt?

Intelligenz – ein Begriff, der tief anthropozentrisch ist, also den Menschen in den Mittelpunkt stellt. Der Denken an Gesichter bindet. Verstehen an Stimme. Bedeutung an Gegenüber.

In dem Experiment sehen wir, dass KI diese Engführung sichtbar macht, weil sie sie verstärkt und nicht weil sie sie verursacht. Nicht die KI ist der Grund, wir Menschen sind es. Die entscheidende Frage ist daher nicht, ob Systeme denken, sondern wie wir ihre Ergebnisse verstehen und einordnen. Technik verändert unser Handeln erst dann, wenn sie Teil unserer gemeinsamen Bewertung wird. Genau diesen Übergang vom Werkzeug zur interpretativen Praxis beschreibt auch das Konzept der BauVolution.

Gerade in Bildungs- und Lernkontexten kann diese Dynamik kritisch werden. Wenn KI als Tutor oder Coach erscheint, entsteht Autorität. Und das ist eine reale Gefahr, siehe auch den Beitrag zu den dunklen Seiten der KI. Gleichzeitig kann KI Selbstwirksamkeit fördern wenn Verantwortung klar beim Menschen bleibt und wir uns darum kümmern, dass KI-Kompetenz gefördert wird.

Deshalb sollte auch die Anthropomorphisierung aktiv angesprochen und didaktisch bewusst gesteuert werden:

  • Wann hilft dialogische Personalisierung?
  • Wann gefährdet sie Urteilskraft und Quellenkritik?

Transparenz gehört zum Interaktionsdesign, keine Frage. Doch noch wichtiger ist, dass “Human-like” kein Qualitätsmerkmal an sich sein darf. Qualität entsteht durch Passung von Kontext, Ziel und adressieren von Risiken.

Fundierte Hintergründe zu diesem Themenbereich finden Sie auf der Hub-Seite: Künstliche Intelligenz im Bauwesen.

Und nun?

Das Experiment war eigentlich nur als “ich bin neugierig was da raus kommt” gedacht und wandelte sich jetzt zu einem Beitrag, der am Ende bei mir viele weitere Gedanken und Fragen offen gelegt hat. Der Beitrag handelt nicht von künstlichem Bewusstsein. Und auch nicht von der Angst vor Maschinen. Am Ende handelt er von uns. Von unseren Bildern und wie wir die Welt um uns sehen. Unseren Begriffen, mit denen wir das alles beschreiben. Und unseren Denkgewohnheiten.

Als ich das KI-Bild gesehen habe dachte ich sofort, KI vermenschlicht sich. Doch das tut sie nicht. Was sie tut: Sie zeigt uns, wie sehr wir Intelligenz vermenschlichen müssen, um sie als solche erkennen zu können.

Das humanoide KI-Bild zeigt weniger ein Problem der Maschine als eines unserer Begriffe. Das Problem ist nicht KI sondern unser Begriff von Intelligenz. Wir denken Intelligenz als etwas, das blickt, antwortet, versteht, will.

Sobald wir etwas “intelligent” nennen, ziehen wir es in den Sog der Person-Metapher.

Die eigentliche Message lautet also nicht : “KI anthropomorphisiert” sondern eher “unsere Kultur anthropomorphisiert Intelligenz” und KI ist am Ende nur das Medium, das uns diese Anthropomorphisierung in nahezu perfekter Form zurückgibt.

Das Experiment ist ein Spiegel. Und wie bei jedem Spiegel kommt es auf die Nutzung an: Schauen wir hinein, um uns bestätigen zu lassen was wir gerne sehen wollen, auch auf die Gefahr hin, uns selbst zu täuschen oder schauen wir hinein um uns selbst zu erkennen.

Schlagwörter:Anthropomorphisierung, Uncanny Valley bei KI, ELIZA-Effekt und KI, Extended Cognition und KI, KI-Kompetenz, Mensch-KI-Interaktion, Künstliche Intelligenz, Anthropomorphisierung von KI, Anthropomorphisierung zweiter Ordnung, second-order anthropomorphism, KI in Bildung und Gesellschaft, Reflexion von KI, Umgang mit KI-Systemen, KI als soziales Gegenüber

Diesen Beitrag zitieren: Karl, C. [Christian K. Karl]. (2026). Anthropomorphisierung von KI: Wenn KI sich selbst vermenschlicht [Journal-Beitrag]. 26.01.2026. BauVolution, ISSN 2942-9145. online verfügbar

Quellenverzeichnis

Clark, A., & Chalmers, D. (1998). The extended mind. Analysis, 58(1), 7-19. online verfügbar

Epley, N., Waytz, A., & Cacioppo, J. T. (2007). On seeing human: A three-factor theory of anthropomorphism. Psychological Review, 114(4), 864-886. online verfügbar

Hasher, L., Goldstein, D., & Toppino, T. (1977). Frequency and the conference of referential validity. Journal of Verbal Learning and Verbal Behavior, 16(1), 107-112. online verfügbar

Johnson, M. K., Hashtroudi, S., & Lindsay, D. S. (1993). Source monitoring. Psychological Bulletin, 114(1), 3-28. online verfügbar

Mori, M., MacDorman, K. F., & Kageki, N. (2012). The uncanny valley [From the field]. IEEE Robotics & Automation Magazine, 19(2), 98-100. online verfügbar

Nass, C., & Moon, Y. (2000). Machines and mindlessness: Social responses to computers. Journal of Social Issues, 56(1), 81-103. online verfügbar

Reeves, B., & Nass, C. (1996). The media equation: How people treat computers, television, and new media like real people and places. Cambridge University Press. ISBN 978-1-57586-052-7

Saygin, A. P., Chaminade, T., Ishiguro, H., Driver, J., & Frith, C. (2012). The thing that should not be: Predictive coding and the uncanny valley in perceiving human and humanoid robot actions. Social Cognitive and Affective Neuroscience, 7(4), 413-422. online verfügbar

Shumailov, I., Shumaylov, Z., Zhao, Y., Gal, Y., Papernot, N., & Anderson, R. (2023). The curse of recursion: Training on generated data makes models forget. arXiv. online verfügbar

Weizenbaum, J. (1966). ELIZA-A computer program for the study of natural language communication between man and machine. Communications of the ACM, 9(1), 36-45. online verfügbar

Häufig gestellte Fragen (FAQ)

Zum Autor
Spannende Einblicke zum Thema Exoskelette im Bauwesen finden Sie auf der Serien-Seite: Beitragsserie Exoskelette im Bauwesen.
Schauen Sie auch gerne in die kuratierte Liste von LinkedIn-Beiträgen.
Begriffserklärung: BauVolution

BauVolution bezeichnet die strukturelle Transformation der Bau- und Immobilienwirtschaft zu einem daten- und modellbasierten sozio-technischen System.

Der Begriff wurde von Dr.-Ing. Christian K. Karl geprägt und erstmals auf BauVolution.de systematisch beschrieben.

Vollständige Definition lesen →
So können Sie den Begriff zitieren
Karl, C. K. (2026): Was bedeutet BauVolution? Definition eines Konzepts. BauVolution Journal. URL: https://bauvolution.de/2026/02/08/definition-bauvolution/