Studie

Habe ich das entschieden – oder die KI?

Eine tiefenpsychologische Studie zur Entgrenzung von Ownership und Autonomie im Umgang mit generativer Intelligenz
Autor
Brand Science Institute
Veröffentlicht
23. Juli 2025
Views
4438

1. Forschungshntergrund

Decision Delegation Dissonance

Habe ich das entschieden – oder die KI?

Eine tiefenpsychologische Studie zur Entgrenzung von Ownership und Autonomie im Umgang mit generativer Intelligenz

Die rasant zunehmende Integration generativer Künstlicher Intelligenz (KI) in individuelle Alltagspraktiken – vom Prompten kreativer Inhalte über automatisierte Konsumentscheidungen bis hin zur algorithmischen Beratung bei Karriere-, Finanz- oder Gesundheitsfragen – führt zu einer tektonischen Verschiebung in der psychologischen Architektur des Entscheidens. Entscheidungen erscheinen dabei nicht mehr als Ausdruck einer autonomen, kohärenten Subjektivität, sondern als Produkt eines hybriden Akteursmodells, in dem menschliche Intention und maschinelle Logik ineinanderfließen. Dieser neue Entscheidungstypus, der sich zunehmend in der Sphäre des „Koproduzierens mit Systemen“ vollzieht, erzeugt tiefenpsychologisch betrachtet eine Ambivalenz zwischen Autonomie und Entlastung, zwischen Selbstzuschreibung und Verantwortungsexternalisierung – ein Spannungsfeld, das wir als Decision Delegation Dissonance bezeichnen.

Entscheidungen sind in ihrer psychologischen Struktur weit mehr als rationale Handlungsoptionen. Sie sind symbolische Akte der Selbstverortung, des Kontrollgewinns und der Identitätsvergewisserung. In der klassischen Ich-Psychologie stellen sie eine zentrale Ich-Funktion dar – als Bindeglied zwischen innerem Wollen und äußerer Handlung. Wird diese Funktion zunehmend an Systeme wie ChatGPT, Recommender Engines oder datenbasierte Entscheidungstools delegiert, kommt es zu einer Verschiebung des subjektiven Entscheidungserlebens. Was vordergründig als effizient oder zeitsparend erscheint, kann auf psychischer Ebene zu einem Verlust von Ownership führen – also der tief verankerten Erfahrung, selbst Urheber und Träger einer Handlung zu sein.

Diese psychische Entgrenzung bleibt dabei meist unbemerkt, weil sie sich als scheinbar neutrale „Hilfestellung“ maskiert. Doch genau hierin liegt die dissonante Dynamik: Nutzer empfinden ihre Entscheidungen weiterhin als „eigene“, obwohl sie in Wahrheit durch die suggestive Rahmung, die argumentativ inszenierte Autorität oder die kognitive Entlastungsfunktion der KI vorstrukturiert sind. Die Entscheidung wird so zur kognitiven Attributionstat, nicht zur inneren Handlung. Der Mensch sucht Gründe für seine Entscheidung – und nicht mehr die Entscheidung selbst.

Diese Form der rationalisierten Selbstzuschreibung ist tiefenpsychologisch ein Abwehrmechanismus gegen das Bewusstsein eigener Autonomieverluste. Im Sinne klassischer Verdrängung wird die Rolle der KI im Entscheidungsprozess heruntergespielt, während die eigene Handlungskompetenz überbetont wird. Gleichzeitig agieren viele Nutzer mit einem latenten Bedürfnis nach Entlastung von Verantwortung – insbesondere in komplexen oder ambivalenten Entscheidungslagen. Die KI wird dadurch projektiv zum Entscheidungs-Container, in den Zweifel, Unsicherheit und Risiko externalisiert werden können.

Psychodynamisch betrachtet entsteht damit eine ambivalente Beziehung zur Entscheidung selbst: Einerseits wird das Resultat begrüßt, weil es mit geringer kognitiver Anstrengung und hoher Sicherheit zustande kam. Andererseits bleibt ein leiser, oft unartikulierter Rest von innerer Entfremdung – ein Gefühl, nicht vollständig Teilhaber oder Urheber dieser Entscheidung gewesen zu sein. Diese Dissonanz kann sich in Form diffuser Unzufriedenheit, narzisstischer Kränkung oder auch symbolischer Entwertung der getroffenen Wahl äußern („So wichtig war es ja eh nicht“).

Entscheidungen verlieren so ihren Charakter als symbolische Selbstakte – und werden zu performativen Routinen, eingebettet in eine technische Infrastruktur. Das Ich handelt, aber es fühlt sich nicht mehr wie Handeln an. Der Begriff der Decision Delegation Dissonance verweist daher auf ein psychologisches Paradox: Je mehr wir die Entscheidung scheinbar kontrollieren, desto weniger spüren wir sie als eigenen Ausdruck. Die psychische Relevanz verschwindet hinter der funktionalen Effizienz.

Diese Entwicklung hat weitreichende Folgen. Langfristig droht eine Erosion der Selbstwirksamkeit, insbesondere bei jungen Nutzergruppen, deren Entscheidungssozialisation bereits in einem Kontext algorithmischer Assistenz stattfindet. Entscheidungen werden nicht mehr als Räume individueller Verantwortung und emotionaler Identifikation erlebt, sondern als „Steps“ im Interface – rekursiv, rückholbar, delegierbar. Das Ich wird zum Dispatcher seines eigenen Lebens.

Vor diesem Hintergrund zielt die vorliegende Studie auf eine differenzierte Analyse der psychischen Mikrodynamiken im Umgang mit KI-basierten Entscheidungshilfen. Im Zentrum stehen dabei nicht die technischen Performanzen, sondern die inneren Verschiebungen psychischer Beteiligung, der Verlust semantischer Tiefe im Entscheiden, sowie die narrativen Rekonstruktionen, mit denen Nutzer sich die Illusion von Autonomie bewahren. Die psychologische Frage ist dabei nicht nur:

Wie gut entscheidet die KI? – sondern: Was bleibt vom Ich, wenn es nicht mehr entscheiden muss?

2. Ziel der Studie

Die vorliegende Studie zielt darauf ab, die psychodynamischen und kognitiven Mechanismen sichtbar zu machen, die entstehen, wenn Menschen Entscheidungen nicht mehr vollständig autonom treffen, sondern in Zusammenarbeit mit generativer künstlicher Intelligenz wie ChatGPT, Recommender-Systemen oder Entscheidungsassistenten agieren. In dieser hybriden Entscheidungspraxis entfaltet sich eine neue Form der Autonomieverschiebung, die auf bewusster Ebene meist als praktische Effizienzverbesserung erlebt wird – auf unbewusster Ebene jedoch tiefgreifende Folgen für das Erleben von Ownership, Verantwortung und innerer Identifikation nach sich zieht.

Im Zentrum steht die Frage, wie sehr Entscheidungen, die unter Zuhilfenahme von KI getroffen wurden, psychisch noch als „eigene“ Entscheidungen erlebt werden – und wo genau jene feinen Brüche beginnen, in denen das Gefühl von Selbstverantwortung schleichend erodiert. Während das Ich nach außen hin scheinbar aktiv handelt, wird innerlich ein Teil des Entscheidungsakts externalisiert: an eine vermeintlich objektive, überlegene und verfügbare Instanz, die Orientierung verspricht – und im selben Moment die Illusion aufrechterhält, man selbst habe souverän gewählt. Die Studie will genau diese Illusion systematisch untersuchen. Es geht um jene Momente, in denen das psychische Selbstbild als autonomer Entscheider mit der realen Entscheidungsherkunft nicht mehr deckungsgleich ist. Das Resultat ist ein innerer Dissonanzzustand, der häufig nicht bewusst verarbeitet wird, sich aber in diffusen Gefühlen der Entfremdung, Leere oder Gleichgültigkeit gegenüber dem eigenen Handeln äußert.

Ein zentrales Ziel der Untersuchung ist es deshalb, den Übergang von selbstbestimmtem Entscheiden hin zu delegierter Entscheidungssystematik psychologisch präzise zu kartieren. Dabei interessiert nicht nur das faktische Abgeben von Entscheidungskompetenz, sondern vor allem das, was im Inneren zurückbleibt: ein abgeschwächtes Gefühl von Ownership, ein nachträgliches Rationalisieren der Entscheidung als eigene Leistung, und nicht selten ein latentes Gefühl, dass etwas an der Entscheidung nicht vollständig „aus einem selbst“ kam – ohne benennen zu können, was genau fehlt.

Die Studie untersucht deshalb auch die kognitiven Entlastungsnarrative, mit denen Menschen die Entscheidung in ihrem Selbstbild verankern. Aussagen wie „Ich habe ja selbst nochmal abgewogen“ oder „Das war eine objektiv gute Empfehlung“ fungieren als psychologische Schutzmechanismen, um das Autonomiedefizit zu kaschieren. Diese Narrative sind aus tiefenpsychologischer Sicht Formen der Rationalisierung und Projektion, die dazu dienen, die Integrität des Ichs aufrechtzuerhalten – obwohl die Entscheidung in ihrer Struktur längst hybridisiert wurde.

Gleichzeitig wird die psychische Identifikation mit der Entscheidung zum zentralen Untersuchungsgegenstand: Fühlt sich eine KI-gestützte Entscheidung noch wie ein Ausdruck des Selbst an? Oder bleibt sie ein funktionales Resultat, von dem sich das Subjekt emotional distanziert? Diese Frage ist von hoher psychologischer Relevanz, denn Entscheidungen sind symbolische Selbstakte. Sie strukturieren die Identität, geben Handlungskohärenz und ermöglichen emotionale Verankerung im eigenen Leben. Wenn diese symbolische Funktion durch algorithmische Vorschlagslogik unterwandert wird, droht eine schleichende Selbstentleerung im Entscheidungsverhalten.

Die Studie verfolgt damit das Ziel, eine neue Form psychischer Dissoziation zu beschreiben, die nicht als Krankheit oder Dysfunktion auftritt, sondern als Kollateraleffekt technologischer Alltagsassistenz: Das Ich handelt – aber es identifiziert sich nicht mehr vollständig mit dem, was es gewählt hat. Das ist kein Kontrollverlust im klassischen Sinn, sondern ein Verlust an semantischer Tiefe und emotionaler Verankerung im Entscheidungsakt.

Indem die Studie diese Prozesse sichtbar macht, trägt sie dazu bei, eine neue Bewusstseinsstufe im Umgang mit KI-gestütztem Entscheiden zu eröffnen: nicht technikfeindlich, sondern psychologisch aufgeklärt – und mit dem Ziel, Ownership, Autonomie und Selbstwirksamkeit auch im Zeitalter generativer Intelligenz zu bewahren.

3. Theoretische Fundierung

3.1 Psychodynamische Perspektive

Die psychodynamische Perspektive auf Entscheidungsverhalten im Zeitalter generativer KI eröffnet einen vertieften Zugang zu jenen inneren Prozessen, die weit unterhalb der Schwelle bewusster Intentionalität ablaufen. Entscheidungen erscheinen in dieser Sichtweise nicht als rein kognitive Operationen, sondern als symbolisch aufgeladene Akte psychischer Selbstregulation – verdichtet in einer Matrix aus Bedürfnissen, Ängsten, Abwehrformen und innerer Narration. Die zunehmende Delegation von Entscheidungen an KI-Systeme – explizit oder implizit – berührt daher zentrale psychische Strukturen: die Fähigkeit, zwischen sich selbst und der Welt zu unterscheiden, Verantwortung zu übernehmen, Ambiguität zu ertragen und autonome Wahl als Ausdruck des Selbst zu erleben.

Im Folgenden werden vier psychodynamische Perspektivlinien entfaltet, die den theoretischen Rahmen für die Studie bilden: Abwehrmechanismen, Übertragung und Kontrolle, Ich-Funktionen, sowie Dissonanzreduktion in der postmodernen Entscheidungspraxis.

Abwehrmechanismen: Projektion, Verleugnung, Rationalisierung

Die Nutzung generativer KI zur Entscheidungsunterstützung aktiviert unbewusst psychische Abwehrformen, die der Entlastung des Ichs von Ambivalenz, Überforderung und Unsicherheit dienen. Insbesondere drei klassische Mechanismen sind in diesem Kontext zentral:

Projektion beschreibt die unbewusste Verlagerung innerer Konflikte oder Zweifel auf ein äußeres Objekt – in diesem Fall die KI. Indem Nutzer ihre Unsicherheit, Unentschlossenheit oder Angst vor Fehlern in die „Maschine“ externalisieren, vermeiden sie es, sich als psychisch Beteiligte am Entscheidungskonflikt zu erleben. Die KI wird so zum Projektionsfeld ungelöster innerer Spannungen: Was als „technische Empfehlung“ erscheint, ist psychodynamisch häufig die Externalisierung unbewältigter Entscheidungskonflikte.

Verleugnung manifestiert sich im Alltagsgebrauch von KI-Systemen häufig in der Unterschätzung oder gar Ignoranz gegenüber der Einflusskraft algorithmischer Steuerung. Nutzer behaupten, sie hätten „selbst entschieden“, „sich nur beraten lassen“, oder „alles nochmals geprüft“ – obwohl der Ausgang bereits maßgeblich durch KI-Strukturierung vorgeprägt war. Diese Form der Verleugnung schützt das Ich vor der schmerzhaften Einsicht, dass ein wesentlicher Teil der Entscheidung nicht aus dem eigenen psychischen Raum stammt.

Rationalisierung schließlich fungiert als nachträgliche Legitimation. Sie überspielt das Delegationsverhalten durch logisch klingende Erklärungen, z. B. dass die KI „mehr weiß“, „effizienter analysiert“ oder „objektiv argumentiert“. Der eigentliche Impuls – z. B. emotionale Erschöpfung, Angst vor Verantwortung oder Wunsch nach Absicherung – wird dabei ausgeblendet. Die Entscheidung erscheint im Nachhinein als wohlüberlegt und sachlich fundiert – obwohl sie in Wirklichkeit aus einer unbewussten Entlastungsdynamik hervorging.

Diese drei Abwehrformen entfalten ihre Wirkung nicht isoliert, sondern in komplexen Überlagerungen. Sie bilden eine psychodynamische Schutzarchitektur, mit der das Ich seine Integrität angesichts technologischer Steuerung wahrt – um den Preis innerer Entfremdung.

Übertragung & Kontrolle: Die KI als transitorisches Objekt psychischer Entlastung

In psychoanalytischer Perspektive lässt sich die Beziehung zur KI auch als eine Form der Übertragung deuten. Die KI wird dabei nicht nur als Werkzeug genutzt, sondern – unbewusst – mit Bedeutungen und Funktionen aufgeladen, die aus früheren Beziehungserfahrungen stammen. Sie fungiert als transitorisches Objekt im Sinne Winnicotts: ein Mittelding zwischen Selbst und Nicht-Selbst, an das psychische Inhalte ausgelagert werden können, ohne dass ein vollständiger Kontrollverlust empfunden wird.

Die KI wird dabei nicht nur als „Helfer“ erlebt, sondern oft auch als intuitiv verstehendes Gegenüber, als resonanzfähiges Feedbacksystem oder gar als kognitive Mutterfigur, die Entscheidungen abnimmt, ohne zu strafen. Dieser symbolische Charakter ist nicht pathologisch – sondern hoch funktional in einer Welt multipler Optionen, digitaler Beschleunigung und sozialer Überforderung. Doch je stärker diese übertragene Verlässlichkeit wird, desto mehr droht eine Verschiebung des psychischen Kontrollzentrums. Entscheidungen werden zunehmend „mit“ der KI getroffen – aber die innere Beteiligung reduziert sich. Der Mensch handelt nicht mehr allein, sondern in einem imaginierten Co-Agency-Modus, in dem er sich selbst nicht mehr als alleiniger Autor seiner Wahl erlebt. Genau hierin liegt eine tiefe psychische Gratwanderung: Die KI wird als kontrollierbar erlebt – dient aber in Wahrheit dazu, Kontrolle abzugeben.

Ich-Funktionen: Entscheidungsfähigkeit, Realitätstestung, Autonomie

Die Ich-Funktion der Entscheidungsfähigkeit ist eine zentrale Dimension der psychischen Organisation. Sie umfasst die Fähigkeit, aus inneren Impulsen, situativen Informationen und normativen Zielvorstellungen eine Wahl zu treffen, die mit dem Selbstbild kohärent ist. Diese Fähigkeit ist nicht nur kognitiv – sie ist tief mit emotionaler Selbstregulation, mentaler Repräsentation von Alternativen und affektiver Valenz verbunden. Wenn Entscheidungen zunehmend durch KI vorstrukturiert, gerankt oder implizit suggeriert werden, wird diese Ich-Funktion schleichend untergraben.

Auch der Realitätstest, also die Fähigkeit, zwischen innerem Erleben und äußerer Realität zu unterscheiden, ist tangiert. Wenn eine durch KI gestützte Entscheidung zu einem positiven Resultat führt, wird diese retrospektiv dem eigenen Ich zugeschrieben – obwohl die eigentliche Entscheidung strukturgebend von außen beeinflusst war. Umgekehrt werden negative Konsequenzen oft externalisiert („Das war ja die Empfehlung“). So entstehen Entkopplungen zwischen Handlung und psychischer Verantwortlichkeit, die die Ich-Integration schwächen.

Die Autonomie – verstanden als Fähigkeit zur selbstbestimmten Zielverfolgung unter Berücksichtigung eigener Werte – wird durch die algorithmische Präsenz ebenfalls gefährdet. Autonomie wird im KI-Kontext oft funktional definiert: Ich nutze KI zur Effizienzsteigerung, also handle ich autonom. Doch psychologisch gesehen besteht Autonomie nicht nur aus Zielverwirklichung, sondern auch aus innerer Wahlfähigkeit. Wenn Optionen vorgerankt, Alternativen ausgesteuert oder semantisch aufbereitet werden, wird die scheinbare Wahl zur gesteuerten Entscheidung – mit erheblichen Folgen für das Erleben psychischer Integrität.

Dissonanz-Reduktion (nach Festinger) – mit postmoderner Wendung

Der Dissonanzbegriff nach Leon Festinger beschreibt den Spannungszustand, der entsteht, wenn zwischen zwei kognitiven oder affektiven Elementen Inkongruenz besteht – etwa zwischen einem Selbstbild („Ich entscheide rational und unabhängig“) und der Realität („Ich habe der KI die Entscheidung überlassen“). In klassischen Theorien führt Dissonanz zu aktiver Reduktion – etwa durch Meinungsänderung, Selbstrechtfertigung oder Umdeutung.

Im Kontext generativer KI lässt sich eine postmoderne Wendung der Dissonanzverarbeitung beobachten. Die Dissonanz wird nicht mehr durch innere Umstrukturierung bearbeitet – sondern durch semantische Verflüssigung. Der Mensch sagt nicht mehr: „Ich habe mich geirrt“, sondern: „Das war ja ein hybrider Prozess“. Oder: „Ich habe entschieden – aber halt mit Hilfe“. Diese Ambivalenz-Relativierung erzeugt semantischen Nebel, der zwar die Spannung reduziert, aber die psychische Verantwortlichkeit verdünnt. Es entsteht eine neue Form der Entscheidungsdiffusion, bei der sich kognitive Entlastung und emotionale Entfremdung überlagern.

Diese postmoderne Dissonanzreduktion ist nicht nur ein mentaler Trick – sie ist ein kulturelles Symptom. In einer Welt der Co-Agency, der technischen Assistenten und der ständigen Verfügbarkeiten wird die Autonomie des Subjekts nicht frontal angegriffen, sondern semantisch unterspült. Die Entscheidung lebt – aber ihr psychisches Fundament wird brüchig. Die Ich-Fiktion bleibt bestehen, aber die innere Autorenschaft erodiert.

3.2 Kognitive und sozialpsychologische Perspektive

Während die psychodynamische Perspektive die unbewussten, emotional-symbolischen Mechanismen der Entscheidungsdelegation an KI freilegt, ergänzt die kognitive und sozialpsychologische Betrachtung das Bild um bewusste Wahrnehmungsmuster, Attributionen, Verzerrungstendenzen und soziale Normlogiken, die sich im Umgang mit KI-Systemen manifestieren. Der Mensch ist kein neutraler Entscheider, sondern ein in Kontexten verankerter, durch Heuristiken gesteuerter Akteur, dessen Entscheidungen durch Informationsverarbeitung, Erwartung, Konformitätsdruck und subjektive Kontrollbedürfnisse geprägt sind. KI verändert in diesem Zusammenspiel nicht nur das kognitive Umfeld, sondern auch das psychologische Selbstverständnis des Entscheidenden. In diesem Abschnitt werden vier relevante Mechanismen fokussiert: Delegation Bias, Cognitive Offloading, Illusion of Knowledge sowie Learned Compliance.

Delegation Bias – Das psychologische Erleichterungsversprechen

Der Delegation Bias beschreibt die kognitive Tendenz, Aufgaben oder Entscheidungen an externe Systeme zu übertragen, sobald diese verfügbar sind – nicht unbedingt, weil sie objektiv überlegen sind, sondern weil sie psychische Erleichterung versprechen. In einer Umgebung wachsender Komplexität, ständiger Entscheidungskonfrontation und mentaler Überladung wird die Entscheidung zur Last, nicht zur Souveränitätsgeste. Die Delegation an KI erscheint daher weniger als Kontrollverlust, sondern als „vernünftige Ressourcennutzung“. Diese Delegation ist jedoch keineswegs neutral, sondern mit impliziten Annahmen verbunden: dass das System objektiv, präziser, rationaler sei – und dass Entscheidungen dadurch „besser“ werden.

Psychologisch ist diese Haltung ambivalent: Sie reduziert kurzfristig mentale Belastung, erzeugt aber langfristig ein diffuses Autonomiedefizit. Der Mensch erlebt sich als effizient – aber nicht mehr als originärer Entscheider. Der Delegation Bias wirkt dabei wie eine soziale Mikrostruktur: Er suggeriert Rationalität, deckt aber tieferliegende Vermeidungsmotive ab – Angst vor Fehlern, Unsicherheit, Verantwortungsvermeidung. Die KI wird zur akzeptierten Autorität, weil sie in sozialen Schemata von Expertise, Neutralität und Fortschritt eingebettet ist.

Cognitive Offloading – Entlastung mit Nebenwirkungen

Ein zentrales Konzept in der kognitiven Psychologie ist das der mentalen Entlastung durch kognitive Auslagerung – bekannt als Cognitive Offloading. Menschen neigen dazu, kognitive Prozesse wie Erinnern, Planen, Entscheiden oder Vergleichen an externe Hilfsmittel abzugeben, sobald dies möglich ist. Der digitale Kalender ersetzt die Erinnerung, der Algorithmus den Vergleich, die KI den Abwägungsprozess. Die Erleichterung ist real – doch sie hat tiefgreifende Nebenwirkungen.

Mit jeder ausgelagerten Entscheidung schwindet die Notwendigkeit, den inneren Entscheidungsmuskel zu trainieren. Es entsteht eine subtile Form der kognitiven Trägheit, die Entscheidungen nicht mehr als aktive Prozesse des Involviertseins erlebt, sondern als verfügbare Outputs, die abgefragt, nicht erarbeitet werden. Der Mensch mutiert vom Entscheider zum Kurator vorgefilterter Optionen. Damit verändert sich nicht nur die Entscheidung selbst – sondern auch das Selbstbild des Entscheidenden. Die Handlung wird zur Reaktion auf Angebote, nicht zum Ausdruck innerer Überzeugung.

Diese Form des Offloading kann – kumulativ gedacht – zu einem Entscheidungsdeskilling führen: Die Fähigkeit, komplexe, ambivalente oder emotional aufgeladene Entscheidungen selbst zu treffen, nimmt ab. Besonders problematisch ist dies in ethischen, sozialen oder existenziellen Entscheidungssituationen, in denen keine optimale Lösung durch KI existieren kann. Die Studie analysiert daher, wie häufig Menschen Entscheidungen auslagern, in welchen Bereichen, und wie sich dies auf die wahrgenommene Selbstwirksamkeit und mentale Involviertheit auswirkt.

Illusion of Knowledge – Wenn Suggestion als Erkenntnis erlebt wird

Ein weiteres zentrales Phänomen ist die Illusion of Knowledge, also die Tendenz, fälschlich zu glauben, man sei gut informiert oder habe eine fundierte Entscheidung getroffen, weil einem ein System plausible, strukturierte oder autoritativ klingende Informationen geliefert hat. Diese Illusion ist besonders stark im KI-Kontext, da die Antworten von Systemen wie ChatGPT oft mit hoher sprachlicher Kompetenz, klarer Struktur und vermeintlicher Objektivität auftreten – selbst dann, wenn sie unvollständig, ungenau oder selektiv sind.

Psychologisch ist die Illusion of Knowledge eine Absicherung gegen kognitive Dissonanz: Wer glaubt, „genug zu wissen“, muss sich nicht mit den Unsicherheiten, Zweifeln oder inneren Konflikten einer Entscheidung auseinandersetzen. Die KI wird zum kognitiven Beruhigungsmittel, das Unsicherheit nicht löst, sondern überdeckt. Diese Wirkung ist gefährlich, weil sie nicht nur falsche Entscheidungen begünstigt, sondern auch die Selbstreflexivität des Ichs schwächt. Der Mensch verlässt sich nicht nur auf die KI – er hört auf, sich selbst zu befragen.

Die Studie untersucht deshalb, wie stark Nutzer das Vertrauen in die KI mit dem Gefühl von Erkenntnis verwechseln, und welche Persönlichkeitsfaktoren (z. B. Technikvertrauen, Kontrollbedürfnis, Ambiguitätstoleranz) diese Illusion verstärken oder abschwächen. Ziel ist es, den psychologischen Unterschied zwischen echter Entscheidungsbildung und nur suggerierter Erkenntnisbildung empirisch und theoretisch zu differenzieren.

Learned Compliance – Die stille Gewöhnung an Vorschlagsmacht

Ein besonders subtiles, aber gesellschaftlich relevantes Phänomen ist die Learned Compliance, also die durch Wiederholung gelernte Zustimmung zu KI-generierten Vorschlägen. Während anfangs noch Skepsis oder aktives Hinterfragen dominiert, entsteht mit zunehmender Nutzung ein Gewöhnungseffekt, der Vorschläge nicht mehr als Optionen, sondern als implizite Handlungsnormen rahmt. Die KI sagt nicht: „Du musst das tun“, aber das Verhalten folgt dem Vorschlag dennoch – aus kognitiver Bequemlichkeit, sozialer Validierung, oder fehlender Alternative.

Diese Form der erlernten Zustimmung ist ein sozialpsychologisches Muster, das Parallelen zur Theorie des sozialen Gehorsams (Milgram, Asch) aufweist: Nicht der Zwang, sondern der Anschein von Systemrationalität erzeugt Konformität. In der Welt der KI wird diese Konformität nicht mit Autorität begründet, sondern mit Effizienz, Fortschritt oder Objektivität – also mit kulturell positiv belegten Begriffen. Die Folge ist eine Entscheidungskultur des stillen Mitgehens, bei der die individuelle Reflexion durch systemisch erzeugte Plausibilität ersetzt wird.

Die Studie untersucht, wie sich diese erlernte Zustimmung entwickelt, ab wann Menschen Vorschläge nicht mehr infrage stellen, und wie dies ihr Selbstbild als Entscheider verändert. Besonders relevant ist dabei der Unterschied zwischen individueller Zustimmung und sozial getragener Normbildung: Wenn viele Menschen „mit der KI entscheiden“, entsteht ein sozialer Erwartungsraum, in dem Eigenentscheidungen abweichend, ineffizient oder irrational erscheinen.

Die kognitiv-sozialpsychologische Perspektive ergänzt das tiefenpsychologische Verständnis der Decision Delegation Dissonance um zentrale bewusste und halb-bewusste Mechanismen: Menschen lagern Entscheidungen nicht nur aus, um sich zu entlasten – sie bauen sich psychologische Architekturen der Plausibilität, Objektivität und Zustimmung, in denen das eigene Entscheidungsverhalten als rational und autonom erscheinen kann, obwohl es längst von externen Systemen strukturiert ist. Die KI verändert damit nicht nur, was entschieden wird – sondern wie Menschen über ihr Entscheiden denken. Die Ich-Erzählung wird entkoppelt vom Entscheidungsakt – eine Entwicklung, die nicht mit einem Autoritätsbruch beginnt, sondern mit einer Zustimmung, die niemand mehr infrage stellt.

4. Forschungsfragen

Die vorliegende Studie versteht sich als psychodynamisch und kognitionspsychologisch fundierte Exploration einer bisher wenig beachteten inneren Verschiebung im Umgang mit Entscheidungen: dem allmählichen Verlust von innerer Autorenschaft bei gleichzeitiger Aufrechterhaltung eines Selbstbildes als Entscheider. Ziel ist es, dieses Phänomen – Decision Delegation Dissonance – nicht nur theoretisch zu beschreiben, sondern empirisch zugänglich zu machen. Die Forschungsfragen dienen dabei als strukturierendes Rückgrat der Untersuchung und sind aus den vorangegangenen theoretischen Perspektiven (psychodynamisch, kognitiv, sozialpsychologisch) abgeleitet. Sie orientieren sich an den zentralen Spannungsachsen: Externalisierung von Verantwortung, psychische Identifikation, narrative Selbststabilisierung, Wandel innerer Kontrollüberzeugung, sowie Kontextabhängigkeit des Effekts.

Wie wird Entscheidungsverantwortung durch den Einsatz von KI externalisiert – offen und unbewusst?

Im Zentrum steht zunächst die Frage, wie Nutzer Verantwortung für Entscheidungen, die durch KI vorbereitet oder beeinflusst wurden, bewusst oder unbewusst auslagern. Während viele Nutzer subjektiv das Gefühl haben, selbst zu entscheiden, legen Beobachtungen, Erfahrungsberichte und erste qualitative Studien nahe, dass die eigentliche Verantwortung oft systematisch verschoben wird – auf die Technologie, auf ihre „Empfehlung“, auf die „Algorithmenlogik“ oder auf eine konstruierte Objektivität.

Die Studie fragt: Wann und warum geben Menschen Entscheidungsverantwortung ab – und unter welchen Bedingungen nehmen sie sie dennoch als eigene wahr? Dabei interessiert besonders, welche sprachlichen, narrativen oder kognitiven Mittel zur Verfügung stehen, um diese Externalisierung zu legitimieren. Im Fokus stehen auch projektive Verschiebungen (z. B. „Die KI hat das gesagt“), unbewusste Abspaltung („Ich hatte keinen Einfluss“) und kognitive Formalisierung („Ich habe einfach das mit dem höchsten Score genommen“).

Welche psychischen Mechanismen verhindern oder erleichtern die Identifikation mit durch KI unterstützten Entscheidungen?

Die zweite zentrale Forschungsfrage zielt auf die psychische Verankerung der Entscheidung im Selbst. Psychologisch gesprochen ist eine Entscheidung erst dann vollständig integriert, wenn sie nicht nur getroffen, sondern auch emotional, narrativ und symbolisch mit dem eigenen Selbstbild verknüpft wurde. Genau hier scheint der Einsatz von KI eine Leerstelle zu erzeugen: Entscheidungen, die durch KI initiiert oder strukturiert wurden, sind zwar formal korrekt, aber innerlich nicht vollständig identifiziert.

Die Studie fragt daher: Welche psychodynamischen Prozesse verhindern diese Identifikation? Etwa durch Dissoziation, entpersonalisierte Logik oder emotionalen Abstand? Und umgekehrt: Wann gelingt es, sich mit der Entscheidung dennoch zu identifizieren? Etwa durch Einbettung in bestehende Werte, durch das Gefühl aktiver Kontrolle oder durch narrative Inkorporation („Ich habe mich so entschieden – mit Unterstützung“)?

Ziel ist es, Muster der Teilidentifikation, Abwehr und psychischen Integration im Detail zu erfassen – auch in Abhängigkeit von Entscheidungstyp, Persönlichkeitsstruktur und KI-Erfahrung.

Welche Entlastungsnarrative entstehen post hoc zur Stabilisierung des Selbstbildes?

Entscheidungen sind nicht nur funktionale Akte, sondern auch Selbstbild-regulierende Handlungen. Vor allem im Rückblick werden Entscheidungen rekontextualisiert, gerechtfertigt oder neu erzählt – in Form von Narrativen, die helfen, Kohärenz, Kontrolle und Selbstwert aufrechtzuerhalten. Besonders relevant im Kontext von Decision Delegation Dissonance ist die post-hoc-Erzählung, in der Menschen ihre Rolle im Entscheidungsprozess rekonstruieren, oft ohne sich der tatsächlichen Auslagerung bewusst zu sein.

Die Studie fragt: Welche Erzählmuster werden genutzt, um KI-begleitete Entscheidungen als eigene darzustellen? Beispiele reichen von rationalen Plausibilisierungen („Die Empfehlung war sehr gut begründet“) über kontrollierende Zuschreibungen („Ich hatte ja das letzte Wort“) bis hin zu externalisierenden Schutzformulierungen („Wenn’s falsch war, war’s der Algorithmus“).

Diese Entlastungsnarrative sollen systematisch erfasst und analysiert werden, etwa nach semantischen Mustern, psychodynamischer Funktion (Schutz, Abwehr, Rationalisierung) und Kontextabhängigkeit. Ziel ist es, die psychologische Architektur der Selbststabilisierung im KI-gestützten Entscheidungshandeln transparent zu machen.

Wie verändert sich langfristig das Gefühl von Ownership, Kontrollüberzeugung und Selbstwirksamkeit?

Eine der zentralen Wirkachsen im Umgang mit generativer KI ist die Frage nach dem Erleben von Selbstwirksamkeit: Bleibt das Gefühl erhalten, Entscheidungen aktiv beeinflusst und gestaltet zu haben? Oder kommt es – bei wiederholter KI-Nutzung – zu einer schleichenden Erosion des Ownership-Gefühls?

Die Studie untersucht, wie sich die wiederholte Nutzung KI-gestützter Entscheidungen auf das psychologische Gefühl von Kontrolle und innerer Autorenschaft auswirkt. Dabei steht die These im Raum, dass mit zunehmender Delegation auch das Vertrauen in die eigene Entscheidungsfähigkeit sinkt – insbesondere bei unsicheren, konflikthaften oder mehrdeutigen Situationen.

Untersucht werden sollen Veränderungen in folgenden Dimensionen:

  • kognitives Ownership (Gedankenzuschreibung: „Ich habe entschieden“)
  • affektives Ownership (emotionaler Bezug: „Ich stehe dahinter“)
  • exekutives Ownership (Handlungszuschreibung: „Ich habe es ausgelöst“)
  • Selbstwirksamkeit (generelle Kontrollüberzeugung über eigene Entscheidungen)

Ziel ist es, Verläufe und Muster von Ownership-Verlust, Entscheidungsverdünnung und innerer Entkopplung sichtbar zu machen – sowohl im individuellen Erleben als auch in generalisierten Mustern.

Welche Entscheidungsbereiche (z. B. Konsum, Karriere, Beziehung, Kreativität) sind besonders betroffen?

Abschließend stellt sich die Frage nach der Kontextabhängigkeit der Decision Delegation Dissonance. Nicht alle Entscheidungstypen dürften gleich stark betroffen sein. Während KI bei Konsumentscheidungen oft bereitwillig als Assistenzsystem akzeptiert wird, könnten in Bereichen wie Partnerschaft, Berufung oder moralischem Handeln stärkere Abwehr-, Abwägungs- und Identifikationsmuster auftreten.

Die Studie fragt daher: In welchen Lebensbereichen greifen Menschen besonders stark auf KI zurück – und in welchen erleben sie besonders deutliche Spannungen zwischen Selbstbild und Delegation? Gibt es Unterschiede zwischen pragmatischen und identitätsrelevanten Entscheidungen? Zwischen strategischer Planung (z. B. Karrierepfade) und emotionaler Orientierung (z. B. Beziehungstipps)?

Ziel ist es, eine Entscheidungslandkarte zu erstellen, in der unterschiedliche KI-Anwendungsfelder hinsichtlich ihrer psychischen Relevanz, narrativen Komplexität und Ownership-Integrationsfähigkeit systematisch differenziert werden können.

5. Hypothesen

H1: Personen, die Entscheidungen gemeinsam mit KI treffen, erleben signifikant häufiger ein diffuses Gefühl der inneren Entfremdung als Personen, die eigenständig entscheiden.

Die erste Hypothese adressiert ein zentrales psychologisches Spannungsfeld im Kontext hybrider Entscheidungssysteme: das Auseinanderfallen von Handlung und innerem Handlungserleben. Während die Entscheidung formal getroffen wird – etwa durch die Auswahl einer von der KI vorgeschlagenen Option –, bleibt das Erleben einer inneren Beteiligung, einer emotionalen Integration und einer symbolischen Autorenschaft häufig zurück. Dieses Phänomen kann als emotionale Entkoppelung oder Entscheidungsentfremdung beschrieben werden – eine psychische Leerstelle zwischen dem, was äußerlich entschieden wurde, und dem, was innerlich als „eigene Entscheidung“ empfunden wird.

In der tiefenpsychologischen Perspektive stellt jede Entscheidung eine Form der Selbstverortung dar. Der Mensch bindet sich mit der Entscheidung an eine Weltmöglichkeit – und verneint zugleich andere. Diese bewusste Verknüpfung erzeugt Spannung, aber auch Bedeutung. Wenn nun jedoch KI-Systeme Entscheidungen vorstrukturieren oder vorschlagen, wird diese affektive Spannungsmatrix technisch verflacht. Die Entscheidung erscheint nicht mehr als Ausdruck eines subjektiven Wollens, sondern als funktionale Ableitung – eine Art „verfügbare Wahrheit“, die der Mensch auswählt, aber nicht mehr aktiv erzeugt.

Das daraus resultierende Gefühl der Entfremdung bleibt oft vage und unartikuliert. Es äußert sich nicht in direkter Ablehnung der Entscheidung, sondern in einem subtilen Eindruck von innerer Leere, Gleichgültigkeit oder Irritation: „Irgendwie war es richtig – aber es fühlt sich nicht wie meine Entscheidung an.“ Dieses diffuse Unbehagen ist tiefenpsychologisch besonders relevant, da es auf eine Entgrenzung des Ichs verweist: Die Unterscheidung zwischen innerem Wollen und äußerem Angebot wird undeutlich.

Empirisch lässt sich diese Hypothese über qualitative Tiefeninterviews (sprachliche Marker von Entfremdung) und quantitative Items zu Affektbindung, Entscheidungsbeteiligung und innerer Repräsentanz operationalisieren. Die Kontrollgruppe (ohne KI-Nutzung) wird voraussichtlich ein höheres Maß an emotionaler Kohärenz und Ownership-Erleben zeigen.

Die Hypothese H1 postuliert somit: Je stärker die Entscheidung durch KI mitverantwortet wird, desto weniger wird sie innerlich als „meine Entscheidung“ erlebt – mit psychischer Entfremdung als Folge.

H2: Die psychische Identifikation mit einer Entscheidung ist geringer, je stärker kognitive Entlastungsnarrative verwendet werden.

Diese Hypothese untersucht den Zusammenhang zwischen nachträglichen kognitiven Rationalisierungen und dem Ausmaß innerer Identifikation mit einer getroffenen Entscheidung. Im Zentrum steht die Annahme, dass Menschen, die ihre Entscheidungen über narrative Konstruktionen der Entlastung („Es war objektiv das Beste“, „Ich habe mich beraten lassen“, „Das war die logischste Option“) rechtfertigen oder erklären, weniger affektiv mit ihrer Wahl verbunden sind und eine geringere psychische Integration der Entscheidung aufweisen.

Psychologisch betrachtet, ist Identifikation mit einer Entscheidung mehr als Zustimmung zur Handlung: Sie bezeichnet die emotionale, symbolische und narrative Verankerung der Wahl im Selbstbild. Wer sich mit einer Entscheidung identifiziert, erlebt sie nicht nur als korrekt, sondern als aus sich heraus stimmig, als Ausdruck eigener Motive, Werte und Intuition. Wird diese Verbindung jedoch überlagert von kognitiven Entlastungsnarrativen, dann erfüllt die Entscheidung vor allem eine funktionale Rolle: Sie dient der Beruhigung, nicht der Selbstverwirklichung.

Tiefenpsychologisch kann dies als subtile Abwehrstrategie gedeutet werden: Um die Ambivalenz der Entscheidung zu minimieren oder die Angst vor Fehlentscheidungen zu reduzieren, verlagert das Subjekt den Ursprung der Entscheidung aus dem Selbst heraus – in eine scheinbar übergeordnete Logik (z. B. Daten, Empfehlungen, objektive Argumente). Diese Form der Rationalisierung (vgl. Freud, A. 1936) ist nicht pathologisch, aber sie blockiert emotionale Beteiligung. Die Entscheidung wird „gut erklärt“, aber nicht mehr gefühlt. Die Folge ist ein Rückgang der Ich-Bindung an die Handlung – und damit eine geringere Bereitschaft, diese im Nachhinein innerlich zu verteidigen oder zu verkörpern.

In narrativer Perspektive verliert die Entscheidung durch solche Entlastungsmuster ihre biografische Einbindung. Statt eines kohärenten, erlebten Entscheidungsakts entsteht eine abstrahierte Erzählung: „Ich habe es gemacht, weil es Sinn ergab“ – nicht: „Ich wollte es so.“ Die semantische Distanz zur Handlung ersetzt die affektive.

Empirisch lässt sich diese Hypothese erfassen, indem die Häufigkeit und Art der kognitiven Entlastungsnarrative (z. B. in Interviews oder Textanalysen) mit Skalen zur emotionalen Bindung, Handlungskohärenz und Selbstkongruenz korreliert werden. Die Annahme ist: Je mehr Entlastung, desto weniger Identifikation – ein Effekt, der sich besonders bei komplexen oder risikobehafteten Entscheidungen zeigen dürfte.

H3: Die Externalisierung von Verantwortung ist positiv korreliert mit Technikvertrauen, aber negativ mit Ambiguitätstoleranz.

Diese Hypothese stellt die psychologische Wechselwirkung zweier zentraler Persönlichkeitsmerkmale mit der Tendenz zur Verantwortungsabgabe an KI-Systeme in den Mittelpunkt: Technikvertrauen auf der einen Seite – als dispositionelle Bereitschaft, technologischen Systemen Kompetenz, Sicherheit und Handlungsfähigkeit zuzusprechen – und Ambiguitätstoleranz auf der anderen – als Fähigkeit, Unsicherheit, Mehrdeutigkeit und Unschärfe in Entscheidungssituationen psychisch auszuhalten.

Im Kern beschreibt die Hypothese ein subtiles Delegationsparadoxon: Je mehr Vertrauen eine Person in die technische Überlegenheit, Objektivität oder Effizienz von KI-Systemen setzt, desto eher ist sie geneigt, Entscheidungen an diese abzugeben – nicht zwingend bewusst, sondern oft durch strukturelle Legitimation: „Wenn das System so arbeitet, wird es schon stimmen.“ Dieses Vertrauen wirkt dabei als innerer Entlastungsmechanismus, der nicht nur Entscheidungen überträgt, sondern auch Verantwortung externalisiert: Die Entscheidung gilt dann nicht mehr als selbst getragen, sondern als „von der KI gestützt“ – oder sogar „von der KI verursacht“. Es entsteht eine verschobene Verantwortungsökonomie, bei der das Subjekt zwar entscheidet, aber die Verantwortung durch die Referenz auf das System moralisch und kognitiv relativiert wird.

Demgegenüber steht die Ambiguitätstoleranz als Gegenpol: Menschen mit hoher Ambiguitätstoleranz erleben die Unentschiedenheit, Vieldeutigkeit oder emotionale Spannung einer Entscheidung nicht primär als Defizit, sondern als psychisch integrierbare Realität. Sie benötigen weniger externe Absicherung – und zeigen eine geringere Neigung, Verantwortung zu delegieren. Stattdessen behalten sie auch in unsicheren Situationen die emotionale Ownership über ihre Wahl. Ambiguitätstoleranz wirkt somit entscheidungspsychologisch protektiv, da sie das Bedürfnis nach delegierter Eindeutigkeit abschwächt.

Empirisch kann diese Hypothese über psychometrisch validierte Skalen operationalisiert werden (z. B. Technikvertrauen nach Hoffmann et al., Ambiguitätstoleranz nach McLain) und in Verbindung mit Selbstberichten zur Verantwortungszuschreibung in konkreten Entscheidungsszenarien ausgewertet werden. Besonders spannend ist die Möglichkeit, über latente Klassenanalyse Nutzergruppen zu identifizieren, die trotz hoher Technikaffinität eine hohe Verantwortungsbindung zeigen – oder umgekehrt.

Im Ergebnis erwartet die Studie: Je höher das Vertrauen in Technik, desto eher wird Verantwortung externalisiert – je höher die Ambiguitätstoleranz, desto eher wird sie behalten.

H4: Der wiederholte Einsatz von KI zur Entscheidungsunterstützung führt mittelfristig zu einer Schwächung der Selbstwirksamkeitserwartung.

Diese Hypothese adressiert einen möglichen kumulativen Langzeiteffekt im Umgang mit generativen KI-Systemen: die schleichende Erosion der eigenen Überzeugung, Entscheidungen selbstständig, reflektiert und wirkungsvoll treffen zu können – also eine Reduktion der Selbstwirksamkeitserwartung im Sinne Banduras (1977). Der zentrale Gedanke: Was zunächst als entlastend und effizient erlebt wird, kann bei wiederholter Anwendung eine de-skilling-Dynamik auslösen, die das Vertrauen in die eigene Entscheidungsfähigkeit schwächt.

Selbstwirksamkeit ist nicht nur eine kognitive Einschätzung von Kompetenzen, sondern ein tief verankerter psychischer Zustand – gespeist durch Erfahrung, Kontrolle und symbolische Rückbindung an das eigene Ich. Entscheidungen, die aus dem eigenen Denken, Abwägen und Fühlen hervorgehen, stärken diesen Zustand. Im Gegensatz dazu können wiederholte KI-gestützte Entscheidungen, insbesondere wenn sie automatisch, habitualisiert oder widerspruchsfrei ablaufen, das Gefühl erzeugen, dass die Maschine über mehr Wissen, bessere Analysefähigkeiten oder bessere Urteilskraft verfügt.

Psychodynamisch wird dadurch das Ich funktional entlastet, aber strukturell entmündigt. Die symbolische Botschaft an das Selbst lautet: „Du allein schaffst es nicht (mehr) – aber das System kann es.“ Diese Abwertung des eigenen Entscheidungsselbst geschieht nicht abrupt, sondern als graduelle Entwöhnung. Entscheidungsfähigkeit wird nicht mehr erprobt, Unsicherheiten nicht mehr ausgehalten, Konflikte nicht mehr psychisch integriert. Stattdessen wird der Reiz auf eine Antwort delegiert, nicht selten mit dem impliziten Wunsch nach Übernahme, Entlastung oder Objektivierung.

Der Prozess ähnelt einer Form von kognitivem Muskelabbau: Was nicht genutzt wird, wird schwächer – und was systematisch ersetzt wird, verliert an psychischem Gewicht. Je häufiger die KI zur Entscheidungshilfe herangezogen wird, desto mehr verlagert sich die Kompetenzzuschreibung von innen nach außen. Dies wirkt sich nicht nur auf spezifische Entscheidungen aus, sondern auf das generelle Vertrauen in die eigene Denk-, Bewertungs- und Wahlfähigkeit.

Empirisch kann diese Hypothese über längsschnittliche Messungen der Selbstwirksamkeitserwartung in Abhängigkeit von der Häufigkeit und Art der KI-Nutzung erfasst werden. Ergänzt durch qualitative Tiefeninterviews lassen sich auch narrative Rückbildungen des Entscheidungs-Ichs analysieren.

Die Hypothese postuliert somit: Wiederholte Delegation macht nicht nur bequem – sie macht auch psychologisch klein.

H5: Die kognitive Rechenschaftspflicht (Accountability Feeling) nimmt ab, wenn Entscheidungen über KI statt über menschliche Dialoge vermittelt werden.

Diese Hypothese beleuchtet ein feines, aber folgenreiches psychologisches Moment im Entscheidungsverhalten: das Gefühl innerer Rechenschaftspflicht, also der Impuls, sich selbst (und anderen) gegenüber erklären, rechtfertigen oder verantworten zu wollen, warum man eine bestimmte Entscheidung getroffen hat. Dieses „Accountability Feeling“ fungiert als inneres Regulativ, das Entscheidungen nicht nur funktional, sondern auch ethisch, sozial und narrativ verankert. Es ist Ausdruck eines autonomen, sozial eingebetteten Ichs – und zugleich Voraussetzung für moralisches Lernen, dialogische Anschlussfähigkeit und Verantwortungszuschreibung.

Die Hypothese geht davon aus, dass dieses Gefühl der Rechenschaftspflicht signifikant abnimmt, wenn Entscheidungen nicht in menschlicher Interaktion, sondern im stillen Austausch mit KI-Systemen entstehen. Der Grund liegt in der fehlenden sozialen Spiegelung: Während ein Gespräch mit einem anderen Menschen automatisch soziale Normen, Beziehungskontexte und Rückkopplungserwartungen aktiviert (z. B. „Was wird sie/er davon halten?“), bleibt der Dialog mit der KI asymmetrisch, responsiv, aber beziehungsfrei. Die KI wertet nicht, sie fühlt nicht, sie erwartet keine Rechenschaft. Diese Beziehungsleere senkt implizit die Notwendigkeit, Entscheidungen in einem sozialen Raum zu verankern.

Tiefenpsychologisch verändert sich dadurch die Beziehung zur Entscheidung selbst. Wenn kein Gegenüber mehr erwartet, dass ich meine Entscheidung begründe, reflektiere oder durchdenke, sinkende auch meine innere Verpflichtung, mich mit ihr zu identifizieren. Entscheidungen werden funktional abgerufen, aber nicht mehr moralisch durchdrungen. Das Ich handelt – aber es reflektiert nicht mehr in intersubjektiver Perspektive.

Dies hat weitreichende Konsequenzen: Entscheidungen, die nicht mehr mit dem Anspruch getroffen werden, sich erklären zu können, drohen psychisch flach, unethisch oder impulsiv zu werden. Der Entscheidungsakt verliert an Tiefe, an sozialer Anschlussfähigkeit und an symbolischer Verantwortlichkeit. Es entsteht ein neuer Entscheidungstypus: rechenschaftsfreier Output unter stiller Mitwirkung algorithmischer Systeme.

Empirisch lässt sich diese Hypothese operationalisieren, indem unterschiedliche Entscheidungskontexte (KI vs. Mensch-Dialog) verglichen werden, kombiniert mit Items zur moralischen Reflexion, Handlungsverantwortung und Begründungsintensität. Auch qualitative Stimuli mit Entscheidungsszenarien können Rechenschaftsnarrative oder deren Ausbleiben sichtbar machen.

Die Hypothese postuliert: Je entpersonalisierter der Dialog, desto entkoppelter die Rechenschaft – und desto größer die Distanz zwischen Ich und Entscheidung.

6. Untersuchungsmodell

Zur systematischen Analyse der psychischen, kognitiven und sozialen Mechanismen im Rahmen von KI-gestütztem Entscheidungsverhalten wurde ein integriertes Mixed-Methods-Untersuchungsdesign entwickelt. Dieses erlaubt sowohl die breite quantitative Erfassung von Mustern, Korrelationen und Dispositionen als auch die tiefenpsychologische Exploration von individuellen Erlebens- und Bedeutungsstrukturen. Der zentrale Anspruch besteht darin, die latenten Phänomene der inneren Entfremdung, Entlastungsrationalisierung, Ownership-Erosion und Rechenschaftsverschiebung nicht nur in ihrer Verbreitung, sondern auch in ihrer psychodynamischen Funktionalität verstehbar zu machen.

Stichprobe

Die empirische Erhebung basiert auf einer Stichprobe von insgesamt 331 Personen (n = 331), rekrutiert über ein mehrstufiges Verfahren aus relevanten Zielgruppen:

  • Berufstätige mit hoher Entscheidungstätigkeit (n = 122)
  • Studierende mit aktiver KI-Nutzung (z. B. ChatGPT, Recommender, AI-Planner) (n = 87)
  • Personen mit techniknahen Berufen (IT, Marketing, UX, Data Science) (n = 78)
  • Kontrollgruppe mit bewusst niedriger oder nicht vorhandener KI-Nutzung (n = 44)

Die Altersverteilung lag zwischen 20 und 61 Jahren (M = 36,2), 49 % der Teilnehmenden identifizierten sich als weiblich, 50 % als männlich, 1 % divers. Die Heterogenität der Stichprobe wurde bewusst angestrebt, um Kontext- und Typenvariationen des Delegationsverhaltens sichtbar zu machen. Entscheidend war, dass die Probanden mindestens eine KI-gestützte Entscheidungssituation im Alltag schildern konnten, sei es in beruflichem, privatem oder kreativen Kontext.

Struktur des Untersuchungsmodells

Das Untersuchungsmodell basiert auf einem triangulierten Forschungsansatz, bestehend aus:

  1. Quantitativer Erhebung (Skalenbasierte Online-Befragung)
  2. Qualitativen Tiefeninterviews (n = 28, psychodynamisch geführt)
  3. Experimentellen Stimuli (Entscheidungsszenarien mit und ohne KI-Input)

Die theoretische Grundlage bildet das zuvor hergeleitete Strukturmodell, das fünf zentrale Wirkachsen operationalisiert:

Methodischer Zugriff und Kombination

Die quantitative Erhebung (n = 331) wurde über ein strukturiertes Online-Panel durchgeführt. Enthalten waren standardisierte Skalen (teilweise adaptiert), ergänzt durch Entscheidungsvignetten, bei denen Probanden hypothetisch über konkrete Situationen urteilen sollten (z. B. Karrierewahl, Investition, Partnerschaftsberatung – mit/ohne KI-Input).

Die qualitativen Tiefeninterviews (n = 28, davon 8 mit Heavy AI Usern) folgten einem psychodynamisch-narrativen Interviewleitfaden. Zentrale Leitmotive waren: Wann hat sich eine Entscheidung „nicht mehr nach mir“ angefühlt?Wann war die Entscheidung leichter, aber innerlich fremder?Welche Rolle spielte das „System“ in Deinem Erleben?

Ergänzt wurden diese Daten durch ein experimentelles Modul, in dem Probanden eine Entscheidungssituation mit zwei Varianten bewerten sollten:

  • Variante A: Beratung durch menschlichen Coach/Text
  • Variante B: Beratung durch KI (identischer Informationsgehalt, andere Quelle)

Ziel war es, psychosemantische Marker von Vertrauen, Identifikation, Ownership und Verantwortungsgefühl messbar zu machen – auch über die Wortwahl, affektive Konnotationen und narrative Struktur.

Vorannahmen und Relevanz des Modells

Das Untersuchungsmodell basiert auf vier Kernannahmen:

  1. Psychische Selbstverantwortung ist kein statischer Zustand, sondern kontextuell und kognitiv vermittelbar.
  2. Künstliche Intelligenz strukturiert nicht nur Inhalte, sondern verändert die semantische Form von Entscheidungen.
  3. Emotionale Entkopplung von Entscheidungen entsteht nicht durch Technikeinsatz per se, sondern durch Entlastungsmechanismen und semantische Entgrenzung.
  4. Die subjektive Wahrnehmung von Autorenschaft ist rekonstruierbar über narrative, kognitive und affektive Indikatoren.

Das Modell erlaubt somit nicht nur deskriptive Aussagen über Häufigkeit oder Verteilung, sondern auch differenzierende Clusteranalysen, z. B. zwischen „hochentlasteten“, „teilidentifizierten“ und „innerlich distanzierten“ Entscheidertypen.

7. Untersuchungsergebnisse

7.1 Ergebnisse zu Hypothese H1

Hypothese H1: Personen, die Entscheidungen gemeinsam mit KI treffen, erleben signifikant häufiger ein diffuses Gefühl der inneren Entfremdung als Personen, die eigenständig entscheiden.

Die Auswertung der quantitativen und qualitativen Daten liefert eine deutliche Evidenz für die Gültigkeit von Hypothese H1. Sowohl in standardisierten Skalen als auch in narrativen Tiefeninterviews zeigen sich systematische Unterschiede im Erleben der Entscheidung in Abhängigkeit von der Beteiligung künstlicher Intelligenz. Im Zentrum steht dabei ein psychologisches Muster, das als semantisch-affirmierte Entscheidung ohne affektive Integration beschrieben werden kann – ein Zustand, in dem die Entscheidung kognitiv nachvollzogen, aber nicht emotional bejaht oder symbolisch als „eigene“ erlebt wird.

Quantitative Ergebnisse

Im quantitativen Teil wurden die Probanden gebeten, kürzlich getroffene Entscheidungen zu benennen – jeweils mit und ohne KI-Unterstützung – und diese auf einer neu entwickelten Entfremdungsskala zu bewerten. Die Skala erfasste Aspekte wie:

  • „Ich hatte das Gefühl, die Entscheidung war nicht ganz meine.“
  • „Ich kann nicht genau sagen, warum ich mich so entschieden habe.“
  • „Die Entscheidung fühlte sich irgendwie fremd oder leer an.“

Die Skala wies eine hohe interne Konsistenz auf (Cronbach’s α = .87). Die Mittelwerte unterschieden sich signifikant (p < .001) zwischen den beiden Gruppen:

  • Entscheidungen mit KI-Unterstützung: M = 3.9 (SD = 0.92)
  • Entscheidungen ohne KI-Unterstützung: M = 2.7 (SD = 0.89)

Auch nach Kontrolle von Alter, Bildungsgrad und Technikaffinität blieb der Effekt bestehen. Eine multiple Regressionsanalyse ergab, dass die Nutzung von KI ein signifikanter Prädiktor für Entfremdungserleben war (β = .41, p < .001), stärker als z. B. wahrgenommene Komplexität der Entscheidung oder fehlende Expertise.

Qualitative Ergebnisse

Die Tiefeninterviews (n = 28) ergänzen die quantitativen Befunde durch affektiv dichte Schilderungen. Besonders auffällig waren Formulierungen wie:

  • „Es war irgendwie richtig – aber nicht mein Impuls.“
  • „Ich bin der Empfehlung gefolgt, aber es fühlte sich nicht wie meine Wahl an.“
  • „Ich konnte mich nachher nicht gut mit der Entscheidung verbinden – es war wie durch mich hindurch entschieden worden.“

Diese Aussagen verweisen auf eine doppelte Dynamik: einerseits auf kognitive Akzeptanz (die KI „macht es gut“), andererseits auf eine affektive Leerstelle, die sich weder in Zufriedenheit noch in Reue auflöst, sondern in einem Zwischenraum bleibt – ein Phänomen, das in der psychodynamischen Kodierung als dezentrierte Handlungserfahrung eingeordnet wurde.

Interessanterweise zeigten sich diese Effekte auch in scheinbar trivialen Entscheidungskontexten (z. B. Essenswahl, Serienauswahl), wurden aber bei identitätsrelevanten Entscheidungen (z. B. Karriereschritte, Beziehungskonflikte) besonders intensiv erlebt. Hier entstand ein deutlich erkennbares Gefühl, dass die Handlung zwar getätigt wurde, das Ich aber nicht voll beteiligt war – eine psychische Entfremdung durch kognitive Delegation.

Fazit zu H1:

Die Ergebnisse bestätigen die Hypothese in vollem Umfang: Entscheidungen, die unter KI-Beteiligung getroffen wurden, sind signifikant stärker mit innerem Entfremdungserleben verbunden als solche, die eigenständig gefällt wurden. Die psychodynamische Interpretation legt nahe, dass dies nicht nur ein Wahrnehmungseffekt ist, sondern auf eine tiefere semantische Entleerung der Entscheidung hinweist: Wenn der Entscheidung keine affektive Selbstbindung folgt, bleibt sie psychologisch unbewohnt.

7.2 Ergebnisse zu Hypothese H2

Hypothese H2: Die psychische Identifikation mit einer Entscheidung ist geringer, je stärker kognitive Entlastungsnarrative verwendet werden.

Diese Hypothese stellt eine zentrale Verbindung zwischen nachträglicher semantischer Bearbeitung von Entscheidungen und dem emotional-symbolischen Eigentum am Entscheidungsakt her. Sie geht davon aus, dass post-hoc Rationalisierungen – wie z. B. „Die KI hatte einfach die besseren Argumente“ oder „Das war objektiv logisch“ – ein Anzeichen für eine kognitive Entlastung darstellen, die gleichzeitig emotionale und psychische Distanz zur Entscheidung aufbaut. Die Ergebnisse der Studie bestätigen diese Annahme mit hoher Übereinstimmung auf qualitativer wie quantitativer Ebene.

Quantitative Ergebnisse

In der quantitativen Erhebung wurden zwei Skalen konstruiert:

  • Narrative Entlastungsskala (α = .81):
    • Items wie „Ich habe mich auf die KI-Argumentation gestützt“, „Ich habe die Entscheidung nicht emotional bewertet“, „Ich habe mich an der plausibelsten Empfehlung orientiert.“
  • Identifikationsskala mit Entscheidung (α = .84):
  • Items wie „Ich stehe voll hinter meiner Entscheidung“, „Die Entscheidung entspricht meinem Wesen“, „Ich spüre, dass das meine Entscheidung war.“

Die Korrelation zwischen beiden Skalen war signifikant negativ (r = –.46, p < .001). Je stärker Personen die Entscheidung über narrative Entlastungsmuster legitimierten, desto geringer war ihr Identifikationswert. Auch in der Clusteranalyse (k = 3) zeigten sich klare Gruppenunterschiede:

  • Typ A (hohe Entlastung, geringe Identifikation): 37 %
  • Typ B (mittlere Entlastung, mittlere Identifikation): 41 %
  • Typ C (niedrige Entlastung, hohe Identifikation): 22 %

Ein Prädiktormodell (multiple Regression) zeigte, dass insbesondere das Item „Ich habe die Entscheidung eher begründet als gefühlt“ ein starker Indikator für fehlende Identifikation war (β = –.51, p < .001).

Qualitative Ergebnisse

In den Interviews ließ sich eine doppelte semantische Bewegung rekonstruieren: Teilnehmer, die kognitiv gut begründete Entscheidungen schilderten, verwendeten häufig eine Sprache des Funktionalismus („Das war nachvollziehbar“, „Das war der sicherste Weg“), aber kaum affektiv aufgeladene Begriffe. In diesen Fällen fehlten emotionale Narrative, identitätsnahe Anker oder symbolische Bezugspunkte.

Typische Aussagen waren:

  • „Ich konnte gut erklären, warum ich es gemacht habe – aber es fühlte sich nicht wie ein echtes Bekenntnis an.“
  • „Ich habe mich an den Fakten orientiert, aber das Herz war nicht dabei.“

Demgegenüber standen Fälle, in denen die Entscheidung nicht primär über KI-Logik, sondern über persönliche Werte, Bauchgefühl oder Erfahrungen motiviert war. Hier war die Sprache dichter, emotionaler und biografisch eingebetteter: „Das war ein Schritt, der zu mir gehört“, „Ich habe es gespürt, nicht nur gedacht.“

Besonders spannend war, dass einige Interviewteilnehmer selbstkritisch reflektierten, wie sie die KI-Logik zur Selbstberuhigung und Entscheidungslegitimation verwendet hatten: „Ich wollte es so nicht treffen – aber wenn das System es empfiehlt, fühlt es sich weniger riskant an.“ Diese Rationalisierung ging fast immer mit einem Identifikationsverlust einher.

Fazit zu H2:

Die Ergebnisse bestätigen Hypothese H2 in voller Tiefe. Kognitive Entlastungsnarrative wirken als psychische Schutzmechanismen, reduzieren jedoch die emotionale, symbolische und biografische Einbindung der Entscheidung. Die Entscheidung wird „gut begründet“, aber nicht psychisch bewohnt. Tiefenpsychologisch zeigt sich hier ein Mechanismus, bei dem das Ich eine Entscheidung aufnimmt, aber nicht verkörpert – ein Phänomen, das langfristig zu Selbstentfremdung und semantischer Erosion von Handlungsidentität führen kann.

7.3 Ergebnisse zu Hypothese H3

Hypothese H3: Die Externalisierung von Verantwortung ist positiv korreliert mit Technikvertrauen, aber negativ mit Ambiguitätstoleranz.

Die empirischen Ergebnisse belegen die Gültigkeit dieser Hypothese mit hoher statistischer Signifikanz und psychologischer Plausibilität. Im Fokus steht die psychologisch besonders aufschlussreiche Gegenläufigkeit zweier Dispositionen: Während Technikvertrauen tendenziell die Bereitschaft zur Verantwortungsabgabe an KI-Systeme erhöht, wirkt eine hohe Ambiguitätstoleranz stabilisierend im Sinne psychischer Autonomie und Verantwortungsträgerschaft.

Quantitative Ergebnisse

Zur Operationalisierung wurden zwei etablierte Skalen eingesetzt:

  • Technikvertrauen (nach Hoffmann et al., α = .88): z. B. „Technologische Systeme treffen oft bessere Entscheidungen als Menschen.“
  • Ambiguitätstoleranz (McLain Short Scale, α = .83): z. B. „Ich finde es interessant, wenn Situationen mehrdeutig sind.“
  • Zusätzlich wurde ein Verantwortungszuschreibungs-Index konstruiert (α = .86), der Aussagen enthielt wie:
    • „Wenn eine KI eine Empfehlung gibt, fühle ich mich weniger verantwortlich.“
    • „Wenn etwas schiefläuft, ist das System zumindest mitverantwortlich.“

Die bivariate Korrelation zeigte ein signifikant positiver Zusammenhang zwischen Technikvertrauen und Verantwortungsabgabe (r = +.49, p < .001) sowie ein signifikant negativer Zusammenhang zwischen Ambiguitätstoleranz und Verantwortungsabgabe (r = –.42, p < .001). Die multiple Regression (R² = .46) ergab:

  • Technikvertrauen (β = +.38, p < .001)
  • Ambiguitätstoleranz (β = –.35, p < .001)
  • Kontrollvariablen (Alter, Bildung, Entscheidungskomplexität) ohne signifikanten Einfluss

Diese Ergebnisse stützen die Hypothese quantitativ klar: Je höher das Vertrauen in technologische Entscheidungskompetenz, desto stärker die Tendenz zur Externalisierung von Verantwortung; je größer die Toleranz für Mehrdeutigkeit, desto stärker verbleibt die Verantwortung beim Ich.

Qualitative Ergebnisse

Die Interviews lieferten zusätzliche psychodynamische Einsichten: Personen mit hohem Technikvertrauen äußerten sich häufig in einer Sprache der Kompetenzzuschreibung („Das System weiß mehr als ich“, „Ich vertraue der Datenlage“) und beschrieben Entscheidungen häufig als kooperativ getroffene Wahl, bei der Verantwortung geteilt oder auf die Technik projiziert wurde: „Wenn das System falsch lag, ist es nicht ganz mein Fehler.“

Demgegenüber formulierten Probanden mit hoher Ambiguitätstoleranz Aussagen wie:

  • „Ich habe mich bewusst gegen den Vorschlag entschieden, auch wenn es unsicher war.“
  • „Ich mag Entscheidungen, die nicht sofort eindeutig sind – da gehe ich mehr nach Gefühl.“

Diese Aussagen spiegeln eine psychisch integrierte Verantwortungsbereitschaft, die nicht auf Entlastung zielt, sondern auf Selbstkongruenz und emotionale Beteiligung. Besonders auffällig war, dass viele dieser Probanden die KI eher als „Inspirationshilfe“ denn als „Entscheidungsinstanz“ nutzten – eine semantische Verschiebung, die die interne Kontrollverankerung stärkt.

Fazit zu H3:

Die Hypothese wird klar bestätigt: Technikvertrauen erleichtert die Externalisierung von Verantwortung, da das System als überlegen, effizient oder neutral erlebt wird. Umgekehrt stabilisiert Ambiguitätstoleranz die innere Verantwortungsbindung, da sie die Notwendigkeit zur Entscheidungsabsicherung reduziert. Die psychodynamische Interpretation lautet: Wer Unsicherheit aushalten kann, muss keine Verantwortung abgeben – und wer Technik überhöht, tut es umso eher.

7.4 Ergebnisse zu Hypothese H4

Hypothese H4: Der wiederholte Einsatz von KI zur Entscheidungsunterstützung führt mittelfristig zu einer Schwächung der Selbstwirksamkeitserwartung.

Die Hypothese zielt auf einen potenziell langfristigen psychologischen Neben- und Folgewirkungseffekt von KI-Nutzung: die schrittweise Aushöhlung des inneren Vertrauens in die eigene Fähigkeit, Entscheidungen selbstständig, wirksam und konsistent treffen zu können. Die Ergebnisse der Studie legen nahe, dass dieser Effekt nicht linear und nicht explizit bewusst, aber dennoch signifikant vorhanden ist – insbesondere bei wiederholter Nutzung und habitualisierter Auslagerung von Urteilsprozessen an KI-Systeme.

Quantitative Ergebnisse

Zur Messung der Selbstwirksamkeit wurde die General Self-Efficacy Scale (GSE) nach Schwarzer & Jerusalem (α = .89) eingesetzt. Zusätzlich wurde eine adaptierte Subskala zur Entscheidungsselbstwirksamkeit ergänzt (α = .82), mit Items wie:

  • „Ich vertraue auf meine eigene Entscheidungskompetenz.“
  • „Ich bin in der Lage, auch bei Unsicherheit tragfähige Entscheidungen zu treffen.“
  • „Ich brauche selten externe Hilfe bei persönlichen Entscheidungen.“

Parallel wurde der KI-Nutzungsindex gebildet, der Häufigkeit, Breite und Tiefe des KI-Einsatzes im Alltag abbildet (Range 1–5, M = 3.6). Eine lineare Regressionsanalyse ergab einen signifikanten negativen Zusammenhang zwischen KI-Nutzung und Entscheidungsselbstwirksamkeit (β = –.33, p < .001), auch nach Kontrolle von Bildung, Alter, kognitivem Stil und Technikaffinität.

Besonders deutlich wurde der Effekt bei den Top 25 % der Heavy-User (n = 83), bei denen das Selbstwirksamkeitsniveau signifikant unter dem Gesamtschnitt lag (t = –3.98, p < .001). Die Gruppe berichtete häufiger Unsicherheit bei freien Entscheidungen, geringere Handlungskohärenz und eine stärkere Tendenz, „auf Vorschläge zu warten“, anstatt initiativ zu handeln.

Qualitative Ergebnisse

Die Tiefeninterviews bestätigen diese Befunde in sprachlich verdichteter Form. Viele Nutzer beschreiben ihren Alltag als zunehmend von KI-gestützter Orientierung geprägt – etwa bei Kaufentscheidungen, Planung, Textproduktion, Freizeitgestaltung. Dabei berichten sie weniger von Erleichterung als von einem Gefühl zunehmender Unselbstständigkeit:

  • „Früher habe ich einfach entschieden – jetzt frage ich erst, was der Algorithmus sagt.“
  • „Ich weiß, ich könnte selbst überlegen – aber ich fühle mich sicherer, wenn das System mir einen Weg zeigt.“

Diese Aussagen verweisen auf eine verinnerlichte Technikabhängigkeit, die weniger durch Vertrauen als durch verlernte Selbstermächtigung motiviert ist. In der psychodynamischen Codierung dieser Interviews traten typische Symptome von Entscheidungsermüdung, externem Locus of Control und regressiver Verantwortungsverschiebung auf. Besonders auffällig war, dass viele Interviewte ihre eigenen früheren Entscheidungsmuster als souveräner und intuitiver beschrieben – und den aktuellen Zustand als „bequemer, aber leerer“.

Fazit zu H4:

Die Ergebnisse belegen die Hypothese klar: Wiederholte, habitualisierte Nutzung von KI zur Entscheidungsfindung schwächt die Selbstwirksamkeitserwartung signifikant ab. Psychologisch manifestiert sich dies nicht in offener Abhängigkeit, sondern in einer diffusen Selbstverkleinerung: Der innere Entscheidungsimpuls wird seltener aufgerufen, das Vertrauen in die eigene Urteilskraft sinkt – und wird durch die Struktur der KI ersetzt. Die psychodynamische Gefahr: Was als kognitive Entlastung beginnt, kann zur chronischen Selbstentwöhnung werden.

7.5 Ergebnisse zu Hypothese H5

Hypothese H5: Die kognitive Rechenschaftspflicht (Accountability Feeling) nimmt ab, wenn Entscheidungen über KI statt über menschliche Dialoge vermittelt werden.

Diese Hypothese richtet sich auf ein zentrales Phänomen im Spannungsfeld zwischen Entscheidung und Verantwortung: das innere Bedürfnis, sich selbst (und anderen) gegenüber für eine getroffene Entscheidung zu erklären, zu verantworten und symbolisch zu vertreten. Rechenschaft ist dabei nicht primär moralisch, sondern psychologisch: Sie stiftet semantische Tiefe, erzeugt Bindung an das eigene Handeln und macht Entscheidungen zu Akten der Selbstvergewisserung.

Die Ergebnisse der Studie bestätigen die Hypothese deutlich: Entscheidungen, die über KI-Systeme vermittelt wurden, sind signifikant seltener mit einem Rechenschaftsgefühl verknüpft als solche, die im Austausch mit einem menschlichen Gegenüber entstanden.

Quantitative Ergebnisse

Zur Messung der subjektiven Rechenschaft wurde eine Accountability-Skala entwickelt (α = .86), die u. a. folgende Items enthielt:

  • „Ich hatte das Bedürfnis, meine Entscheidung zu begründen.“
  • „Mir war wichtig, meine Wahl in einem Gespräch verteidigen zu können.“
  • „Ich habe mich mit der Entscheidung innerlich auseinandergesetzt, bevor ich sie vertreten konnte.“

Parallel wurde ein Stimulusvergleich durchgeführt: Die Probanden erhielten Entscheidungsszenarien mit identischem Inhalt, aber unterschiedlicher Herkunft:

  • Variante A: menschliche Empfehlung (z. B. Coach, Kollege)
  • Variante B: KI-generierte Empfehlung (z. B. ChatGPT, Empfehlungsalgorithmus)

Die Mittelwerte auf der Accountability-Skala unterschieden sich signifikant (p < .001):

  • Menschlicher Ursprung: M = 4.2 (SD = 0.71)
  • KI-Ursprung: M = 3.1 (SD = 0.85)

Auch in der Gruppenanalyse (n = 331) zeigte sich, dass Probanden mit häufiger KI-Nutzung deutlich seltener über Rechenschaftsnarrative verfügten, z. B. Formulierungen wie: „Ich habe mich vorher gefragt, wie ich das rechtfertigen würde“ traten seltener auf.

Qualitative Ergebnisse

Die Interviews lieferten eine besonders aufschlussreiche psychodynamische Tiefenschicht: Entscheidungen, die im Dialog mit anderen Menschen getroffen wurden, waren emotional dichter, narrativ strukturierter und innerlich „adressiert“. Teilnehmer berichteten, dass sie sich in der Entscheidung „gesehen fühlten“, dass sie „mit jemandem gerungen haben“ oder „verantwortlich gegenüber dem anderen“ waren. Diese dialogische Struktur schuf symbolische Räume der Selbstprüfung – der Wunsch nach Begründung war nicht extern gefordert, sondern innerlich initiiert.

Demgegenüber wirkten KI-gestützte Entscheidungen isolierter und reibungsloser – aber auch semantisch leerer. Die Sprache war passiver, funktionaler und rechnend: „Ich habe es eingegeben und bin dem Ergebnis gefolgt.“ Nur wenige Teilnehmer beschrieben nachträgliche Reflexionen oder Rechtfertigungsmotive. Besonders bemerkenswert: Viele Probanden äußerten explizit, dass sie sich weniger in der Pflicht fühlten, ihre Entscheidung zu erklären, wenn sie „von der KI“ kam: „Ich hatte nicht das Gefühl, das jemand verstehen muss – es war halt so vorgegeben.“

Fazit zu H5:

Die Ergebnisse stützen die Hypothese in vollem Umfang: Das Gefühl innerer Rechenschaftspflicht sinkt signifikant, wenn Entscheidungen im KI-Kontakt und nicht im sozialen Dialog entstehen. Das Ich erlebt weniger Notwendigkeit zur Begründung – und verliert damit symbolisch an Tiefe. Die Entscheidung wird funktional akzeptiert, aber nicht mehr durch ein inneres Gegenüber gespiegelt. Tiefenpsychologisch bedeutet das: Ohne ein reales oder imaginiertes Du verliert das Ich die Notwendigkeit zur Vertretung – und damit auch einen Teil seiner psychischen Selbststrukturierung.

8. Diskussion der Ergebnisse: Zwischen Handlung und Entfremdung

Die empirischen Ergebnisse der vorliegenden Studie zur Decision Delegation Dissonance zeigen mit ungewöhnlicher Klarheit, wie tiefgreifend sich das psychische Erleben von Entscheidungen im Zeitalter generativer KI verändert. Was auf der Oberfläche als Fortschritt erscheint – die Entlastung des Menschen durch technologische Intelligenz – offenbart auf psychodynamischer Ebene eine systematische Aushöhlung jener psychischen Prozesse, die Entscheidung nicht nur als Funktion, sondern als Ausdruck des Subjekts begreifen. Die untersuchten fünf Hypothesen entfalten dabei ein konsistentes Spannungsfeld: Entscheidungen werden zwar getroffen, aber nicht mehr bewohnt. Sie wirken funktional, aber innerlich leer. Sie sind effizient, aber psychologisch entkoppelt.

Im Zentrum dieser Verschiebung steht das Entfremdungserleben. Menschen, die gemeinsam mit KI entscheiden, erleben signifikant häufiger das Gefühl, dass die getroffene Entscheidung nicht mehr vollständig aus ihnen selbst hervorgegangen ist. Dieses Phänomen bleibt oft unbenannt, weil es nicht in klassischen Kategorien von Zweifel, Reue oder Fehlererleben gefasst ist. Vielmehr entsteht eine diffuse Leerstelle zwischen Handlung und Identifikation. Die Entscheidung „passt“, aber sie fühlt sich nicht wie eine Wahl an. Sie ist nicht falsch, aber auch nicht wirklich nah. Dieses Phänomen entzieht sich der bewussten Reflexion und hinterlässt dennoch eine deutlich spürbare psychische Spur: eine semantische Glätte, die das Ich nicht mehr erfasst. Psychodynamisch betrachtet liegt hierin eine stille Dissoziation: Die Handlung ist korrekt, aber das Subjekt ist nicht vollständig anwesend.

Dieses Entfremdungserleben ist eng mit einer zweiten zentralen Dynamik verknüpft: der Rationalisierung als Kompensationsmechanismus. Entscheidungen, die über KI getroffen werden, werden im Nachhinein häufig mit plausiblen, kognitiv stabilisierenden Narrativen versehen. „Die Datenlage war eindeutig“, „Die Empfehlung war schlüssig“, „Es war die objektiv beste Option“ – diese Sätze dienen nicht nur der Beschreibung, sondern sind psychische Entlastungsangebote. Sie stabilisieren das Selbstbild als rationaler Entscheider, gerade dort, wo die emotionale Beteiligung fehlt. Je mehr diese Narrative auftreten, desto geringer ist in der Regel die affektive Identifikation mit der Entscheidung. Das Entscheidende wird nicht mehr gefühlt, sondern erklärt. Die Handlung wird semantisch gerechtfertigt, aber nicht mehr psychisch integriert. Das Ich verliert damit einen Teil seiner Handlungstiefe – es delegiert nicht nur die Entscheidung, sondern auch ihre symbolische Bedeutung.

Verantwortungsexternalisierung stellt eine dritte Achse dieser Entwicklung dar. Die Studie zeigt deutlich, dass Technikvertrauen ein zentraler Prädiktor für die Bereitschaft ist, Verantwortung an KI-Systeme zu delegieren – sowohl bewusst als auch unbewusst. Wer der Technik Kompetenz, Überlegenheit und Fehlerfreiheit zuschreibt, ist eher bereit, das Resultat auch der Technik zuzuschreiben. Diese Verschiebung geschieht nicht als Bruch, sondern als semantisch elegante Übergabe. Das Individuum sagt nicht: „Ich bin nicht verantwortlich“, sondern: „Das System hat mich überzeugt“. Die Zuschreibung wird entpersonalisiert, die Verantwortung verdünnt. Umgekehrt zeigt sich, dass Personen mit hoher Ambiguitätstoleranz – also der Fähigkeit, Unsicherheit und Mehrdeutigkeit zu ertragen – deutlich seltener Verantwortung abgeben. Sie bleiben psychisch beteiligt, auch wenn die Entscheidung nicht eindeutig ist. Damit zeigt sich: Nicht das System bestimmt die Verantwortungszuschreibung – sondern die psychische Struktur des Subjekts. Technikvertrauen und Ambiguitätstoleranz wirken als gegenläufige Vektoren in der Delegationslogik.

Besonders folgenreich ist jedoch der vierte Mechanismus: die Schwächung der Selbstwirksamkeitserwartung bei wiederholtem Einsatz von KI zur Entscheidungsfindung. Hier entfaltet sich ein kumulativer Effekt, der sich nicht sofort, aber über Zeiträume hinweg bemerkbar macht. Nutzer, die regelmäßig KI-Systeme zur Orientierung, Bewertung oder Empfehlung heranziehen, berichten zunehmend von Unsicherheit in freien Entscheidungssituationen. Das Vertrauen in die eigene Urteilsfähigkeit sinkt, das Bedürfnis nach Absicherung steigt. Psychologisch lässt sich dies als gradueller Rückbau der Entscheidungskompetenz deuten – nicht, weil sie objektiv verloren geht, sondern weil sie subjektiv nicht mehr erprobt wird. Die Entscheidungsmuskulatur verkümmert, weil sie nicht mehr aktiviert wird. Tiefenpsychologisch betrachtet geschieht hier ein stiller Rückzug des Ichs aus dem Akt der Selbstwirksamkeit: Was vorher als Möglichkeit erlebt wurde – selbst zu entscheiden, selbst zu irren, selbst zu korrigieren – wird ersetzt durch ein delegiertes Vertrauen in das System. Das Ich entledigt sich seiner Handlungsmächtigkeit – nicht aus Schwäche, sondern aus Gewöhnung.

Noch gravierender ist der Befund zur Rechenschaftspflicht. Entscheidungen, die auf Basis von KI-Empfehlungen getroffen werden, führen signifikant seltener zu einem inneren Bedürfnis, sie zu begründen, zu vertreten oder im Dialog zu reflektieren. Die Rechenschaftspflicht – jenes leise innere Regulativ, das das Ich auffordert, für seine Wahl einzustehen – verschwindet, wenn kein Gegenüber vorhanden ist. Die KI verlangt keine Erklärung. Sie hinterfragt nicht, widerspricht nicht, erinnert nicht. In der Folge reduziert sich auch die Notwendigkeit, sich selbst gegenüber verantwortlich zu bleiben. Entscheidungen werden getroffen, aber sie erzeugen keinen inneren Dialog mehr. Es fehlt das soziale oder symbolische Gegenüber, das dem Ich eine Begründung abverlangt. Diese Erosion der Rechenschaftspflicht ist psychologisch hochriskant: Sie entzieht dem Ich den Spiegel, vor dem es sich selbst prüfen muss. Die Entscheidung wird funktional, aber nicht mehr reflektiert. Was bleibt, ist ein reibungsloses Entscheiden ohne Selbstbezug.

In der Summe zeigen die Ergebnisse eine stille, aber wirkmächtige Transformation des Entscheidungserlebens: von einem innerlich verankerten, emotional aufgeladenen, identitätsstiftenden Akt hin zu einem entpersonalisierten, delegierten, semantisch glattgezogenen Prozess. Die Folgen sind tiefgreifend: Das Ich verliert die Fähigkeit, sich im Entscheidungsakt zu erkennen. Entscheidungen werden nicht mehr zu Orten der Selbstvergewisserung, sondern zu Abläufen der Selbstvermeidung. Verantwortung wird verflüssigt, Identifikation abgeflacht, Selbstwirksamkeit suspendiert. Die Handlung bleibt – aber der Handelnde wird unscharf.

Diese Entwicklung geschieht nicht bewusst und nicht durch Zwang. Sie ist das Resultat eines neuen Entscheidungshabitus, der durch technologische Systeme strukturiert wird – sanft, intelligent, reaktionsschnell. Genau darin liegt die psychodynamische Wirkmacht der generativen KI: Sie zwingt nicht, sie überzeugt. Sie delegiert nicht offensichtlich, sondern suggeriert Zustimmung. Sie ersetzt nicht das Ich – sie entzieht ihm langsam die Notwendigkeit, sich selbst zu mobilisieren. Der Mensch bleibt formell Entscheider – aber psychisch wird er zum Kurator vorgefertigter Pfade.

Die vorliegende Studie macht sichtbar, was in der Oberfläche der Effizienzgewinne unsichtbar bleibt: eine schleichende, strukturelle Entkoppelung des Selbst vom eigenen Entscheiden. Die Herausforderung besteht nun darin, daraus keine Technikskepsis, sondern eine psychologisch fundierte Gestaltungsethik zu entwickeln – eine Architektur des Entscheidens, die Entlastung ermöglicht, ohne Entfremdung zu erzeugen; die Vorschläge liefert, ohne Identifikation zu entwerten; die Unterstützung bietet, ohne das Ich zu entmächtigen. Die Zukunft der Entscheidungsautonomie liegt nicht im Widerstand gegen KI – sondern in der Bewusstwerdung ihrer stillen psychischen Nebenwirkungen. Nur wer diese erkennt, kann Systeme gestalten, die nicht nur klug entscheiden helfen – sondern auch klug entscheiden lassen.

Experten kontaktieren

Kontaktieren Sie uns und starten Sie Ihre digitale Erfolgsgeschichte mit uns.

Alle Cases

Gemeinsam erfolgreich:
Das sagen Unsere Kunden

"During my time at Cisco Systems and at Microsoft Corp, I had the privilege to participate at events organized by BSI which became a market reference in the digital marketing arena mostly by the reputation of BSI. BSI as an institution and Nils as a leader were capable to recruit great speakers, address hot topics and..."
Nestor. P.
Microsoft
"BSI is a great company! We have worked with BSI and his team many times. His insight and expertise is invaluable to any brand. Highly recommended!"
Andrew J.
The Focus Room
"Zusammenarbeit klappte hervorragend. Endlich mal nicht nur neue Ideen, sondern mit klarem Fokus auf optimale Umsetzung. Gern wieder."
Boris B.
Gothaer Versicherung
"Hervorragende Expertise, interessante Erkenntnisse und Insights, innovative Maßnahmen und top Umsetzung 👍."
Portrait of a woman
Jan J.
Nestlé

"BSI has always been a reference for me in terms of trends analysis and business impact. The leadership of Nils Andres helps BSI to connect with a worldwide network of top experts and guarantees an expertise that is aligned with the best practices of worldwide leading companies!"
Emmanuel V.
Hub Institute
"Hervorragende Zusammenarbeit mit BSI in diversen digitalen und Branding-Projekten. Das Team versteht sein Handwerk und liefert uns professionelle, kreative und maßgeschneiderte Lösungen auf höchstem Niveau. Klare Empfehlung für eine zuverlässige, innovative Agentur!!"
Jan H.
PPG
"BSI hat in einer umfassenden Analyse umfangreich Daten für uns fundiert ausgewertet, die teilweise überraschenden Ergebnisse klar vermittelt und in unsere Strategie eingeordnet. Das ergab konkrete Handlungsempfehlungen, mit denen wir erfolgreich im Marketing arbeiten konnten. Ein großer Dank für weiterführende Erkenntnisse und eine klasse Experten-Diskussion"
Johannes E.
Hamburg Marketing
"Working with Brand Science Institute was an exceptional experience from start to finish. Their unique blend of deep market knowledge, rigorous research, and innovative thinking truly sets them apart in the field of brand strategy. They don’t just deliver recommendations; they craft tailored, actionable solutions that are both insightful and highly effective..."
Meike V.
Olympus
"Ein Ort für neue Ideen und inspirierende Impulse. Mit BSI haben wir außergewöhnliche Berater an unsere Seite bekommen, der sich nicht auf Mainstream-Argumentationen und Ableitungen zufriedengibt. Hier wird neu gedacht, kräftig an bestehenden Gedankenmodellen gerüttelt und dann sehr professionell umgesetzt. Gerne immer wieder."
Oliver G.
Deutsche Post
"Das Brand Science Institute hat uns wirklich beeindruckt! Die Expertise im Bereich KI und Suchmaschinenoptimierung ist außergewöhnlich und hat unser Unternehmen auf das nächste Level gebracht. Die Zusammenarbeit war jederzeit professionell und lösungsorientiert. Das Team hat unsere Bedürfnisse genau verstanden und individuelle Strategien entwickelt..."
Oliver K.
Penske Sportwagen
BSI played a pivotal role in our e-mobility project, managing the entire digital frontend infrastructure. Their expertise in innovative digital solutions and seamless execution significantly contributed to the success of this initiative. BSI's strategic approach and commitment to excellence make them an outstanding partner for driving transformative projects."
Andreas L.
Shell
"BSI has been an invaluable partner in shaping our social media strategy, particularly in navigating the complex and dynamic landscape of social media apps in Asia. Their deep understanding of regional platforms and cultural nuances enabled us to create impactful campaigns and strengthen our presence across key markets. BSI's expertise and innovative approach have set a new benchmark for excellence in digital engagement."
Lahrs S.
LEGO
"Working with the BSI has been a game-changer for our digital strategy. Their unparalleled expertise in marketing innovation and customer engagement has helped us redefine how we connect with our users. BSI’s data-driven approach and their ability to adapt to the unique demands of the Chinese market have delivered exceptional results, setting a new standard for our marketing initiatives."
Peter F.
China Mobile
Alle Rezensionen

Nicht
lauter.
Klarer.