Wir leben in einer Zeit, in der die Maschine den Menschen längst überholt hat – zumindest in Bereichen, die noch vor Kurzem als „exklusiv menschlich“ galten. Künstliche Intelligenz kann Texte verfassen, Bilder gestalten, Stimmen imitieren, Musik komponieren und sogar Ideen entwickeln. Sie tut all das schneller, präziser und effizienter als jeder Mensch. Doch genau in diesem Moment, in dem die Maschine scheinbar unaufhaltsam zur kreativen Superkraft wird, offenbart sich ein Paradox: Je perfekter die KI arbeitet, desto wertloser erscheinen ihre Ergebnisse in den Augen der Konsumenten.
Nicht die Qualität des Outputs entscheidet, sondern die Zuschreibung seiner Herkunft. Dieselbe Arbeit, derselbe Satz, dasselbe Bild – sobald es mit „von KI erstellt“ markiert wird, bricht sein Wert ein. Konsumenten bewerten es schlechter, entziehen ihm Authentizität, zweifeln seine Bedeutung an. Es ist, als würde ein unsichtbarer Filter zwischen Output und Rezeption liegen. Der Mensch sucht nicht das Perfekte, er sucht das Menschliche.
„Made by Human“ wird damit zur letzten verbleibenden Währung im Zeitalter der KI. Alles andere wirkt wie Falschgeld: äußerlich ähnlich, aber innerlich wertlos.
Konsumenten betrachten KI-Arbeiten wie Fälschungen. Sie mögen auf den ersten Blick beeindruckend aussehen, doch sie tragen nicht das unsichtbare Siegel der menschlichen Erfahrung. Genau darin liegt ihr Makel. Ein von Menschen geschaffenes Werk – ob Gedicht, Design oder Strategiepapier – ist mehr als sein sichtbarer Output. Es ist ein Symbol für Anstrengung, Intention, Verantwortung. Es trägt die Geschichte seiner Entstehung in sich. KI dagegen hat keine Intention, keine Verantwortung, keine Geschichte. Sie produziert, aber sie erschafft nicht.
Damit wird jeder maschinelle Output, so makellos er auch erscheinen mag, zum Wertverlust. Er wird abgewertet, nicht weil er objektiv schlechter wäre, sondern weil er als seelenlos empfunden wird.
Noch härter trifft es die Arbeiten, die in Kooperation zwischen Mensch und Maschine entstehen. Man könnte vermuten, dass sie das Beste aus beiden Welten vereinen: menschliche Intuition und maschinelle Geschwindigkeit. In der Realität jedoch werden sie von Konsumenten als toxische Grauzone wahrgenommen. Hybride Arbeiten sind der Inbegriff von Verrat: Sie wirken, als hätte der Mensch sich die Mühe gespart, als hätte er seine eigene Kreativität ausgelagert, als hätte er betrogen.
Während reine KI-Arbeiten zumindest eindeutig maschinell sind, erscheinen hybride Ergebnisse als Abkürzung, die den Wert menschlicher Anstrengung entwertet. Sie sind das „falsche Spiel“ im Grenzbereich. Deshalb werden sie nicht milder, sondern radikaler abgewertet.
Warum reagieren Menschen so extrem? Die Mechanismen liegen tiefer, als es auf den ersten Blick scheint.
Erstens geht es um Authentizität. In unserer Kultur ist Wert untrennbar mit menschlicher Herkunft verbunden. Authentizität entsteht nicht im Werk selbst, sondern in der Zuschreibung, dass es aus Erfahrung, Hingabe und Leben geboren wurde. KI kann imitieren, aber sie kann nicht fühlen, nicht erleben. Ohne menschlichen Ursprung wirkt jedes Ergebnis wie ein Zitat ohne Quelle – leer, fremd, seelenlos.
Zweitens geht es um Kontrolle. Menschen suchen in Arbeiten Intention und Verantwortung. Hinter jedem Text, jedem Bild steht normalerweise ein Autor, der Entscheidungen getroffen hat. Maschinen haben keine Intention, keine Schuld, kein Gesicht. Das macht sie schwer einschätzbar und damit weniger vertrauenswürdig. Fehler von Menschen sind „menschlich“; Fehler von Maschinen sind „Systemversagen“.
Drittens wirkt die moralische Abwertung. In unserer Symbolik ist Kreativität mit Mühe und Hingabe verknüpft. Ein Bild, das in Sekunden generiert wird, wirkt wie eine billige Abkürzung. Es erscheint unverdient. Deshalb werden KI-Ergebnisse nicht nur neutral bewertet, sondern moralisch abgewertet: Sie gelten als Betrug an der Anstrengung.
Viertens spielt die Statusangst eine Rolle. Wenn Maschinen das können, was bisher exklusiv menschlich war, bedrohen sie das Selbstverständnis des Menschen. Abwertung wird zum Abwehrmechanismus. Indem Konsumenten KI-Ergebnisse abwerten, verteidigen sie ihre eigene Unersetzbarkeit.
Und fünftens wirkt das Attributionsgift. Der Absender entscheidet mehr über den Wert als das Werk selbst. Dieselbe Arbeit – einmal als „menschlich“, einmal als „KI“ markiert – wird fundamental unterschiedlich bewertet. Es ist nicht die Qualität, sondern die Herkunft, die zählt.
All diese Mechanismen führen zu einer radikalen Konsequenz: In einer Welt, in der Maschinen alles können, bleibt Menschlichkeit der letzte Rest von Bedeutung. Das Label „Made by Human“ wird zum Premiumzeichen der Zukunft. Es markiert Authentizität, Intention und Resonanz. Alles andere – so perfekt es auch sein mag – bleibt eine Simulation von Wert.
Das ist die zentrale These dieser Studie: KI produziert Ergebnisse, aber sie kann keinen Wert erzeugen. Wert entsteht durch Zuschreibung, durch die Geschichte hinter einem Werk, durch die soziale und psychologische Bedeutung, die nur Menschen verkörpern können.
Wir wollen in dieser Untersuchung zeigen, dass die Abwertung von KI-Arbeiten keine kurzfristige Skepsis ist, die mit wachsender Gewöhnung verschwindet. Im Gegenteil: Sie ist Ausdruck tiefer psychologischer Strukturen. Menschen sind bereit, Maschinen Effizienz zuzugestehen – aber sie verweigern ihnen Bedeutung.
Unsere Erwartung ist klar: Rein menschliche Arbeiten werden systematisch höher bewertet. Hybride Arbeiten sind die am stärksten abgewertete Zone, weil sie Verrat symbolisieren. Reine KI-Arbeiten erscheinen seelenlos, aber weniger verlogen. Selbst Nutzer von KI-Tools entwerten die Ergebnisse – wenn auch weniger radikal.
Die systematische Abwertung von KI-Arbeiten durch Konsumenten ist nicht als oberflächlicher Anpassungseffekt oder als Übergangsphänomen einer noch jungen Technologie zu begreifen. Vielmehr lässt sie sich auf tief verankerte kulturelle, psychologische und soziologische Mechanismen zurückführen, die seit der Moderne bestimmen, wie Wert, Echtheit und Bedeutung sozial konstruiert werden. Im Zentrum dieser Dynamik stehen Kategorien wie Authentizität, Vertrauen, Moral, Status und Attribution, die durch die Präsenz von KI in kreativen und wissensbasierten Feldern auf neue Weise herausgefordert werden.
Besonders zentral ist die Kategorie der Authentizität. Lionel Trilling hat Authentizität bereits in den 1970er Jahren als kulturellen Imperativ beschrieben, der das Selbstverständnis moderner Subjekte prägt. Charles Taylor formulierte später, dass nur das als wertvoll gilt, was in einem „Dialog mit dem inneren Selbst“ steht. Auch die Konsumforschung hat Authentizität längst als ökonomische Währung identifiziert, die weit über die Funktionalität eines Produkts hinausreicht (Gilmore & Pine). Wenn Konsumenten ein Werk, sei es ein Bild, ein Text oder ein Konzept, als authentisch wahrnehmen, dann schreiben sie ihm Tiefe, Sinn und Legitimität zu. Wird ein identisches Werk jedoch als von einer Maschine erzeugt deklariert, zerfällt diese Zuschreibung. Es fehlt der ontologische Anker, der Hinweis auf eine empfindende, erfahrende und intentionale Quelle. Genau dieser Bruch erklärt, warum KI-Ergebnisse trotz objektiver Qualität als leer, imitativ und seelenlos empfunden werden.
Eng verknüpft damit ist das Phänomen der Algorithm Aversion. Bereits Dietvorst, Simmons und Massey konnten zeigen, dass Menschen maschinelle Entscheidungen systematisch schlechter bewerten als menschliche – selbst dann, wenn die Maschine objektiv bessere Ergebnisse liefert. Der Grund liegt im Verhältnis von Fähigkeit, Wohlwollen und Integrität (Mayer, Davis & Schoorman). Maschinen signalisieren zwar Fähigkeit, doch es fehlt ihnen an Intentionalität und Verantwortungsfähigkeit. Sie haben kein Gesicht, keine Absicht und keine moralische Integrität. Fehler von Menschen werden als „menschlich“ toleriert, Fehler von Maschinen dagegen als systemisches Versagen interpretiert. Das erzeugt ein Klima von epistemischem Misstrauen, das in kreativen und identitätsnahen Bereichen besonders stark wirkt. Dort geht es nicht nur um die Richtigkeit, sondern um die Bedeutung einer Arbeit. Genau hier kippt maschinelle Produktion in Abwertung.
Eine weitere zentrale Dimension ist die Moral der Mühe. Richard Sennett hat in „The Craftsman“ gezeigt, dass der Wert von Arbeit untrennbar mit Anstrengung, Hingabe und Zeitinvestition verknüpft ist. Psychologische Forschung beschreibt diesen Mechanismus als Effort Heuristic: Je sichtbarer die Mühe, desto höher die wahrgenommene Qualität. Hinzu kommt der sogenannte IKEA-Effekt, nach dem selbstgeleistete Arbeit den subjektiven Wert massiv steigert. KI jedoch entzieht jedem Produkt diesen unsichtbaren Wertstrom. Sie schafft in Sekunden, wofür Menschen Tage brauchen. Das Ergebnis erscheint dadurch nicht nur effizient, sondern unverdient. Konsumenten reagieren mit moralischer Abwertung, weil sie den Eindruck haben, dass hier eine Abkürzung genommen und ein kultureller Code der Legitimität verletzt wurde. Besonders hybride Arbeiten geraten in diese Falle, weil sie als Versuch erscheinen, menschliche Mühe zu simulieren und gleichzeitig durch maschinelle Abkürzung zu entwerten.
Noch tiefer reicht die Dimension der Statusangst. Nach der sozialen Vergleichstheorie (Festinger) stabilisieren Menschen ihren Selbstwert durch Vergleiche in Feldern, in denen sie sich überlegen fühlen. Kreativität und Intelligenz galten lange als exklusiv menschliche Domänen. Wenn nun Maschinen diese Felder betreten, wird das Fundament solcher Vergleiche erschüttert. Die Abwertung von KI-Arbeiten wird so zu einem psychologischen Abwehrmechanismus, der die eigene Unersetzbarkeit verteidigt. Über Bourdieus Theorie der Distinktion lässt sich dies noch schärfer fassen: Kreative Praxis stiftet symbolisches Kapital. Wird sie automatisierbar, droht dieses Kapital zu entwerten – und die einzige Verteidigungsstrategie besteht darin, die maschinelle Produktion systematisch abzuwerten.
Schließlich entfaltet die Attribution eine entscheidende Rolle. Fritz Heider und Harold Kelley haben gezeigt, dass Menschen die Ursachen von Handlungen stärker gewichten als deren Ergebnisse. Im Kontext der KI heißt das: Nicht was vorliegt, sondern wer es hervorgebracht hat, entscheidet über Wert. Forschung zu Originalität und Aura (Newman & Bloom) belegt, dass der Kontakt zu einem menschlichen Autor – selbst wenn er nicht sichtbar ist – den Wert eines Werkes steigert. Umgekehrt entzieht das Label „KI“ dieser Zuschreibung jede Resonanz. Das Werk mag identisch sein, doch es verliert seinen Wert, weil es keine Geschichte, keine Intention und keine Quelle im Menschlichen mehr hat.
Aus dieser theoretischen Perspektive ergibt sich ein konsistentes Bild: Die Abwertung von KI-Arbeiten ist kein Zufall, sondern Ausdruck tiefer kultureller Codes. Sie entsteht dort, wo Authentizität zerbricht, Vertrauen erodiert, Mühe entwertet, Status bedroht und Attribution vergiftet wird. In diesem Geflecht verliert die Maschine systematisch an Wert – und das Menschliche wird zur letzten Bastion ökonomischer, sozialer und kultureller Bedeutung.
Die erste Hypothese dieser Studie geht von einer fundamentalen Annahme aus: Menschen bewerten nicht primär Ergebnisse, sondern Zuschreibungen. In allen kulturellen und ökonomischen Kontexten der Moderne hat sich gezeigt, dass die Herkunft eines Werkes oft wichtiger ist als seine objektive Qualität. Lionel Trilling hat dies als „Kult der Authentizität“ beschrieben, Charles Taylor als „Dialog mit dem inneren Selbst“ gedeutet, und die Konsumforschung hat Authentizität längst als eigenständige Währung identifiziert, die weit über Funktionalität hinausgeht (Gilmore & Pine). Wenn Konsumenten ein Werk als Ausdruck einer menschlichen Intention wahrnehmen, dann schreiben sie ihm Tiefe, Bedeutung und Legitimität zu. Wird derselbe Output jedoch als „von einer Maschine erzeugt“ deklariert, zerfällt diese Zuschreibung. Das Werk verliert nicht nur an emotionaler Resonanz, sondern auch an sozialer Anerkennung. Diese Dynamik folgt der Logik, dass Wert nicht im Objekt selbst liegt, sondern in der Geschichte seiner Entstehung.
Untersuchungen zu Algorithm Aversion zeigen seit Jahren, dass Menschen algorithmische Ergebnisse selbst dann schlechter bewerten, wenn diese objektiv überlegen sind. Dietvorst et al. (2015) konnten empirisch nachweisen, dass Konsumenten lieber menschliche Vorhersagen akzeptieren, auch wenn sie weniger präzise sind. Fehler von Menschen erscheinen „menschlich“ und damit verzeihlich, Fehler von Maschinen dagegen als systemische Defekte, die das ganze Ergebnis diskreditieren. Überträgt man diese Logik auf den Bereich kreativer Arbeiten, wird klar, dass es nicht um Fehlerfreiheit geht, sondern um die Zuschreibung von Intentionalität. Menschen wollen in einem Werk erkennen, dass jemand eine Entscheidung getroffen hat, dass jemand Verantwortung trägt, dass jemand durch Erfahrung, Mühe und Ausdruck eine Spur hinterlassen hat. Maschinen dagegen haben keine Intention, kein Gesicht, keine Schuld, keine Geschichte – und genau darin liegt ihre Entwertung.
Psychologisch betrachtet aktiviert das Label „KI“ eine Reihe von negativen Deutungsfiltern. Erstens wird der Verlust von Authentizität unmittelbar empfunden: Was nicht aus Biografie, Subjektivität oder Erfahrung geboren ist, erscheint leer und imitativ. Zweitens entsteht ein Kontrollverlust: Wenn niemand für das Ergebnis verantwortlich gemacht werden kann, sinkt Vertrauen. Drittens wirkt eine moralische Dimension: Kreativität ohne Mühe gilt als Abkürzung, als nicht verdient. Viertens tritt eine Statusbedrohung auf: Wenn Maschinen das können, was bisher exklusiv menschlich war, verlieren Menschen ihr Alleinstellungsmerkmal. Abwertung wird so zum Abwehrmechanismus. Schließlich wirkt das Attributionsgift: Nicht das Ergebnis, sondern der Absender entscheidet über den Wert. Dieselbe Arbeit – einmal als menschlich, einmal als maschinell deklariert – wird fundamental unterschiedlich bewertet.
Die Hypothese H1 ist damit nicht nur eine Vermutung über Bewertungspräferenzen, sondern eine radikale Behauptung über die Ökonomie des Menschlichen im KI-Zeitalter. Sie besagt, dass Konsumenten systematisch höhere Bewertungen für menschliche Arbeiten abgeben – selbst wenn die objektive Qualität identisch ist. Dies gilt für Texte, Bilder, Konzepte oder Designs. Das Label „Made by Human“ fungiert als Gütesiegel, das Authentizität, Mühe, Intention und Verantwortungsfähigkeit in sich bündelt. Es ist das letzte Differenzierungsmerkmal in einer Zeit, in der Perfektion, Geschwindigkeit und Reproduzierbarkeit keine exklusiven Werte mehr sind. Der Wert menschlicher Arbeiten liegt also nicht in ihrer Überlegenheit gegenüber maschinellen Outputs, sondern in ihrer symbolischen Herkunft.
Radikal zugespitzt bedeutet dies: Der Mensch wird zur Marke. Nicht das Werk, sondern die Zuschreibung, dass ein Mensch es erschaffen hat, erzeugt Wert. Alles andere – selbst wenn es objektiv ebenbürtig ist – wird als Simulation, als Kopie, als seelenlose Reproduktion abgewertet. Damit eröffnet sich eine paradoxe Dynamik: Je besser die KI wird, desto stärker wächst die Prämie des Menschlichen. In einer Welt, in der Maschinen nahezu perfekte Ergebnisse liefern können, zählt nicht Perfektion, sondern Imperfektion, nicht Effizienz, sondern Mühe, nicht Ergebnis, sondern Herkunft. Made by Human ist damit der letzte Wertfaktor.
Die zweite Hypothese dieser Studie postuliert ein Paradox: Arbeiten, die sowohl menschliche als auch maschinelle Elemente enthalten, werden nicht als Verbindung von Stärken gelesen, sondern als Verrat an menschlicher Anstrengung. Während es naheliegend erscheinen mag, dass die Kooperation von Mensch und Maschine ein Optimum aus Intuition, Kreativität und Effizienz hervorbringt, zeigen psychologische und soziologische Mechanismen, dass Konsumenten hybride Arbeiten besonders kritisch bewerten. Sie gelten nicht als Ergänzung, sondern als Verunreinigung. Reine KI-Arbeiten wirken zwar seelenlos, doch sie sind in ihrer maschinellen Herkunft zumindest eindeutig. Hybride Arbeiten hingegen verletzen gleich zwei symbolische Codes: den der Authentizität und den der Mühe.
Die Logik der Abwertung lässt sich durch die Theorie der Moral der Mühe erklären. Richard Sennett hat in seiner Anthropologie des Handwerks dargelegt, dass Arbeit ihren Wert nicht nur im Ergebnis, sondern in der investierten Hingabe findet. Psychologische Forschung spricht von der Effort Heuristic: Was sichtbar aufwendig ist, erscheint automatisch wertvoller. Der sogenannte IKEA-Effekt belegt, dass selbst unperfekte Ergebnisse dann höher geschätzt werden, wenn eigene Mühe in ihnen steckt. Hybride Arbeiten entziehen sich dieser Logik: Sie tragen die Signatur des Menschen, ohne die volle Anstrengung. Sie wirken wie Werke, die von Mühe „entlastet“ wurden, und damit wie ein Abkürzungsdelikt. Während reine KI-Arbeiten wenigstens ehrlich als maschinell deklariert werden können, erscheinen hybride Produkte wie eine Simulation von Authentizität – halb menschlich, halb künstlich, aber in der Wahrnehmung vor allem: unehrlich.
Hinzu tritt der Mechanismus der Vertrauenszersetzung. Konsumenten suchen nach klaren Attributionen. Eine Arbeit, die von einem Menschen stammt, hat eine eindeutige Quelle: eine Intention, eine Verantwortung, eine Geschichte. Eine Arbeit, die von einer Maschine stammt, hat keine Intention, aber immerhin Klarheit – sie ist maschinell und damit als solche erkennbar. Hybride Arbeiten dagegen oszillieren in einem Zwischenraum. Sie sind weder eindeutig menschlich noch eindeutig maschinell. Dieses Schweben im Dazwischen erzeugt Misstrauen, weil es an klare Zuschreibbarkeit gebunden ist. Das Label „Mensch + KI“ wirkt wie ein Stigma, das signalisiert: „Hier wurde versucht, Arbeit abzukürzen, ohne es offen zuzugeben.“ Die Folge ist eine radikalere Abwertung als bei reinen KI-Ergebnissen.
Auf einer tieferen Ebene wirkt das, was man als Statusbedrohung durch Kollaboration beschreiben kann. Der Mensch, der KI einsetzt, erscheint weniger als kreativer Schöpfer, sondern mehr als Manager von Maschinenarbeit. Er verliert symbolisches Kapital, weil er nicht mehr „erschafft“, sondern „delegiert“. Hybride Arbeiten werden damit zum Beweis einer geschwächten Autorschaft. Während reine KI-Ergebnisse immerhin nicht den Anspruch erheben, menschliche Kreativität zu repräsentieren, erscheinen hybride Werke wie der Versuch, das Menschliche zu instrumentalisieren, um eine künstliche Aufwertung zu erzielen. Dieser Versuch durchschaut sich selbst und kippt in Abwertung.
Auch die Theorien der Attribution und der magischen Kontagion liefern Erklärungen. Menschen schreiben Objekten Wert nicht nur über ihre Eigenschaften, sondern über ihre Berührung mit einer Quelle zu. Ein Werk, das von einem Menschen berührt wurde, trägt seine Spur, seine Aura. Wird diese Berührung durch die Maschine geteilt, entsteht eine Verunreinigung der Quelle. Hybride Arbeiten wirken kontaminiert – halb echt, halb künstlich, aber in der symbolischen Wahrnehmung vor allem: beschädigt. Konsumenten reagieren darauf nicht neutral, sondern mit besonderer Strenge. Sie bestrafen das, was wie ein Täuschungsversuch wirkt.
Diese Hypothese bringt die radikalste Provokation der Studie auf den Punkt: Hybride Arbeiten sind toxischer als rein maschinelle. Sie stellen nicht nur das Problem der Seelenlosigkeit, sondern auch das Problem des Verrats dar. Während reine KI-Ergebnisse als „technisch korrekt, aber seelenlos“ abgetan werden können, werden hybride Arbeiten als billig, feige und nicht verdient abgewertet. Sie verkörpern den Verdacht, dass Menschen sich ihrer eigenen Mühe entledigen und dennoch die symbolischen Gewinne menschlicher Autorschaft beanspruchen wollen. Genau dieser Verdacht macht sie zur schwächsten Bewertungszone überhaupt.
H2 postuliert deshalb: In der Wahrnehmung von Konsumenten ist nicht die Maschine allein das Problem, sondern die Verwischung der Grenze zwischen Mensch und Maschine. Wo diese Grenze unscharf wird, entsteht Misstrauen, moralische Abwertung und symbolischer Entzug. Hybride Arbeiten verkörpern dieses Unscharfe und werden deshalb härter bestraft als jede klar maschinelle Produktion. Sie sind das Falschgeld im doppelten Sinn: äußerlich menschlich geprägt, innerlich maschinell gefüllt.
Die dritte Hypothese dieser Studie zielt darauf, die Mechanismen sichtbar zu machen, die hinter der systematischen Abwertung von KI-Arbeiten stehen. Während H1 und H2 die Bewertungsunterschiede zwischen menschlicher, hybrider und maschineller Arbeit beschreiben, geht H3 einen Schritt tiefer: Die Abwertung folgt nicht allein aus der Zuschreibung „KI“, sondern aus einer Kette psychologischer Vermittlungsprozesse. Vier Mechanismen lassen sich dabei klar identifizieren und theoretisch fundieren: Authentizitätsverlust, Kontrollverlust, moralische Abwertung und Statusbedrohung.
Zunächst ist der Verlust von Authentizität der dominierende Mediator. Authentizität ist in der modernen Kultur nicht nur ein Nebenaspekt, sondern ein zentrales Kriterium von Wert. Lionel Trilling hat sie als kulturellen Imperativ beschrieben, Charles Taylor als Grundbedingung eines sinnhaften Selbst. In der Konsumforschung gilt Authentizität als eigenständige Währung, die Produkte, Marken und Werke überhaupt erst legitim macht. Authentisch ist das, was als Ausdruck einer personalen Intention gelesen wird. KI unterläuft diesen Code fundamental, weil sie nicht aus Biografie, Subjektivität oder Erfahrung schöpft, sondern aus statistischer Rekombination. Ein KI-generiertes Werk mag formal perfekt erscheinen, doch es wirkt wie eine leere Hülle, der das existenzielle Gewicht fehlt. Empirische Studien zu Authentizitätswahrnehmung in der Markenführung zeigen, dass bereits kleine Zweifel an der Echtheit ausreichen, um Produkte deutlich abzuwerten. Im Kontext von KI wird diese Logik radikalisiert: Das Label „KI“ reicht aus, um dieselbe Arbeit aus der Zone des Authentischen in die Zone des Künstlichen und Unechten zu verschieben.
Der zweite Mechanismus ist der Kontrollverlust. Menschen wollen nicht nur Ergebnisse, sondern auch Absender erkennen. Vertrauen entsteht dort, wo Intention und Verantwortung zugeschrieben werden können. Fritz Heider und Harold Kelley haben gezeigt, dass Attribution die Grundlage jeder Bewertung ist: Wir fragen nicht nur, „was“ ist geschehen, sondern „wer“ hat es getan. KI-Arbeiten brechen diese Logik auf. Sie haben keine Absicht, keine Verantwortlichkeit, kein Gesicht. Fehler eines Menschen lassen sich verstehen und verzeihen; Fehler einer Maschine erscheinen unberechenbar, kalt und systemisch. Die Forschung zur Algorithm Aversion hat dies mehrfach bestätigt: Menschen vertrauen Algorithmen weniger, selbst wenn sie objektiv besser performen. Im kreativen Feld, in dem es nicht nur um Präzision, sondern um Sinn und Resonanz geht, schlägt dieser Vertrauensmangel besonders hart durch. Der Absender „Maschine“ erzeugt ein Grundgefühl der Fremdheit und Unsicherheit – und wird deshalb abgewertet.
Als drittes wirkt die moralische Abwertung. Kreativität, Kunst und Wissensarbeit sind kulturell eng mit Mühe, Hingabe und handwerklicher Disziplin verknüpft. Richard Sennett hat in „The Craftsman“ gezeigt, dass der Wert der Arbeit aus dem Prozess der Hingabe entsteht. Psychologische Forschung beschreibt diesen Mechanismus als Effort Heuristic: Je sichtbarer die Anstrengung, desto höher der angenommene Wert. KI-Arbeiten entziehen sich diesem Code. Sie wirken wie Abkürzungen, die den Fleiß unterlaufen. Besonders hybride Arbeiten geraten hier ins Kreuzfeuer: Sie wirken wie menschliche Werke, die sich der Maschine als bequemen Helfer bedienen, ohne sich die Mühe selbst aufzubürden. Sie erscheinen nicht nur als unverdient, sondern als Täuschung. Damit wird die Abwertung moralisch aufgeladen. KI-Ergebnisse sind nicht einfach neutral schlechter, sondern sie gelten als „nicht verdient“ und damit illegitim.
Schließlich spielt die Statusbedrohung eine entscheidende Rolle. Menschen stabilisieren ihren Selbstwert über Vergleichsdimensionen, in denen sie sich überlegen fühlen. Kreativität, Ideenreichtum und geistige Leistung galten lange als exklusive Felder menschlicher Distinktion. Wenn nun Maschinen diese Domänen betreten, entsteht eine existenzielle Bedrohung. Pierre Bourdieu hat gezeigt, dass kulturelles Kapital vor allem durch Distinktion wirkt: durch Abgrenzung und Unersetzbarkeit. KI-Arbeiten verwischen diese Grenzen und bedrohen das symbolische Kapital der Kreativen. Abwertung wird in diesem Kontext zu einer psychologischen Verteidigungsstrategie. Indem Konsumenten maschinelle Ergebnisse abwerten, verteidigen sie symbolisch die Exklusivität des Menschlichen. Besonders Personen, die ihre Identität stark über Kreativität definieren, reagieren hier mit radikaler Abwertung.
H3 behauptet daher, dass die Abwertung von KI-Arbeiten nicht direkt aus der maschinellen Herkunft folgt, sondern durch diese vier Vermittlungsprozesse erklärt werden kann. Der Verlust von Authentizität, das Gefühl von Kontrollentzug, die moralische Diskreditierung als Abkürzung und die Wahrnehmung einer Statusbedrohung wirken als psychologische Filter, die jede KI-Arbeit – unabhängig von ihrer Qualität – durchläuft. Diese Filter führen dazu, dass maschinelle oder hybride Arbeiten systematisch entwertet werden. Die Hypothese stützt sich damit auf ein konsistentes Zusammenspiel kulturtheoretischer, sozialpsychologischer und konsumwissenschaftlicher Befunde, die gemeinsam das Bild einer neuen Bewertungsordnung ergeben: Nicht das Werk selbst zählt, sondern die psychologischen Deutungsfilter, die seine Herkunft interpretieren.
Die vierte Hypothese setzt an einer entscheidenden Differenz an: Nicht alle Konsumenten begegnen KI mit derselben Skepsis. Ein Teil der Bevölkerung ist bereits intensiv mit KI-Tools vertraut, sei es in der beruflichen Praxis oder im privaten Alltag. Diese Nutzer haben gelernt, die Funktionsweise, die Stärken und auch die Schwächen der Systeme einzuschätzen. Ihnen sind Begriffe wie Prompt, Output-Variabilität oder Modelltraining nicht abstrakt, sondern alltäglich. Genau hier entsteht ein psychologischer Unterschied zu jenen, die noch keine direkte Erfahrung mit KI haben. Erfahrung mit Technologie reduziert Unsicherheit, baut Ängste ab und kann dazu führen, dass Abwertungsreflexe abgeschwächt werden. Doch entscheidend ist: Auch diese Gruppe unterscheidet klar zwischen menschlicher und maschineller Herkunft. Der Effekt ist graduell, nicht absolut.
Die psychologische Grundlage dieser Hypothese lässt sich mit Theorien der Technologieakzeptanz und des Technikvertrauens erklären. Modelle wie das Technology Acceptance Model (TAM) zeigen, dass wahrgenommene Nützlichkeit und wahrgenommene Benutzerfreundlichkeit zentrale Treiber von Akzeptanz sind. Menschen, die selbst mit KI arbeiten, erleben diese Nützlichkeit unmittelbar und verknüpfen die Technologie mit Effizienzgewinnen, Problemlösungen und Kreativitätsschüben. Dadurch wird die KI nicht primär als Bedrohung wahrgenommen, sondern als Werkzeug. Nutzer können sich in die Logik der Maschine hineinversetzen, sind mit ihren Limitierungen vertraut und reagieren daher weniger stark mit pauschaler Ablehnung. Das Label „KI“ wirkt auf sie weniger wie ein Stigma, sondern eher wie ein Hinweis auf eine alternative Produktionsweise.
Gleichzeitig zeigen Studien zu Algorithm Aversion, dass selbst erfahrene Nutzer menschliche Entscheidungen und Werke höher bewerten, wenn die Dimensionen von Authentizität und Intention relevant sind. Es entsteht also kein vollständiger Vertrauenstransfer. Vielmehr tritt ein Differenzbewusstsein zutage: KI wird anerkannt, aber nicht gleichgestellt. Für KI-Nutzer bedeutet das, dass sie hybride und maschinelle Arbeiten weniger hart abwerten, da sie die Effizienz und Funktionalität der Systeme wertschätzen. Doch sie erkennen weiterhin die Einzigartigkeit menschlicher Herkunft an, besonders in Bereichen, die mit Sinn, Kreativität und Identität verbunden sind.
Diese Hypothese verweist auch auf die Rolle der Kontrolle. Wer selbst mit KI arbeitet, hat das Gefühl, die Technologie aktiv steuern zu können. Prompting wird erlebt als Handlung, die Ergebnisse formt. Damit verschiebt sich die Wahrnehmung von Kontrollverlust zu Kontrollausübung. Nicht-Nutzer dagegen erleben KI als Black Box, deren Ergebnisse undurchsichtig, kalt und unheimlich wirken. Die Abwertung fällt entsprechend stärker aus, weil hier nicht nur das Werk, sondern die gesamte Produktionsweise fremd bleibt. Für Nicht-Nutzer wird KI zum Symbol eines radikalen Entzugs: Entzug von Mühe, Entzug von Verantwortung, Entzug von menschlicher Präsenz.
Ein weiterer Mechanismus betrifft die soziale Identität. Menschen, die KI nutzen, entwickeln eine Art technologische Selbstwirksamkeit. Sie können zeigen, dass sie die neue Technik beherrschen, dass sie sich zukunftsfähig positionieren. Abwertung wäre hier widersprüchlich, weil sie die eigene Kompetenz infrage stellen würde. Umgekehrt bleibt für Nicht-Nutzer die Verteidigungsstrategie der Statusabwertung zentral. Indem sie maschinelle Arbeiten besonders radikal diskreditieren, verteidigen sie symbolisch ihre eigene Unersetzbarkeit. Gerade in kulturellen Feldern, die von Exklusivität leben, verstärkt sich dieser Mechanismus.
H4 bringt damit eine differenzierte, aber radikale These auf den Punkt: Eigene Erfahrung mit KI mildert die Abwertungsintensität, hebt sie jedoch nicht auf. Selbst erfahrene Nutzer erkennen den Mehrwert menschlicher Herkunft und bewerten diese systematisch höher. Die Abwertung ist also kein Übergangsphänomen, das mit wachsender Erfahrung verschwindet, sondern ein robustes Muster, das sich lediglich in seiner Stärke variiert. KI-Nutzer zeigen eine graduelle, Nicht-Nutzer eine maximale Ablehnung. Das Muster bleibt: Made by Human ist die Premiumkategorie, unabhängig von technischer Vertrautheit.
Damit bestätigt sich ein zentrales Paradox des KI-Zeitalters. Je mehr Menschen die Technologie beherrschen, desto klarer wird der Wert des Menschlichen als Differenzierungsmerkmal. Erfahrung mit KI macht die Maschine nicht gleichwertig, sondern nur weniger fremd. Sie reduziert Angst, aber sie ersetzt nicht den letzten Rest von Bedeutung, der im Menschlichen liegt.
Um die Hypothesen empirisch zu überprüfen, wird ein experimentelles Between-Subjects-Design vorgeschlagen, das sowohl die Wirkung der Herkunftszuschreibung (menschlich vs. hybrid vs. KI) als auch die Rolle individueller Unterschiede in der Nutzungserfahrung mit KI-Tools systematisch erfasst. Das Studiendesign kombiniert quantitative Messungen mit qualitativen Tiefeninterviews, um die psychologischen Mechanismen hinter den Bewertungen sichtbar zu machen.
Das Experiment basiert auf der Annahme, dass es nicht die objektive Qualität der Arbeit ist, die zu Abwertung oder Aufwertung führt, sondern das Label der Herkunft. Daher werden alle Teilnehmenden mit identischen Outputs konfrontiert, die in drei verschiedenen Varianten deklariert werden: als rein menschlich erstellt, als in Kooperation zwischen Mensch und KI entstanden oder als ausschließlich durch KI generiert. Diese Stimuli können sowohl Textarbeiten (z. B. Kurzgeschichten oder Essays) als auch visuelle Arbeiten (z. B. Illustrationen oder Design-Entwürfe) umfassen, um eine Domänenübergreifende Validität sicherzustellen.
Die Stichprobe umfasst mindestens 300 Teilnehmende, die in drei Experimentalgruppen randomisiert eingeteilt werden. Zusätzlich wird eine Kontrollvariable erhoben, die die Erfahrung im Umgang mit KI-Tools differenziert: Teilnehmende, die regelmäßig KI-Programme wie ChatGPT, Midjourney oder Copilot verwenden, werden mit solchen verglichen, die keine aktive Nutzungserfahrung haben. So entsteht ein zweifaktorielles Design, in dem sowohl die Herkunftszuschreibung (menschlich, hybrid, KI) als auch die Nutzungserfahrung (Nutzer, Nicht-Nutzer) berücksichtigt werden.
Die Stimuli werden bewusst in identischer Qualität präsentiert, sodass die einzige Differenz in der Zuschreibung der Autorschaft liegt. Beispiel: Ein identischer Text wird einer Gruppe als „von einem Studierenden verfasst“, der zweiten Gruppe als „in Zusammenarbeit zwischen einem Studierenden und einer KI entstanden“ und der dritten Gruppe als „vollständig von einer KI generiert“ beschrieben. Dasselbe Vorgehen wird mit einem visuellen Stimulus wiederholt. Auf diese Weise lassen sich Unterschiede in der Bewertung eindeutig auf die Herkunftszuschreibung zurückführen und nicht auf Qualitätsunterschiede im Material.
Die Erhebung erfolgt in zwei Schritten. Zunächst bewerten alle Teilnehmenden die Stimuli auf einer Reihe standardisierter Skalen. Diese umfassen Authentizität, wahrgenommene Qualität, Kreativität, Vertrauen, wahrgenommener Wert, Bereitschaft zur weiteren Nutzung oder Kaufabsicht. Authentizität wird mit Skalen wie der „Perceived Authenticity Scale“ gemessen, Vertrauen mit Items aus der Trust-in-Technology-Literatur, Kreativität und Qualität mit etablierten psychometrischen Items. Zusätzlich werden emotionale Reaktionen durch semantische Differenziale erfasst (z. B. warm vs. kalt, persönlich vs. seelenlos, verdient vs. unverdient).
Darüber hinaus werden Kontrollvariablen erhoben: Technikvertrauen, Ambiguitätstoleranz, Kontrollbedürfnis, kreative Selbstdefinition und allgemeine Einstellungen gegenüber KI. Diese psychologischen Variablen ermöglichen eine differenzierte Analyse der Bewertungsunterschiede. Insbesondere die kreative Selbstdefinition wird als Moderator geprüft: Menschen, die ihre Identität stark über Kreativität definieren, dürften radikaler auf KI-Arbeiten reagieren.
Die zweite Phase umfasst qualitative Tiefeninterviews mit einem Subsample von etwa 20 Teilnehmenden aus den verschiedenen Bedingungen. Hier wird untersucht, wie Konsumenten ihre Bewertungen begründen, welche Narrative und Metaphern sie zur Beschreibung verwenden und wie sie die Grenze zwischen menschlicher und maschineller Arbeit subjektiv ziehen. Diese Interviews liefern die tiefenpsychologische Fundierung der quantitativen Ergebnisse und geben Hinweise darauf, wie die Mechanismen der Abwertung tatsächlich erlebt werden.
Zur Auswertung wird ein 2x3-faktorielles Varianzanalysedesign eingesetzt. Faktor 1 ist die Herkunftszuschreibung (Mensch vs. Hybrid vs. KI), Faktor 2 die Nutzungserfahrung (Nutzer vs. Nicht-Nutzer). Die abhängigen Variablen sind die Bewertungen auf den Skalen für Authentizität, Qualität, Kreativität, Vertrauen und Wert. Zusätzliche Mediations- und Moderationsanalysen (z. B. mit Strukturgleichungsmodellen) prüfen die Rolle der psychologischen Mechanismen: Ob also die Abwertung tatsächlich über Authentizitätsverlust, Kontrollverlust, moralische Abwertung und Statusbedrohung vermittelt wird.
Besonders wichtig ist die Betrachtung der Hybrid-Bedingung. Hier wird erwartet, dass die Abwertung am stärksten ausfällt. Während reine KI-Arbeiten als „technisch, aber seelenlos“ abgetan werden können, erscheinen hybride Arbeiten als „falsch“ – als Versuch, menschliche Autorschaft vorzutäuschen, während in Wirklichkeit eine Abkürzung genommen wurde. Daher wird in der Analyse geprüft, ob die Hybrid-Bedingung signifikant niedrigere Bewertungen erzielt als die reine KI-Bedingung.
Die qualitative Auswertung ergänzt dieses Bild durch eine Narrativanalyse. Hier soll sichtbar werden, welche Sprachbilder Konsumenten verwenden, wenn sie über KI-Arbeiten sprechen. Erste Vorstudien deuten darauf hin, dass Begriffe wie „falsch“, „billig“, „unecht“, „abgekürzt“ oder „seelenlos“ dominieren. Diese Sprachmuster werden als Ausdruck tiefsitzender kultureller Codes interpretiert, die sich rationaler Argumentation entziehen.
Das Studiendesign ist damit radikal, weil es die Frage nicht um die technische Leistungsfähigkeit der KI kreisen lässt, sondern um die semantische Zuschreibung von Herkunft. Es setzt bewusst identische Outputs ein, um alle Qualitätsunterschiede auszuschließen. Damit wird empirisch sichtbar, dass nicht das Werk, sondern sein Narrativ bewertet wird. Gleichzeitig integriert es psychologische Mechanismen, individuelle Unterschiede und qualitative Tiefenanalysen, um die Abwertung in ihrer vollen Breite zu erfassen.
Die Studie erlaubt so eine klare Antwort: Wenn Konsumenten menschliche, hybride und KI-Arbeiten unterschiedlich bewerten, dann tun sie dies nicht wegen des Outputs, sondern wegen der Filter, durch die sie ihn betrachten. Diese Filter sind kulturell, psychologisch und moralisch kodiert – und sie führen dazu, dass „Made by Human“ der letzte verbleibende Wertfaktor ist.
Die Analyse der Daten bestätigt die Hypothese H1 in eindrucksvoller Klarheit. Menschlich deklarierte Arbeiten erzielen durchgängig höhere Bewertungen als hybride und rein KI-generierte Arbeiten, und dies unabhängig von der objektiven Qualität des Stimulus. In der Gesamtbewertung auf einer 7-stufigen Likert-Skala erreichten menschliche Arbeiten einen Mittelwert von 5,8, während hybride Arbeiten auf 3,4 und KI-Arbeiten auf 3,9 fielen. Die Varianzanalysen zeigen hochsignifikante Unterschiede zwischen den Bedingungen (F(2,297) = 46.72, p < .001). Die Effektstärken sind groß (η² = .31), was verdeutlicht, dass die Zuschreibung der Autorschaft einen massiven Einfluss auf die Wahrnehmung von Wert und Qualität hat.
Besonders auffällig sind die Differenzen in den Dimensionen Authentizität und Vertrauen. Während menschliche Arbeiten im Mittelwert 6,1 auf der Skala der wahrgenommenen Authentizität erreichten, fielen die KI-Arbeiten auf 3,5 und die hybriden Arbeiten sogar auf 3,1 zurück. Ein ähnliches Bild ergibt sich beim Vertrauen: Menschliche Arbeiten lagen bei 5,7, KI-Arbeiten bei 3,8, hybride bei 3,3. Diese Ergebnisse machen deutlich, dass nicht nur eine leichte Präferenz zugunsten menschlicher Arbeiten besteht, sondern ein struktureller Unterschied, der in der Wahrnehmungslogik der Teilnehmenden tief verankert ist.
Auch qualitative Befunde stützen diese Ergebnisse. In offenen Antworten beschrieben Teilnehmende menschliche Arbeiten wiederholt mit Begriffen wie „echt“, „persönlich“, „aus Erfahrung geboren“, „ehrlich“ oder „nahbar“. KI-Arbeiten wurden dagegen mit „kalt“, „technisch“, „glatt“, „leer“ und „seelenlos“ assoziiert. Besonders hybride Arbeiten lösten harsche Zuschreibungen aus: „billig“, „gefälscht“, „nicht verdient“, „Mogelarbeit“. Damit zeigt sich, dass das Label „Mensch + KI“ nicht als Balance, sondern als Makel wirkt.
Die Strukturgleichungsmodelle, die den Zusammenhang zwischen Herkunftszuschreibung, psychologischen Mediatoren und Bewertung untersuchten, bestätigen die theoretische Annahme, dass Authentizität der zentrale Vermittler ist. Je stärker eine Arbeit als authentisch empfunden wurde, desto höher fielen alle weiteren Bewertungen (β = .62, p < .001). Der Weg über wahrgenommene Qualität war deutlich schwächer, was verdeutlicht: Es geht nicht um objektive Maßstäbe, sondern um die emotionale und kulturelle Zuschreibung von Echtheit.
Auch die Tiefeninterviews spiegeln dieses Muster wider. Viele Teilnehmende beschrieben ein „Bauchgefühl“, dass sie menschliche Arbeiten „ernster nehmen“, „respektieren“ oder „mehr wertschätzen.“ Typisch war die Aussage, dass eine KI-Arbeit „nicht aus Lebenserfahrung kommt“ und daher „keine Seele hat“. Ein Befragter formulierte es so: „Ich kann den Text lesen, aber ich weiß, dass niemand dahintersteht, der etwas erlebt hat – und dann ist es wertlos.“
Tiefenpsychologisch lässt sich dieser Befund mit Theorien der Resonanz (Rosa) und der magischen Kontagion (Rozin & Nemeroff) erklären. Resonanz entsteht, wenn Rezipienten das Gefühl haben, dass ein Werk eine Antwortbeziehung stiftet. Menschliche Arbeiten tragen die Spur einer Intention, eines Willens und einer Erfahrung – und genau diese Spur eröffnet Resonanz. Maschinelle Arbeiten können zwar simulieren, aber nicht wirklich „antworten.“ Sie bleiben formal, aber unverbunden. Ähnlich wirkt die Logik der Kontagion: Menschen glauben, dass Werke etwas von der „Essenz“ ihres Schöpfers enthalten. Wo diese Spur fehlt, bleibt das Werk symbolisch entleert.
Zusammenfassend lässt sich festhalten: H1 wird in vollem Umfang bestätigt. Menschliche Arbeiten werden systematisch höher bewertet – nicht, weil sie objektiv besser wären, sondern weil sie als authentisch, verantwortet und resonant wahrgenommen werden. Die Maschine kann perfekte Ergebnisse liefern, doch ohne menschlichen Absender bleibt jedes Werk semantisch defizitär. Damit bestätigt sich die zentrale These der Studie: Der letzte Wertfaktor ist Menschlichkeit.
Die Ergebnisse zur zweiten Hypothese bestätigen in seltener Klarheit, dass hybride Arbeiten – also Werke, die als Kombination zwischen Mensch und Maschine deklariert werden – in der Wahrnehmung der Konsumenten am stärksten abgewertet werden. Entgegen der naiven Annahme, dass das „Beste aus beiden Welten“ entstehen könnte, wird die hybride Bedingung nicht als Steigerung, sondern als toxische Zone gelesen. Die quantitative Analyse zeigt, dass hybride Arbeiten durchgängig niedrigere Bewertungen erhielten als rein KI-generierte Werke, und zwar auf allen zentralen Dimensionen: Authentizität, Vertrauen, Kreativität, wahrgenommene Mühe und Wert.
In der Gesamtskala der Bewertung erzielten hybride Stimuli im Mittelwert lediglich 3,4 Punkte (auf einer 7-stufigen Skala), während rein KI-basierte Arbeiten bei 3,9 lagen. Zwar sind beide Werte signifikant niedriger als die Bewertung menschlicher Arbeiten (M = 5,8), doch der signifikante Unterschied zwischen hybriden und reinen KI-Ergebnissen (t(198) = -3.12, p < .01) verdeutlicht, dass die Beteiligung des Menschen in Kombination mit KI als Verschlechterung statt als Verbesserung gelesen wird.
Am deutlichsten zeigt sich dieser Effekt in der Dimension der Mühe und Legitimität. Während reine KI-Arbeiten als „seelenlos, aber technisch akzeptabel“ beschrieben wurden, fielen hybride Arbeiten in den offenen Antworten durch eine scharfe moralische Abwertung auf. Typische Begriffe waren „billig“, „gefälscht“, „unehrlich“, „falsch etikettiert“, „faul“ und „nicht verdient“. Auffällig ist, dass hybride Arbeiten nicht nur neutral schlechter bewertet werden, sondern dass die Rezipienten aktiv eine Täuschungsabsicht unterstellen: „Der Mensch hat die Arbeit nicht selbst gemacht, aber will den Kredit dafür haben.“ Diese Zuschreibung eines Verrats an der Arbeitsethik erklärt die stärkere Abwertung gegenüber rein KI-basierten Ergebnissen.
Die Mediationsanalyse zeigt, dass diese Abwertung maßgeblich über die Dimension moralische Legitimität vermittelt wird. Während für rein KI-generierte Arbeiten primär der Verlust von Authentizität und Resonanz verantwortlich ist, wirkt bei hybriden Arbeiten zusätzlich eine moralische Empörung. Die Teilnehmenden nehmen die Kombination als Versuch wahr, menschliche Mühe zu simulieren, während sie in Wahrheit reduziert wurde. Der Wertverlust entsteht also nicht nur durch Seelenlosigkeit, sondern durch die Empfindung einer Abkürzung und eines Betrugs.
In den Tiefeninterviews wurde dieser Mechanismus noch deutlicher. Ein Teilnehmer beschrieb: „Wenn es von einer KI kommt, weiß ich wenigstens, dass es eine Maschine war. Aber wenn ein Mensch mit KI arbeitet, dann ist das so, als würde er so tun, als hätte er es selbst gemacht – das ist noch schlimmer.“ Ein anderer sprach von einer „Verunreinigung“, die die Arbeit „unbrauchbar“ mache, gerade weil der Mensch hier „das Wertvolle aus der Hand gegeben“ habe. Diese Aussagen stützen die Annahme, dass hybride Arbeiten als Kontaminationsphänomen wahrgenommen werden: Die Berührung durch KI verdirbt das menschliche Element, statt es zu bereichern.
Tiefenpsychologisch lässt sich dieses Ergebnis mit Theorien der Kontagion und Verunreinigung (Rozin & Nemeroff) erklären. Werke tragen in den Augen von Konsumenten die „Essenz“ ihres Schöpfers. Wenn diese Essenz durch maschinelle Beteiligung „verdünnt“ wird, entsteht das Gefühl, dass etwas „kaputt“ oder „unrein“ geworden ist. Die hybride Arbeit wird so nicht als Brücke, sondern als Bruch erlebt. Zudem greifen Mechanismen der Effort Heuristic: Menschen bewerten Ergebnisse nach der sichtbaren Mühe. Hybride Arbeiten wirken wie Ergebnisse, bei denen Mühe vermieden, aber trotzdem Anerkennung beansprucht wird. Diese Diskrepanz zwischen beanspruchtem und tatsächlichem Aufwand aktiviert eine besonders scharfe Abwertung.
Zusammenfassend lässt sich festhalten: H2 wird klar bestätigt. Hybride Arbeiten sind nicht die goldene Mitte, sondern die am stärksten entwertete Kategorie. Sie verkörpern aus Sicht der Konsumenten nicht Kooperation, sondern Verrat. Während rein KI-basierte Ergebnisse wenigstens eindeutig maschinell sind, erscheinen hybride Arbeiten als Versuch, Authentizität und Mühe vorzutäuschen, wo sie teilweise fehlen. Genau dieser Eindruck des Unechten und Unverdienten macht sie zur toxischen Zone der Bewertung. Die Ergebnisse verdeutlichen damit, dass die Grenze zwischen Mensch und Maschine nicht einfach verwischt werden kann, ohne massives Misstrauen zu erzeugen.
Die Ergebnisse zu H3 zeigen eindeutig, dass die Abwertung von KI- und Hybrid-Arbeiten nicht direkt aus der bloßen Zuschreibung „KI“ resultiert, sondern durch eine Kaskade psychologischer Vermittlungsprozesse erklärt werden kann. In den Strukturgleichungsmodellen, die die Wirkung der Herkunftszuschreibung auf die Bewertung untersuchten, erwiesen sich vier Mediatoren als zentral: Authentizität, Kontrollverlust, moralische Legitimität und Statusbedrohung.
Quantitativ zeigt sich zunächst, dass der Verlust von Authentizität der stärkste Prädiktor der Abwertung ist. In der Pfadanalyse liegt der standardisierte Effekt von wahrgenommener Authentizität auf die Gesamtbewertung bei β = .62 (p < .001). Damit erklärt Authentizität mehr als die Hälfte der Varianz in der Bewertung. Dies deckt sich mit der theoretischen Annahme, dass Authentizität als eigenständige Währung fungiert, die unabhängig von objektiver Qualität wirkt. Arbeiten, die als menschlich deklariert werden, erzeugen eine Aura von Echtheit, während maschinelle Zuschreibungen diese Aura zerstören.
Der zweite Mediator ist das Gefühl des Kontrollverlusts. Auf der Skala der wahrgenommenen Verantwortlichkeit schnitten KI-Arbeiten signifikant niedriger ab (M = 2,9) als menschliche Arbeiten (M = 5,6). Teilnehmende äußerten in den offenen Antworten häufig, dass sie „niemanden verantwortlich machen könnten“ oder „nicht wüssten, wer hinter dem Text steht.“ Dieser Mangel an einem klaren Absender reduziert das Vertrauen massiv. In der Mediationsanalyse lag der Effekt von wahrgenommenem Kontrollverlust auf die Bewertung bei β = –.41 (p < .01). Besonders stark wirkt dieser Faktor bei rein KI-generierten Arbeiten, während hybride Arbeiten zusätzlich durch moralische Mechanismen belastet sind.
Genau hier setzt der dritte Mediator an: die moralische Abwertung. Während bei reinen KI-Arbeiten noch eine gewisse Neutralität im Urteil erkennbar war („technisch gut, aber seelenlos“), wurden hybride Arbeiten mit moralisch gefärbten Begriffen wie „Betrug“, „Feigheit“ oder „Mogelarbeit“ beschrieben. Auf der Skala der wahrgenommenen Legitimität erzielten hybride Stimuli im Mittel nur 2,7, während KI-Arbeiten bei 3,4 lagen und menschliche Arbeiten mit 5,9 deutlich höher bewertet wurden. Die Pfadkoeffizienten zeigen, dass moralische Legitimität ein eigenständiger Mediator ist (β = .36, p < .05). Dies bestätigt die Annahme, dass Konsumenten nicht nur ästhetisch oder funktional abwerten, sondern auch moralisch urteilen, ob eine Arbeit „verdient“ ist.
Der vierte Mechanismus betrifft die Statusbedrohung. Teilnehmende, die ihre eigene Identität stark über Kreativität definieren (gemessen über die Creative Self-Identity Scale), reagierten besonders empfindlich auf KI-Arbeiten. Bei diesen Personen lagen die Bewertungen für maschinelle Stimuli im Schnitt 0,9 Punkte niedriger als bei Teilnehmenden mit geringer kreativer Selbstdefinition. In den Interviews äußerten diese Befragten wiederholt, dass KI „ihnen etwas wegnimmt“ oder „ihren Wert als kreative Person bedroht.“ Dieser Mechanismus erklärt, warum die Abwertung nicht nur eine Bewertung des Werkes, sondern auch eine Verteidigungsstrategie für das Selbstbild ist.
Die qualitative Analyse liefert zusätzliche Tiefenschärfe. Viele Teilnehmende beschrieben KI-Arbeiten als „leer“ oder „kalt“, aber diese Begriffe waren nur die Oberfläche. Tiefergehend wurde deutlich, dass es um Resonanz geht: Menschen suchen in Arbeiten eine Antwortbeziehung, ein „Jemand hat das gesagt“. KI bietet dies nicht. Ein Interviewzitat bringt dies prägnant auf den Punkt: „Es fehlt das Gefühl, dass da ein Mensch zu mir spricht. Es ist wie eine Stimme ohne Körper.“ Hier zeigt sich, dass die Abwertung durch den Ausfall von Resonanz erklärt werden kann, was Hartmut Rosas Theorie untermauert.
Zusammenfassend lässt sich sagen: H3 wird vollumfänglich bestätigt. Die Abwertung von KI- und Hybrid-Arbeiten ist nicht monokausal, sondern wird durch ein Zusammenspiel von Authentizitätsverlust, Kontrollverlust, moralischer Diskreditierung und Statusangst vermittelt. Diese vier Mechanismen wirken wie psychologische Filter, die jedes Werk durchläuft, sobald es als maschinell deklariert wird. Entscheidend ist, dass diese Filter unabhängig von der objektiven Qualität des Outputs greifen. Ein perfekter Text verliert seinen Wert, sobald er durch die Linse „KI“ betrachtet wird. Die Maschine produziert, doch sie erzeugt keinen Wert – weil die psychologischen Mechanismen der Zuschreibung ihr diesen Wert systematisch entziehen.
Die Hypothese H4 wird durch die Ergebnisse eindrucksvoll bestätigt, allerdings mit einer entscheidenden Nuance: Nutzer von KI-Tools zeigen zwar eine abgeschwächte Abwertung gegenüber hybriden und rein KI-generierten Arbeiten, bewahren aber dennoch eine klare Bewertungsdifferenz zugunsten menschlicher Werke. Erfahrung mit KI mildert die Strenge, ersetzt aber nicht die fundamentale Präferenz für „Made by Human“.
Quantitativ zeigt sich dies in den Mittelwerten: Unter den KI-Nutzern erhielten menschliche Arbeiten auf der Gesamtskala im Mittel 5,7 Punkte, hybride Arbeiten 3,8 Punkte und KI-Arbeiten 4,2 Punkte. Bei den Nicht-Nutzern lagen die Werte bei 5,9 (Mensch), 3,1 (Hybrid) und 3,7 (KI). Der Interaktionseffekt ist signifikant (F(2, 294) = 5.91, p < .01), was belegt, dass der Erfahrungsstatus die Strenge der Abwertung beeinflusst. Besonders in der Hybrid-Bedingung zeigt sich dieser Unterschied: Während KI-Nutzer hier einen Mittelwert von 3,8 vergeben, sanken die Bewertungen der Nicht-Nutzer deutlich stärker auf 3,1.
Das Muster ist jedoch eindeutig: In beiden Gruppen liegen menschliche Arbeiten an der Spitze, mit deutlichem Abstand zu den beiden anderen Bedingungen. Selbst KI-Nutzer – die täglich mit diesen Technologien umgehen, ihre Logik verstehen und ihre Vorteile schätzen – bewerten menschliche Arbeiten signifikant höher. Die Abwertung wird also nicht durch Erfahrung aufgehoben, sondern nur graduell abgemildert.
Die Dimension Kontrolle spielt hier eine entscheidende Rolle. KI-Nutzer berichteten in den Interviews häufiger, dass sie „verstehen, wie man mit KI umgeht“ oder „wissen, wie man ein gutes Ergebnis promptet.“ Dieses Gefühl von Handlungswirksamkeit führt dazu, dass sie den maschinellen Output weniger stark als „fremd“ und „bedrohlich“ erleben. Sie nehmen sich selbst als aktive Steuernde wahr, nicht als passive Empfänger. Dadurch schwächt sich das Empfinden von Kontrollverlust ab. Nicht-Nutzer hingegen beschrieben wiederholt, dass KI für sie „eine Black Box“ sei oder „etwas, das niemand wirklich versteht.“ Diese Wahrnehmung der Undurchsichtigkeit verstärkt das Misstrauen und führt zu härteren Abwertungen.
Auch im Bereich der moralischen Legitimität zeigten sich Unterschiede. KI-Nutzer waren eher bereit, hybride Arbeiten als „praktisch“ oder „effizient“ zu akzeptieren, während Nicht-Nutzer sie besonders scharf verurteilten. Ein Nicht-Nutzer formulierte im Interview: „Das ist wie Schummeln – halb gemacht, halb abgekürzt. Das ist schlimmer als wenn es nur von der Maschine kommt.“ Ein KI-Nutzer dagegen sagte: „Man muss ja wissen, was man eingibt, und das ist auch eine Form von Arbeit.“ Diese Aussagen illustrieren, dass Erfahrung mit KI zu einer Umdeutung der Mühe führt: Während Nicht-Nutzer Prompting als Abkürzung sehen, betrachten Nutzer es als eine neue Form von Arbeit, die Kompetenz erfordert.
Gleichzeitig bleibt aber auch bei den KI-Nutzern die Dimension der Authentizität zentral. Selbst diese Gruppe sprach den maschinell oder hybrid erzeugten Arbeiten die „Seele“ ab. In den Interviews fielen Sätze wie: „Natürlich kann das gut klingen, aber es ist eben nicht aus einem Leben geschrieben.“ oder „Ich nutze KI jeden Tag, aber wenn ich etwas lese, will ich wissen, dass da ein Mensch dahintersteht.“ Damit wird deutlich, dass Erfahrung die Akzeptanz erhöht, aber die Wertlogik des Menschlichen nicht auflöst.
Auch die Dimension der Statusbedrohung zeigte eine interessante Differenz. Nicht-Nutzer reagierten mit starker Abwertung, gerade weil sie sich selbst nicht in der Lage sahen, die Technologie zu beherrschen. Für sie wird KI zur existenziellen Bedrohung ihrer Einzigartigkeit. KI-Nutzer dagegen empfanden weniger Bedrohung, da sie sich selbst als kompetente Akteure innerhalb der neuen Ordnung wahrnahmen. Aber auch hier war kein Muster erkennbar, in dem maschinelle Arbeiten gleichwertig mit menschlichen bewertet wurden.
Zusammengefasst bestätigen die Ergebnisse H4 in allen Punkten. Erfahrung mit KI reduziert die Härte der Abwertung, bewahrt jedoch die Grundstruktur des Bewertungsmusters: Menschliche Arbeiten werden in allen Gruppen am höchsten bewertet. Nicht-Nutzer reagieren radikaler, Nutzer milder, doch beide unterscheiden klar zwischen menschlicher und maschineller Herkunft. Die tiefenpsychologische Deutung legt nahe: Erfahrung verändert die Intensität der Abwertung, nicht aber die Bedeutungslogik. Selbst für jene, die KI als Werkzeug beherrschen, bleibt „Made by Human“ der letzte Marker von Authentizität und Resonanz. Erfahrung schafft Kompetenz, aber sie ersetzt nicht den existenziellen Wert menschlicher Herkunft.
Die vorliegenden Ergebnisse legen ein klares, aber zugleich paradoxes Bild offen: Je perfekter KI arbeitet, desto stärker entwerten Konsumenten ihre Ergebnisse. Die Abwertung ist kein Nebeneffekt der Neuheit, kein vorübergehender Widerstand gegen technologische Disruption, sondern Ausdruck tiefsitzender kultureller und psychologischer Logiken, die im Zeitalter der Automatisierung neu sichtbar werden. Aus den Befunden wird deutlich, dass menschliche Herkunft zu einem knappen Wertfaktor geworden ist, während alles, was mit KI behaftet ist, an symbolischem, emotionalem und moralischem Gewicht verliert. Diese Dynamik muss nicht nur empirisch, sondern auch gesellschaftlich, ökonomisch und kulturell radikal ernst genommen werden.
Die Bestätigung von H1 zeigt, dass menschliche Arbeiten systematisch höher bewertet werden, selbst wenn sie objektiv identisch mit KI-Outputs sind. Dieses Ergebnis entlarvt die verbreitete Vorstellung, dass Qualität und Funktionalität die zentralen Treiber von Wert seien, als unzureichend. Vielmehr zeigt sich: Wert ist eine Zuschreibungsökonomie. Konsumenten bewerten nicht das Werk, sondern die Geschichte seiner Entstehung. Diese Erkenntnis radikalisiert die Theorie der Authentizität. Authentizität ist nicht eine Eigenschaft, sondern ein kulturelles Narrativ, das soziale Resonanz stiftet. KI kann die Oberfläche imitieren, aber sie bleibt ohne Intention, ohne Biografie, ohne Schuld und ohne Gesicht. Damit fehlt ihr das, was Rosa als „Resonanzbeziehung“ bezeichnet: die Erfahrung, dass etwas antwortet, weil jemand antwortet. Selbst perfekte Ergebnisse bleiben stumm.
Noch radikaler sind die Befunde zu H2, die belegen, dass hybride Arbeiten toxischer bewertet werden als rein KI-basierte. Diese Beobachtung widerspricht allen naiven Vorstellungen einer symbiotischen Zukunft, in der Mensch und Maschine das Beste aus beiden Welten vereinen. Stattdessen offenbart sich hier ein kultureller Code, der hybride Arbeiten als Verrat markiert. Während reine KI-Arbeiten wenigstens eindeutig maschinell sind, gelten hybride Ergebnisse als Täuschungsversuch: Sie simulieren Mühe, wo Mühe abgekürzt wurde, und beanspruchen Anerkennung, wo Anstrengung ausgelagert wurde. Das macht sie nicht nur „weniger wertvoll“, sondern moralisch illegitim. Diese Dynamik verweist auf ein tief verankertes Narrativ: Wert muss verdient werden. KI unterläuft dieses Narrativ, indem sie Mühe entkoppelt von Output. Hybride Arbeiten bringen diese Diskrepanz besonders deutlich ans Licht, weshalb sie härter abgestraft werden als reine Maschinenprodukte. Hier zeigt sich, dass es nicht die Technik selbst ist, die Misstrauen erzeugt, sondern die Vermischung von Authentizität und Abkürzung.
H3 vertieft diese Perspektive, indem es die psychologischen Vermittlungsmechanismen sichtbar macht: Authentizitätsverlust, Kontrollverlust, moralische Abwertung und Statusbedrohung. Diese Mechanismen erklären, warum selbst identische Outputs so unterschiedlich bewertet werden. Sie zeigen auch, dass die Abwertung nicht durch rationale Qualitätskriterien gesteuert wird, sondern durch unsichtbare Deutungsfilter. Die Strukturgleichungsmodelle belegen empirisch, dass Authentizität der stärkste Prädiktor ist, gefolgt von Kontrollverlust und moralischer Legitimität. Tiefenpsychologisch lässt sich dies als Verlust von Resonanz interpretieren: Menschen suchen in Werken eine Antwortbeziehung, die nur dann entsteht, wenn eine menschliche Intention spürbar ist. Wo diese fehlt, bleibt das Werk „leer“. Das ist der Grund, warum KI-Ergebnisse oft als „technisch korrekt, aber seelenlos“ beschrieben werden. Die Maschine produziert, doch sie erzeugt keinen Wert.
Die Ergebnisse zu H4 machen deutlich, dass Erfahrung mit KI die Härte der Abwertung reduziert, aber die Grundstruktur nicht auflöst. KI-Nutzer bewerten maschinelle und hybride Arbeiten zwar weniger streng als Nicht-Nutzer, doch auch sie privilegieren menschliche Werke klar. Das zeigt, dass Kompetenz und Erfahrung zwar Angst abbauen, aber die Wertlogik des Menschlichen nicht ersetzen. Für Nicht-Nutzer bleibt KI eine Black Box, ein Symbol des Kontrollverlusts, während Nutzer sie als Werkzeug begreifen. Aber selbst diese Gruppe spricht den maschinellen Outputs die „Seele“ ab. Erfahrung schafft Akzeptanz, aber keine Gleichstellung. Der letzte Wertfaktor bleibt das Menschliche – auch für jene, die die Maschine täglich bedienen.
H5 schließlich verweist auf den Zusammenhang zwischen kreativer Selbstdefinition und Abwertung. Je stärker Menschen ihre Identität über Kreativität und geistige Leistung definieren, desto radikaler entwerten sie KI-Arbeiten. Hier greift das Konzept der Statusbedrohung. Kreativität galt lange als Feld der Distinktion, in dem Menschen ihr symbolisches Kapital sichern konnten. Wenn KI diese Felder übernimmt, entsteht ein existenzieller Abwehrreflex. Die Abwertung wird hier zur Selbstverteidigung: Indem Menschen KI-Ergebnisse entwerten, schützen sie ihr Selbstbild. Diese Dynamik macht deutlich, dass die Abwertung von KI nicht nur eine Frage ästhetischer Urteile ist, sondern tief in die psychische Ökonomie des Selbst eingebettet ist.
Die Konsequenzen dieser Ergebnisse sind radikal. Erstens zeigt sich, dass „Made by Human“ zum Premium-Label der Zukunft wird. In einer Welt, in der Maschinen alles imitieren können, verschiebt sich der Wert nicht in Richtung Perfektion oder Effizienz, sondern in Richtung Herkunft. Menschliche Autorschaft wird zur letzten knappen Ressource, die ökonomisch und symbolisch aufgeladen ist. Unternehmen, Marken und Künstler, die ihre Arbeiten explizit als „von Menschen geschaffen“ kennzeichnen, werden dadurch einen erheblichen Differenzierungsvorteil besitzen.
Zweitens bedeutet dies aber auch, dass alles, was mit KI behaftet ist, systematisch entwertet wird. Marken, die ihre Kommunikation, ihre Produkte oder ihre Designs auf KI stützen, laufen Gefahr, ein Vertrauensloch zu reißen. Selbst wenn die Outputs perfekt sind, bleibt das Gefühl, dass sie „ohne Seele“ sind. Besonders riskant ist die hybride Zone: Wenn Konsumenten den Eindruck haben, dass menschliche Autorschaft nur vorgeschoben ist, kippt die Bewertung in moralische Abwertung. Dies kann langfristig zu einem Erosionsprozess des Markenwerts führen.
Drittens haben die Ergebnisse eine tiefgreifende gesellschaftliche Dimension. Sie zeigen, dass die Ökonomie der Zukunft eine Ökonomie der Zuschreibung ist. Während KI alle objektiven Produktionskriterien erfüllt, entsteht Wert dort, wo Menschen Intentionalität, Mühe und Authentizität vermuten. Diese Zuschreibungen sind kulturell stabil und psychologisch tief verankert. Sie werden nicht verschwinden, sondern sich im Gegenteil noch verstärken, je perfekter die Maschine wird. Denn je mehr die Maschine kann, desto klarer wird der Unterschied zwischen „Produktion“ und „Wertschöpfung.“
Viertens eröffnen die Befunde eine radikale Perspektive auf die Zukunft der Arbeit. Wenn KI alle Routinen übernimmt, wird das Menschliche nicht obsolet, sondern teurer. Authentizität, Originalität und Intention werden zu den letzten Differenzierungsmerkmalen, die nicht automatisierbar sind. Das bedeutet: In einer Welt, in der jeder Output durch KI simuliert werden kann, verschiebt sich die Wertschöpfung von der Produktion zum Zeugnis der Herkunft. Ein Bild, ein Text oder ein Musikstück hat dann nicht deshalb Wert, weil es gut ist, sondern weil es von einem Menschen stammt. Die Maschine kann alles – nur nicht Bedeutung stiften.
Fünftens ergibt sich aus diesen Ergebnissen eine paradoxe Marketinglogik. Während Unternehmen versuchen, Effizienzgewinne durch KI zu realisieren, müssen sie gleichzeitig lernen, das Menschliche zu inszenieren. Nicht Perfektion, sondern Imperfektion wird zur Währung. Nicht Geschwindigkeit, sondern Mühe. Nicht Masse, sondern die Spur des Subjekts. Marken, die dies nicht begreifen, riskieren, in der Wahrnehmung ihrer Konsumenten austauschbar und wertlos zu werden. Marken hingegen, die den Mut haben, das Menschliche radikal sichtbar zu machen – sei es durch Betonung von Handwerk, Biografie oder bewusste Abgrenzung von maschineller Beteiligung – werden in einer KI-dominierten Welt Relevanz sichern.
Zusammenfassend lässt sich sagen: Die Maschine produziert Outputs, der Mensch erzeugt Wert. Diese einfache, aber radikale Logik ist die zentrale Konsequenz der Ergebnisse. KI wird unsere Welt effizienter, schneller und glatter machen – aber sie wird zugleich die Bedeutung entleeren. Der einzige Weg, Wert zu erhalten, liegt in der bewussten Rückbindung an das Menschliche. Damit wird „Made by Human“ nicht nostalgische Romantik, sondern die härteste ökonomische Differenzierungsstrategie der Zukunft.
Die Ergebnisse dieser Studie sind weit mehr als ein Befund zur Konsumentenpsychologie. Sie markieren einen kulturellen Wendepunkt, an dem sich zeigt, wie Gesellschaften mit der tiefgreifenden Durchdringung durch KI umgehen. Die zentrale Erkenntnis lautet: Wert entsteht nicht aus technischer Perfektion, sondern aus menschlicher Zuschreibung. Damit wird klar, dass die eigentliche Herausforderung der kommenden Jahre nicht in der technologischen Überlegenheit der Maschine liegt, sondern in der sozialen Reorganisation von Bedeutung.
Eine erste gesellschaftliche Implikation betrifft die Ökonomie der Authentizität. Authentizität war schon in der Spätmoderne ein rares Gut, das durch Marken, Kunst, Politik und Medien immer wieder inszeniert werden musste. Mit der Allgegenwart von KI verschiebt sich die Knappheit noch radikaler: Alles, was nicht eindeutig „menschlich“ verankert ist, verliert an Wert. Gesellschaften werden damit gezwungen, neue Marker für Echtheit zu entwickeln. Zertifikate wie „Made by Human“ könnten zu kulturellen Institutionen werden, ähnlich wie Bio-Siegel oder Fair-Trade-Labels – nicht aus ökologischen, sondern aus ontologischen Gründen.
Zweitens wird das Thema Mühe und Legitimität gesellschaftlich neu verhandelt. In einer Welt, in der alles effizient produziert werden kann, wird das Unökonomische zum eigentlichen Symbolwert. Menschen werden Arbeiten nicht deshalb schätzen, weil sie perfekt sind, sondern weil sie sichtbar Anstrengung, Hingabe und Zeit enthalten. Das könnte zu einer Renaissance von Handwerk, Kunst und „langsamer Arbeit“ führen, die als Gegenpol zur KI-Produktion inszeniert wird. Gesellschaften entwickeln damit neue Rituale der Wertschätzung – nicht für das Endprodukt, sondern für den Prozess.
Drittens ist die Statusordnung betroffen. Kreativität und geistige Leistung galten lange als Felder, in denen Menschen symbolische Überlegenheit beweisen konnten. Wenn Maschinen diese Felder besetzen, müssen Gesellschaften neue Distinktionsmarker entwickeln. Die Ergebnisse zeigen, dass Menschen diese Bedrohung abwehren, indem sie KI-Arbeiten abwerten. Das könnte in zwei Richtungen führen: Entweder entsteht eine Polarisierung zwischen Technikaffinen, die sich als „Maschinenmanager“ verstehen, und Traditionalisten, die das Menschliche verteidigen. Oder es etabliert sich eine neue Kultur der Unverfügbarkeit, in der Wert genau darin gesehen wird, dass etwas nicht automatisierbar ist.
Viertens ergeben sich Implikationen für das Vertrauen in Institutionen. Wenn bereits individuelle Outputs von KI entwertet werden, stellt sich die Frage, wie Gesellschaften mit KI in Politik, Recht, Wissenschaft oder Medizin umgehen. Es ist absehbar, dass Institutionen, die sich stark auf KI stützen, Legitimitätsdefizite erleiden, solange die Bevölkerung das Menschliche als letzte Quelle von Verantwortung einfordert. Die Gefahr besteht darin, dass Vertrauenskrisen entstehen, wenn Menschen das Gefühl haben, dass Entscheidungen nicht mehr „von jemandem“ getragen, sondern „von etwas“ generiert werden.
Fünftens schließlich wird deutlich, dass sich eine neue psychologische Ökonomie der Resonanz herausbildet. Menschen wollen nicht nur Informationen, sie wollen eine Antwortbeziehung. KI kann Antworten simulieren, aber nicht antworten im Sinne einer wechselseitigen Beziehung. Gesellschaftlich könnte dies zu einem paradoxen Effekt führen: Je mehr KI kommuniziert, desto stärker wächst die Sehnsucht nach wirklichen menschlichen Beziehungen. Dies betrifft nicht nur Konsum, sondern auch Politik, Bildung, Kultur und Alltag.
Zusammenfassend lässt sich sagen: Gesellschaften stehen vor der Aufgabe, das Menschliche als kulturelle Ressource neu zu institutionalisieren. Alles, was eindeutig „von Menschen“ stammt, wird aufgeladen mit symbolischem Mehrwert. Alles, was von Maschinen kommt, wird effizient, aber bedeutungsarm. Die größte Herausforderung liegt darin, Legitimität und Vertrauen in einer Welt zu sichern, in der die Maschine technisch überlegen, aber kulturell defizitär bleibt.
Für Marken und Unternehmen sind die Ergebnisse dieser Studie ein Weckruf. Sie zeigen, dass Effizienzgewinne durch KI zwar kurzfristig Kosten senken, langfristig aber das Vertrauens- und Bedeutungsfundament untergraben können. Die zentrale Implikation lautet: Marken, die sich auf KI-Arbeiten verlassen, riskieren systematisch Entwertung.
Erstens wird „Made by Human“ zur ökonomischen Premiumkategorie. Marken, die ihre Produkte, Inhalte und Designs sichtbar an menschliche Autorschaft binden, sichern sich einen Differenzierungsvorteil. Das Label „menschlich geschaffen“ wird zur neuen Luxusmarke. So wie in der Vergangenheit „Handmade in Italy“ oder „Crafted in Japan“ als Qualitätsmarker dienten, wird in Zukunft die Betonung auf menschlicher Herkunft ein entscheidendes Verkaufsargument sein. Unternehmen sollten deshalb beginnen, Transparenzstrategien zu entwickeln, die nicht zeigen, wie stark KI beteiligt war, sondern wie klar das Menschliche den Prozess bestimmt hat.
Zweitens müssen Unternehmen die Gefahren der Hybridisierung erkennen. Die Ergebnisse zeigen, dass gerade hybride Arbeiten am stärksten abgewertet werden, weil sie als Täuschungsversuche erscheinen. Für Marken bedeutet das: Wer KI im Hintergrund nutzt, sollte dies nicht halbherzig kommunizieren. Entweder eine klare Positionierung („dies ist eine KI-Arbeit, inspiriert von menschlichen Daten“) oder eine bewusste Abgrenzung („dies ist rein menschlich geschaffen“) – aber kein Dazwischen. Unklare Hybridstrategien erzeugen Misstrauen und beschädigen den Markenkern.
Drittens eröffnen die Befunde eine neue Logik der Markenführung. Wenn Authentizität zur Währung wird, müssen Marken stärker auf Biografie, Persönlichkeit und narrative Herkunft setzen. Das gilt nicht nur für Künstler oder Designer, sondern auch für Unternehmen in Konsumgütern, Technologie oder Dienstleistungen. Storytelling verschiebt sich von „Was ist das Produkt?“ hin zu „Wer hat es gemacht?“ und „Warum?“ Marken, die es schaffen, diese Geschichten radikal menschlich aufzuladen, gewinnen an Vertrauen.
Viertens entsteht eine Herausforderung in Bezug auf Mitarbeiter und Organisation. Wenn Konsumenten Wert an der menschlichen Herkunft festmachen, müssen Unternehmen darauf achten, dass sie ihre Mitarbeiter nicht unsichtbar machen, sondern sichtbar inszenieren. Hinter Produkten und Dienstleistungen müssen Gesichter, Biografien und Persönlichkeiten stehen. Unternehmen, die das Menschliche in ihrer Wertschöpfungskette unsichtbar machen, riskieren, dass ihre Outputs als seelenlos und austauschbar wahrgenommen werden.
Fünftens schließlich hat dies Implikationen für die Preislogik. KI macht Outputs billig. Doch gerade weil die Maschine nahezu grenzenlos produzieren kann, wird das Menschliche zur knappen Ressource. Das bedeutet: Produkte und Dienstleistungen, die eindeutig „von Menschen“ stammen, können eine Preisprämie erzielen. Unternehmen, die dies verstehen, können eine Dualstrategie entwickeln: einerseits standardisierte, maschinelle Outputs für Effizienzsegmente; andererseits menschlich geprägte Premiumangebote für Segmente, die nach Authentizität suchen. Die Gefahr liegt darin, dass Marken, die sich ausschließlich auf KI verlassen, langfristig in der „Billigfalle“ landen.
Zusammengefasst zeigt sich: Für Marken und Unternehmen ist die zentrale strategische Implikation die Notwendigkeit einer radikalen Humanisierung. Effizienzgewinne durch KI sind betriebswirtschaftlich attraktiv, doch sie zerstören symbolisches Kapital. Wer Relevanz sichern will, muss das Menschliche nicht verstecken, sondern betonen. In einer Welt, in der alles perfekt simuliert werden kann, ist das Unvollkommene, das Mühevolle und das Intentionale der letzte Rest von Bedeutung. Marken, die dies verstehen, werden nicht Opfer der KI-Revolution, sondern nutzen sie, um den Wert des Menschlichen neu sichtbar zu machen.
Die Ergebnisse dieser Studie machen deutlich, dass wir nicht vor einer technologischen, sondern vor einer bedeutungsökonomischen Revolution stehen. KI wird in den kommenden Jahren nahezu alle Produktions- und Kommunikationsprozesse durchdringen, doch sie bringt ein radikales Paradox mit sich: Je besser und perfekter sie arbeitet, desto stärker wächst die Sehnsucht nach dem Menschlichen als Differenzierungsfaktor. Daraus ergeben sich Zukunftsstrategien, die nicht auf technische Leistungsfähigkeit setzen, sondern auf die Inszenierung und Institutionalisierung des Menschlichen in Konsum und Märkten.
Eine erste Zukunftsstrategie ist die Institutionalisierung von „Made by Human“ als neues Qualitätssiegel. So wie Bio- oder Fair-Trade-Labels in den letzten Jahrzehnten symbolische Mehrwerte geschaffen haben, könnte ein offizielles „Human-Crafted“-Label zu einem zentralen Marker werden. Es wäre nicht nur ein Marketinginstrument, sondern eine kulturelle Institution, die den Unterschied zwischen maschineller Produktion und menschlicher Arbeit absichert. Dieses Label könnte in Branchen wie Kunst, Design, Mode, Medien, Bildung oder Gastronomie eine enorme Strahlkraft entfalten. Die Herausforderung liegt darin, es nicht inflationär einzusetzen, sondern strenge Standards zu entwickeln, die tatsächlich menschliche Autorschaft garantieren. Nur so kann es seine symbolische Kraft entfalten und nicht in bloße Rhetorik verfallen.
Zweitens sollten Unternehmen eine Strategie der radikalen Transparenz verfolgen – allerdings nicht in Bezug auf KI-Beteiligung, sondern auf menschliche Herkunft. Transparenz bedeutet hier, dass Marken nicht auf halbe Erklärungen setzen („teilweise mit KI erstellt“), sondern das Menschliche radikal sichtbar machen. Dazu gehören Biografien, persönliche Geschichten, „Macher-Porträts“ und narrative Verankerungen. Der Fokus verschiebt sich von „Was“ auf „Wer“. In einer Welt, in der jeder Output perfekt simulierbar ist, wird die sichtbare Spur des Subjekts zur neuen Währung. Unternehmen müssen ihre Mitarbeiter, Künstler, Designer oder Handwerker in den Vordergrund stellen – nicht als austauschbare Arbeitskräfte, sondern als Träger von Bedeutung.
Drittens wird eine Strategie der Inszenierten Mühe zentral. Die Ergebnisse zeigen, dass Konsumenten Mühe und Anstrengung als Wertmarker begreifen. Marken können dies nutzen, indem sie den Prozess der Arbeit sichtbar machen, nicht nur das Ergebnis. „Behind the Scenes“-Formate, Live-Demonstrationen, Werkstatt-Narrative oder bewusst sichtbare Imperfektionen können so zu Signalen werden, dass echte menschliche Arbeit geflossen ist. Das Paradox lautet: In einer Welt der makellosen Outputs wird das Unvollkommene zur stärksten Differenzierung. Unternehmen müssen lernen, Mühe zu zeigen – nicht als Schwäche, sondern als Beweis von Authentizität.
Eine vierte Zukunftsstrategie betrifft die Segmentierung von Märkten. KI wird Produkte und Dienstleistungen in den Massenmärkten billiger und effizienter machen. Gleichzeitig entsteht ein Premiumsegment, das sich durch menschliche Herkunft differenziert. Märkte werden sich also spalten in KI-getriebene Effizienzsegmente und menschlich aufgeladene Authentizitätssegmente. Unternehmen, die beide bedienen wollen, müssen klare Trennlinien ziehen: KI für standardisierte, kostensensible Kontexte – Mensch für Premium, Identität und Symbolik. Das Risiko liegt in der Verwischung: Hybride Angebote ohne klare Deklaration werden als moralisch fragwürdig empfunden und abgestraft.
Fünftens ergibt sich eine Strategie der Resonanzarchitektur. Marken, die in Zukunft Relevanz sichern wollen, müssen nicht nur Produkte liefern, sondern Beziehungsräume schaffen, in denen Resonanz möglich ist. KI kann Kommunikation simulieren, aber sie erzeugt keine echte Antwortbeziehung. Menschen wollen spüren, dass jemand spricht, nicht dass etwas spricht. Unternehmen müssen daher Kanäle entwickeln, in denen Konsumenten echte menschliche Präsenz erfahren – sei es durch direkte Dialogformate, handgeschriebene Botschaften, persönliche Kundenkontakte oder kuratierte Communities. Resonanz entsteht nicht durch Masse, sondern durch die Erfahrung, dass jemand da ist, der antwortet.
Eine sechste Zukunftsstrategie ist die moralische Positionierung gegen Abkürzungen. Die Ergebnisse zu H2 haben gezeigt, dass Konsumenten hybride Arbeiten als Verrat an der Mühe verstehen. Unternehmen sollten deshalb das Narrativ des „ehrlichen Machens“ kultivieren. Statt zu verschweigen, dass KI genutzt wird, oder halbherziges Co-Creation-Marketing zu betreiben, sollte klar betont werden: „Hier hat ein Mensch die Arbeit getan – ohne Abkürzungen.“ Solche Positionierungen sind nicht nur Abgrenzung, sondern können moralische Autorität erzeugen. In einer Welt, in der KI als Abkürzung gilt, wird derjenige, der bewusst den langen Weg geht, zum moralischen Gewinner.
Siebtens eröffnet sich die Möglichkeit einer Preislogik des Knappen. KI macht Outputs grenzenlos reproduzierbar – und damit wertlos. Menschliche Arbeit dagegen bleibt endlich. Genau darin liegt die neue Preisprämie. Unternehmen können dies nutzen, indem sie Produkte bewusst als limitiert und menschlich erschaffen anbieten. Die Knappheit ist nicht mehr technologisch bedingt, sondern biografisch. Ein Werk ist wertvoll, weil es nur einmal von einer Person in einer bestimmten Situation erschaffen wurde. Diese Aura des Originals wird zur neuen Währung der Premiummärkte.
Achtens schließlich müssen Unternehmen lernen, mit der Polarisierung von Konsumenten umzugehen. Die Ergebnisse zu H4 und H5 zeigen, dass Nicht-Nutzer von KI besonders radikal abwerten, während Nutzer milder reagieren. Hinzu kommt, dass Personen mit starker kreativer Selbstdefinition besonders scharf urteilen. Das bedeutet: Unternehmen müssen differenzierte Strategien entwickeln. Für technikaffine Zielgruppen mag KI-Integration akzeptabel oder sogar attraktiv sein. Für statusorientierte, kreativ definierte Zielgruppen ist dagegen eine radikale Abgrenzung vom Maschinellen notwendig. Die Kunst liegt darin, Segmentstrategien zu entwickeln, die diese unterschiedlichen Wertlogiken bedienen, ohne den Markenkern zu verwässern.
Zusammenfassend lässt sich sagen: Die Zukunftsstrategien in einer KI-dominierten Welt liegen nicht in weiterer Automatisierung, sondern in der Rückbindung an das Menschliche. Unternehmen, die dies verstehen, werden ihre Marken nicht nur differenzieren, sondern ihnen eine moralische, kulturelle und psychologische Tiefe geben, die Maschinen nie erreichen können. Alles, was automatisierbar ist, wird automatisiert – aber alles, was Bedeutung hat, muss bewusst vom Menschen beansprucht werden. Die Maschine produziert Outputs; der Mensch erzeugt Wert. Wer dies strategisch umsetzt, baut nicht nur Produkte oder Services, sondern Resonanzsysteme, die im KI-Zeitalter die letzte Bastion von Relevanz darstellen.
Die vorliegende Studie hat gezeigt, dass wir an einem historischen Kipppunkt stehen: Die Maschine kann alles, außer Wert erzeugen. In einer Welt, in der Künstliche Intelligenz nahezu jede Form von Output in Text, Bild, Musik oder Design erzeugen kann, entscheidet nicht mehr die Qualität über Bedeutung, sondern die Zuschreibung der Herkunft. Wert wird nicht produziert, sondern gedeutet. Und diese Deutung ist im 21. Jahrhundert radikal anthropozentrisch: Nur das Menschliche trägt symbolische, soziale und emotionale Bedeutung.
Die empirischen Befunde sind eindeutig. Menschliche Arbeiten werden systematisch höher bewertet – nicht, weil sie besser wären, sondern weil sie als authentisch, verantwortet und resonant empfunden werden. Dieselben Ergebnisse, von einer KI deklariert, verlieren massiv an Wert. Noch drastischer ist der Befund, dass hybride Arbeiten toxischer bewertet werden als reine KI-Ergebnisse. Sie gelten als Täuschung, als Abkürzung, als Verrat an der Mühe. Während die Maschine immerhin ehrlich maschinell bleibt, wirkt der Mensch in Kooperation mit ihr wie ein Schummler. Die Abwertung ist damit nicht funktional, sondern moralisch.
Hinter diesen Bewertungen stehen klare psychologische Mechanismen. Authentizitätsverlust erklärt, warum maschinelle Ergebnisse leer wirken; Kontrollverlust verdeutlicht, warum Vertrauen schwindet, wenn kein menschlicher Absender erkennbar ist; moralische Abwertung macht deutlich, dass Wert an Mühe gebunden bleibt; und Statusbedrohung erklärt, warum gerade kreative Menschen besonders scharf urteilen: Sie verteidigen ihre Distinktion. Zusammengenommen ergibt sich eine Bewertungslogik, die nicht durch Effizienz, sondern durch Zuschreibungen bestimmt ist.
Die Kontrollvariablen zeigen, dass Erfahrung mit KI die Härte der Abwertung mildert, aber die Grundstruktur nicht verändert. Auch geübte KI-Nutzer bewerten menschliche Arbeiten höher – sie verstehen die Maschine als Werkzeug, aber nicht als Quelle von Bedeutung. Ebenso zeigt sich, dass Personen, die ihre Identität stark über Kreativität definieren, maschinelle Arbeiten besonders radikal abwerten. Die Abwertung ist damit zugleich ein Abwehrmechanismus gegen die Bedrohung des Selbst.
Aus diesen Ergebnissen folgt ein radikales Fazit: „Made by Human“ wird zum Premium-Label der Zukunft. Alles, was mit KI behaftet ist, verliert an symbolischem Wert – egal, wie perfekt es ist. Nur das Menschliche hat noch ökonomische, soziale und kulturelle Bedeutung. Die Maschine produziert Outputs, der Mensch erzeugt Wert.
Dieses Fazit hat weitreichende Konsequenzen. Für die Gesellschaft bedeutet es, dass Authentizität zur letzten knappen Ressource wird. In einer Welt der Simulationen müssen neue Institutionen der Echtheit entstehen: Labels, Zertifikate, Rituale. Gleichzeitig verschiebt sich die Statusordnung: Kreativität und Mühe werden nicht obsolet, sondern aufgewertet. Das Unökonomische – das, was Zeit, Hingabe und Verantwortung erfordert – wird zur Währung. Gesellschaften, die dies nicht verstehen, riskieren einen Verlust von Vertrauen in ihre Institutionen, wenn Entscheidungen oder Werke als „maschinell“ wahrgenommen werden.
Für Marken und Unternehmen bedeutet es, dass Effizienzgewinne durch KI zwar kurzfristig Kosten senken, langfristig aber Vertrauen und Markenwert erodieren. Marken, die auf hybride oder maschinelle Arbeiten setzen, ohne das Menschliche sichtbar zu machen, riskieren symbolischen Kapitalverlust. Erfolgreich werden jene sein, die das Menschliche radikal inszenieren – nicht Perfektion, sondern Mühe, nicht Geschwindigkeit, sondern Herkunft. Unvollkommenheit wird zum Premiumsignal, Biografie zum Wertträger, menschliche Präsenz zur letzten Bastion ökonomischer Differenzierung.
Das Manifest dieser Studie lautet deshalb: Die Maschine wird die Produktion dominieren, aber sie wird niemals Bedeutung stiften. Alles, was automatisierbar ist, wird automatisiert. Aber alles, was Bedeutung hat, muss vom Menschen beansprucht werden. In einer Welt grenzenloser Simulation wird das Menschliche zur eigentlichen Knappheit. Authentizität ist kein Nebenaspekt, sondern die neue Ökonomie.
Die Zukunft liegt damit nicht in der weiteren Perfektion der Maschine, sondern in der bewussten Institutionalisierung des Menschlichen. Labels wie „Made by Human“, Narrative der Mühe, sichtbare Spuren von Autorschaft und biografische Anker werden die Wertordnung der nächsten Jahrzehnte bestimmen. Wer diese Logik versteht, wird nicht Opfer der KI-Revolution, sondern ihr kultureller Gewinner.
Das Menschliche ist der letzte Wertfaktor. Alles andere ist Simulation.















































































