Manchmal reicht ein einziger Tag, um den Überdruss zu spüren: Am Morgen stolpert man auf X über ein plattes KI-Meme, mittags scrollt man durch LinkedIn und findet dort den nächsten glattgebügelten Karriere-Text, nachmittags gleiten auf Instagram makellose Urlaubsbilder vorbei, deren Bildunterschriften seltsam generisch klingen, und beim Googeln liest man eine Restaurantbewertung, die klingt wie aus dem Prompt. Am Abend schließlich liegt die Geburtstagskarte im Briefkasten – überraschend poetisch, aber unübersehbar nicht von der Hand des wortkargen Freundes geschrieben.
Im ersten Moment staunt man, im zweiten kriecht die Kälte in die Adern. Hier schreibt kein Mensch, hier ist nichts besonders oder neu: Es sind von der KI erzeugte Inhalte, die unsere Aufmerksamkeit erregen und doch nur zu kognitiver Dissonanz führen – einem Spannungszustand zwischen Freude über die schöne Form und ehrlicher Irritation über die fehlende Echtheit.
Authentizität ist kein modisches Schlagwort, sondern ein psychologisches Grundbedürfnis. Sie stiftet Vertrauen, Nähe, Resonanz. Fehlt sie, erleben wir Enttäuschung und sogar Reaktanz, also eine innere Abwehrhaltung.
Eine Studie von Kirk und Givi (2025) – bezeichnenderweiseThe AI-authorship effect – zeigt, dass Konsument:innen emotionaler Marketingtexte ihre Loyalität und Weiterempfehlungsbereitschaft signifikant verringern, sobald sie erfahren, dass der Text von einer KI stammt (1). Das Publikum spürt die Diskrepanz zwischen Authentizitätsbedürfnis und Simulakrum – zwischen dem Wunsch nach echter Stimme und dem bloßen Abklatsch eines Algorithmus.
„Zu glatte, maschinenhafte Texte untergraben Vertrauen, weil wir im Zwischenraum zwischen den Zeilen nach einem Menschen suchen – und niemanden finden.“
Viele KI-generierte Inhalte scheinen aus einer sprachlichen Schablone zu stammen: glatt, gefällig, optimistisch. Fachlich korrekt, doch uniform. Kommunikationsforscher sprechen von Überaffirmation – einer Überbetonung des Positiven, die jedes Risiko, jede Kante vermeidet.
Das Ergebnis ist ein epigonaler Stil: nachahmend, redundant, gleichförmig. Man erkennt die wiederkehrenden Muster wie Leitplanken, die verhindern, dass ein Text je ins Unvorhersehbare abbiegt. Eine Analyse aus dem Umfeld der MIT Sloan School of Management zeigt: Menschen bevorzugen Inhalte, die klar erkennbar von Menschen stammen (2). Sie empfinden allerdings keine prinzipielle Abneigung gegen KI-Texte – solange deren Herkunft nicht offengelegt wird. Das Problem liegt also weniger in der Technik als in einer Hermeneutik der Skepsis: Sobald wir ahnen, dass uns ein Text vorspielt, „menschlich“ zu sein, bricht das fragile Vertrauen zusammen.
„Kommunikation ist die Verknüpfung von Mitteilung, Information und Verstehen.“
Wir erleben heute eine digitale Redundanz, deren Ausmaß sich schon vor Jahren abzeichnete. Bereits der Report State of Social Media von 2024 zeigte, dass damals fast 40% der längeren Facebook-Posts von KI-Systemen stammten. Die Folge ist eine anhaltende Content-Müdigkeit. NewsGuard verzeichnete schon 2024 einen Rückgang der Interaktionen mit KI-generierten Artikeln um 40%. Auch die Nutzung populärer KI-Schreibassistenten erlebte nach der ersten Euphorie Phasen der Ernüchterung, wie Analysen von SimilarWeb bereits vor zwei Jahren belegten.
Die Aura des Besonderen geht verloren, wenn alles nach Serie klingt. Walter Benjamin hat in seinem Essay „Das Kunstwerk im Zeitalter seiner technischen Reproduzierbarkeit“ darauf hingewiesen, dass das „Hier und Jetzt des Originals“ die Echtheit seines Daseins ausmacht. Genau diese Aura fehlt den KI-Texten: Sie wirken korrekt, aber austauschbar.
Besonders schmerzhaft wird der Mangel an Echtheit in den intimen Zonen unseres Lebens. Wenn hier maschinelle Texte auftauchen, wirkt das nicht nur unpersönlich, sondern entfremdend. Die Soziologie spricht von Entfremdung, wenn menschliche Nähe durch standardisierte Formen ersetzt wird.
Auch das Konzept der parasozialen Interaktion hilft beim Verstehen: Auf Social Media fühlen wir uns in einem quasi-dialogischen Verhältnis zu anderen. Wenn aber klar wird, dass die vermeintliche Stimme gar keine menschliche ist, bricht diese Illusion. In der Psychologie nennt man das auch Illusion of Intimacy: das Gefühl von Nähe, das aber nicht durch echte Beziehung gedeckt ist.
„Wo Verständigung misslingt, entsteht Herrschaft.“
Spannend ist, wie die Gesellschaft reagiert. Eine Umfrage von Gartner ergab schon 2024: Rund 45 % der Konsumenten lehnen KI in der Werbung ab – eine seltene Einigkeit über Generationsgrenzen hinweg. Die Sehnsucht nach dem Echten zeigt sich heute im Revival von Podcasts, persönlichen Newslettern und handgemachten Inhalten. Chan und Hu prägten in diesem Zusammenhang das Konzept der Writer’s Integrity: Authentizität liegt nicht allein im Text, sondern im Prozess seiner Entstehung (3).
Wie also erzeugen wir Inhalte, die interessant und persönlich sind?
Die Übersättigung durch KI-Inhalte hat uns paradoxerweise vor Augen geführt, wie wertvoll die unverfälschte menschliche Stimme ist. Die Aura des Echten entsteht nicht durch Algorithmen, sondern durch Menschen, die sich zeigen. Vielleicht liegt darin das eigentliche Versprechen der KI: Sie nimmt uns Routinearbeit ab, damit mehr Zeit bleibt für das, was kein Modell jemals liefern kann – Resonanz.