Die Studie „Synthetic Rumors“ basiert auf der Prämisse, dass generative KI nicht lediglich neue Inhalte produziert, sondern die strukturellen Bedingungen öffentlicher Bedeutungszirkulation fundamental verändert. Negative Word of Mouth (NWOM) über Marken war historisch primär erfahrungsbasiert, relational eingebettet und in ihrer Reichweite durch soziale Netzwerke sowie physische Kommunikationsräume begrenzt. Beschwerden entstanden aus konkreten Interaktionen, wurden in sozialen Mikrosystemen geteilt und entwickelten nur unter spezifischen Bedingungen – etwa hoher Relevanz oder moralischer Empörung – eine breitere Diffusionsdynamik. Die Einführung generativer KI verschiebt diese Logik in mehrfacher Hinsicht: Sie senkt die Produktionskosten für glaubwürdig wirkende Negativnarrative nahezu auf Null, erhöht deren sprachliche und visuelle Plausibilität und ermöglicht eine algorithmisch verstärkte Skalierung innerhalb digitaler Plattformökosysteme.
Vor diesem Hintergrund untersucht die Studie drei zentrale, systemisch miteinander verbundene Mechanismen: Erstens die strukturelle Beschleunigung negativer Word of Mouth durch synthetische Gerüchte, zweitens die affektive und moralische Aktivierung als psychologischer Beschleuniger, und drittens die epistemische Resilienz als moderierende Schutzarchitektur, die entscheidet, ob Gerüchte gestoppt oder verstärkt werden. Die Forschungslogik folgt damit einem integrativen Modell, das technologische, emotionspsychologische und erkenntnistheoretische Dimensionen zusammenführt.
Der erste Mechanismus – Beschleunigung – adressiert die Frage, ob und in welchem Ausmaß KI-ähnliche Gerüchte die Geschwindigkeit und Reichweite negativer Markenkommunikation erhöhen. Klassische Gerüchtetheorien, etwa von Allport und Postman, definieren die Intensität eines Gerüchts als Produkt aus Relevanz und Ambiguität. In digitalen Umgebungen kommen jedoch zusätzliche Faktoren hinzu: algorithmische Amplifikation, visuelle Evidenzmarker und narrative Verdichtung. Generative KI kann in kürzester Zeit kohärente Erfahrungsberichte, simulierte Dialoge, vermeintliche Screenshots oder visuell überzeugende Deepfake-Sequenzen erzeugen. Diese Formate fungieren als sogenannte Evidence Tokens – semantische oder visuelle Signale, die Authentizität suggerieren, ohne notwendigerweise auf realen Ereignissen zu basieren. Aus diffusionssoziologischer Perspektive erhöhen solche Marker die wahrgenommene Glaubwürdigkeit und senken zugleich die kognitive Schwelle zur Weiterverbreitung.
Beschleunigung wird in dieser Studie daher nicht ausschließlich als Zunahme von Volumen verstanden, sondern als Veränderung der Diffusionsdynamik: höhere Velocity (Anstieg pro Zeiteinheit), geringere Halbwertszeit bis zur viralen Schwelle, stärkere Clusterbildung in Netzwerken sowie größere Wahrscheinlichkeit sekundärer Empörungswellen („second-hand outrage“). Entscheidend ist dabei, dass synthetische Gerüchte nicht auf reale Kundenerfahrungen angewiesen sind. Sie können präventiv, strategisch oder opportunistisch erzeugt werden und somit negative Word of Mouth initiieren, ohne dass eine vorgängige Interaktion zwischen Konsument und Marke stattgefunden hat. Dies stellt eine qualitative Verschiebung dar: NWOM wird potenziell von einem reaktiven zu einem proaktiven Phänomen.
Der zweite Mechanismus betrifft die Rolle von Affekt und moralischer Aktivierung. Emotionspsychologische Forschung zeigt, dass insbesondere moralische Emotionen – etwa Empörung, Ekel oder moralische Entrüstung – eine hohe Weiterverbreitungswahrscheinlichkeit aufweisen. Empörung wirkt sozial bindend und identitätsstiftend; sie signalisiert normative Positionierung und Zugehörigkeit zu einer moralischen Gemeinschaft. Digitale Plattformen verstärken diese Dynamik, indem sie emotional stark aufgeladene Inhalte algorithmisch bevorzugen. Synthetische Gerüchte können gezielt so formuliert werden, dass sie moralische Normverletzungen implizieren – etwa durch Andeutung von Täuschung, Diskriminierung oder Gefährdung. Dadurch wird nicht nur Aufmerksamkeit erzeugt, sondern ein moralischer Handlungsimpuls aktiviert.
Die Studie geht davon aus, dass Affekt eine mediierende Funktion zwischen Exposition und NWOM-Verhalten einnimmt. Die bloße Wahrnehmung eines negativen Inhalts reicht nicht aus; entscheidend ist die Intensität der affektiven Reaktion. Empörung fungiert hierbei als Beschleuniger, da sie sowohl kognitive Elaborationsprozesse verkürzt als auch die Bereitschaft erhöht, Inhalte ohne umfassende Prüfung weiterzugeben. Moralische Aktivierung transformiert individuelles Erleben in kollektive Handlung: Teilen, Kommentieren oder Boykottaufrufe werden zu performativen Akten der Selbstverortung. In dieser Logik wird negative Word of Mouth nicht mehr primär als Informationsweitergabe verstanden, sondern als identitätskommunikative Praxis.
Der dritte Mechanismus – epistemische Resilienz – adressiert die Frage, warum nicht alle Individuen gleichermaßen anfällig für synthetische Gerüchte sind. Epistemische Resilienz bezeichnet die Fähigkeit, Unsicherheit auszuhalten, Informationen kritisch zu prüfen, kognitive Impulse zur schnellen Urteilsbildung zu regulieren und affektive Aktivierung zu reflektieren. Theoretisch integriert sie Konzepte wie Ambiguitätstoleranz, Need for Cognitive Closure, kognitive Reflexivität sowie Medien- und Quellenkompetenz. Individuen mit hoher epistemischer Resilienz zeichnen sich durch eine erhöhte Bereitschaft aus, Informationsquellen zu überprüfen, alternative Erklärungen in Betracht zu ziehen und emotionale Reaktionen zu modulieren.
Im Kontext synthetischer Gerüchte fungiert epistemische Resilienz als moderierende Variable. Sie beeinflusst, ob affektive Aktivierung unmittelbar in Weiterverbreitung mündet oder durch reflexive Prozesse gebremst wird. Personen mit niedriger Resilienz neigen eher zu schnellen Urteilen und impulsiver Weitergabe, insbesondere unter Bedingungen moralischer Erregung. Personen mit hoher Resilienz hingegen zeigen eine höhere Wahrscheinlichkeit für „Truth Friction“ – also für Verzögerung, Quellenprüfung oder bewusste Nicht-Weitergabe. Auf kollektiver Ebene kann epistemische Resilienz zudem in Form von Community-Normen auftreten, etwa wenn Gruppen explizit Wert auf Verifikation legen („check first“-Kultur) oder umgekehrt Empörung als primäre soziale Währung nutzen („call-out“-Kultur).
Die zentrale Forschungslogik dieser Studie verbindet diese drei Mechanismen zu einem integrierten Prozessmodell: Synthetische Gerüchte erhöhen durch narrative Plausibilität und visuelle Evidenzmarker die Wahrscheinlichkeit initialer Exposition. Diese Exposition aktiviert affektive und moralische Prozesse, die – abhängig vom individuellen Maß epistemischer Resilienz – in beschleunigte negative Word of Mouth übergehen oder gebremst werden. Die resultierende Diffusionsdynamik manifestiert sich in messbaren Parametern wie Geschwindigkeit, Reichweite und Persistenz negativer Markenkommunikation.
Indem die Studie diese Mechanismen im Real-Feldtest mit N = 1.122 untersucht, leistet sie einen Beitrag zur theoretischen Weiterentwicklung der Gerüchteforschung unter Bedingungen generativer KI. Zugleich eröffnet sie markenstrategische Implikationen: Wenn Beschleunigung, Affekt und Resilienz die zentralen Stellhebel sind, verschiebt sich Krisenmanagement von rein reaktiver Kommunikation hin zu präventiver Resilienzarchitektur. Marken stehen nicht mehr nur vor der Aufgabe, falsche Informationen zu korrigieren, sondern müssen verstehen, welche psychologischen Strukturen in ihrer Zielgruppe Gerüchte verstärken oder stoppen. In dieser Perspektive wird epistemische Resilienz zu einem strategischen Schutzfaktor – nicht nur für Individuen, sondern für Markenökosysteme insgesamt.
Die theoretische Fundierung der Studie „Synthetic Rumors“ integriert Ansätze aus der Gerüchteforschung, Emotionspsychologie, Medien- und Plattformtheorie sowie erkenntnistheoretischen Konzepten epistemischer Resilienz. Ziel ist es, die strukturelle Transformation negativer Word of Mouth unter Bedingungen generativer KI nicht isoliert technologisch, sondern als psychologisch-soziales Systemphänomen zu verstehen.
Klassische Gerüchteforschung – insbesondere die Arbeiten von Allport und Postman – definiert die Intensität eines Gerüchts als Funktion von Relevanz und Ambiguität. Je bedeutsamer ein Thema für Individuen ist und je höher die Unsicherheit bezüglich seiner Faktenlage, desto wahrscheinlicher ist die Entstehung und Weitergabe von Gerüchten. Spätere Erweiterungen betonen die soziale Einbettung von Gerüchten als kollektive Sinnstiftungsprozesse, die in Situationen von Unsicherheit Orientierung bieten.
Digitale Plattformen verändern diese Logik in mehrfacher Hinsicht. Erstens erhöhen sie die strukturelle Reichweite von Inhalten durch algorithmische Selektion und Amplifikation. Zweitens verschieben sie die Rolle von Intermediären: Während klassische Medien als Gatekeeper fungierten, erfolgt die Zirkulation heute häufig peer-to-peer, wobei Plattformalgorithmen emotionale Intensität als Relevanzsignal interpretieren. Drittens sinken die Produktionskosten für glaubwürdig wirkende Inhalte drastisch.
Generative KI wirkt hier als Katalysator. Sie ermöglicht die Erzeugung narrativ kohärenter Erfahrungsberichte, simulierten Dialogen oder visuell überzeugender „Beweisstücke“ (Evidence Tokens), ohne dass reale Ereignisse zugrunde liegen müssen. Dadurch wird die in der Gerüchtetheorie zentrale Variable der Ambiguität neu konfiguriert: KI kann Ambiguität nicht nur nutzen, sondern gezielt erzeugen und gleichzeitig scheinbar auflösen, indem sie narrative Kohärenz simuliert. Das Ergebnis ist eine strukturelle Beschleunigung der Diffusion, da die kognitive Hürde zur Weiterverbreitung sinkt.
Diffusionstheoretisch lässt sich dies als Reduktion von „Friction“ interpretieren. Inhalte, die visuelle oder sprachliche Plausibilität signalisieren, werden schneller als glaubwürdig klassifiziert und häufiger geteilt. Gleichzeitig verstärken Plattformarchitekturen emotional aufgeladene Inhalte, was zu einer positiven Rückkopplung zwischen affektiver Intensität und Reichweite führt. Negative Word of Mouth wird damit potenziell von einem reaktiven, erfahrungsbasierten Phänomen zu einem proaktiv generierbaren Kommunikationsmuster.
Die zweite theoretische Säule betrifft die Rolle von Affekt und moralischer Aktivierung. Emotionspsychologische Forschung zeigt, dass insbesondere moralische Emotionen – etwa Empörung, Ekel oder moralische Entrüstung – eine hohe soziale Mobilisierungskraft besitzen. Sie signalisieren Normverletzungen und fordern implizit kollektive Reaktionen ein. Studien zur digitalen Kommunikation belegen, dass Inhalte mit moralischer Sprache signifikant höhere Weiterverbreitungsraten aufweisen als neutral formulierte Informationen.
Empörung wirkt dabei nicht nur als emotionale Reaktion, sondern als identitätsstiftender Akt. Das Teilen empörender Inhalte ermöglicht Individuen, moralische Positionen sichtbar zu machen und Zugehörigkeit zu normativen Gemeinschaften zu signalisieren. Negative Word of Mouth wird in dieser Perspektive zu einer performativen Praxis: Sie dient nicht ausschließlich der Informationsweitergabe, sondern der sozialen Selbstverortung.
Generative KI kann moralische Aktivierung gezielt triggern, indem Narrative konstruiert werden, die implizite Normverletzungen suggerieren – etwa Täuschung, Ausbeutung oder Gefährdung. Solche Narrative sind besonders anschlussfähig, da sie bestehende gesellschaftliche Sensibilitäten aufgreifen. Affekt fungiert hier als Mediator zwischen Exposition und Verhalten: Die bloße Wahrnehmung eines negativen Inhalts führt nicht automatisch zu Weiterverbreitung; entscheidend ist die Intensität der emotionalen Reaktion. Moralische Erregung verkürzt kognitive Elaborationsprozesse und erhöht die Wahrscheinlichkeit impulsiver Weitergabe.
In der Logik dieser Studie wird Affekt daher als zentraler Beschleunigungsfaktor konzeptualisiert. Er transformiert synthetische Gerüchte in sozial wirksame Kommunikationsereignisse und verbindet individuelle Emotion mit kollektiver Dynamik.
Die dritte theoretische Grundlage bildet das Konzept epistemischer Resilienz. Epistemische Resilienz bezeichnet die Fähigkeit, mit Unsicherheit und widersprüchlichen Informationen konstruktiv umzugehen, Urteile aufzuschieben und Quellen kritisch zu prüfen. Sie integriert kognitionspsychologische Konzepte wie Ambiguitätstoleranz, Need for Cognitive Closure, kognitive Reflexivität sowie medienbezogene Kompetenzen.
Individuen mit hoher Ambiguitätstoleranz sind eher bereit, Unsicherheit auszuhalten, ohne vorschnelle Schlüsse zu ziehen. Ein niedriger Need for Closure reduziert die Tendenz, rasch eindeutige Antworten zu suchen, selbst wenn diese auf unvollständigen Informationen beruhen. Kognitive Reflexivität ermöglicht die bewusste Infragestellung erster Intuitionen. Medien- und Quellenkompetenz unterstützt die Einschätzung der Glaubwürdigkeit von Inhalten.
Im Kontext synthetischer Gerüchte wirkt epistemische Resilienz als moderierende Variable. Sie beeinflusst, ob affektive Aktivierung in impulsive Weiterverbreitung mündet oder durch reflexive Prozesse gebremst wird. Personen mit niedriger Resilienz sind anfälliger für moralisch aufgeladene Narrative und zeigen eine höhere Bereitschaft, Inhalte ohne Verifikation zu teilen. Personen mit hoher Resilienz erhöhen hingegen die „Truth Friction“ – sie prüfen Quellen, suchen Gegeninformationen oder verzichten auf Weitergabe.
Auf kollektiver Ebene kann epistemische Resilienz auch als Eigenschaft von Communities verstanden werden. Gruppen mit normativer Betonung von Faktenprüfung entwickeln eine höhere Widerstandsfähigkeit gegenüber synthetischen Gerüchten. Umgekehrt verstärken Umgebungen, in denen Empörung als soziale Währung fungiert, die Diffusion.
Die theoretische Fundierung führt diese drei Stränge in einem integrativen Modell zusammen. Generative KI erhöht durch narrative und visuelle Plausibilität die strukturelle Anschlussfähigkeit negativer Inhalte. Affektive und moralische Prozesse fungieren als psychologischer Motor, der individuelle Exposition in kollektive Dynamik transformiert. Epistemische Resilienz entscheidet schließlich, ob dieser Prozess beschleunigt oder gebremst wird.
Negative Word of Mouth erscheint in diesem Rahmen nicht als isolierte Reaktion, sondern als emergentes Phänomen aus dem Zusammenspiel technologischer Möglichkeiten, emotionaler Aktivierung und erkenntnistheoretischer Dispositionen. Die Studie positioniert sich damit an der Schnittstelle von Medienpsychologie, Sozialpsychologie und Markenforschung. Sie zielt darauf ab, die klassische Gerüchte- und Diffusionstheorie unter Bedingungen generativer KI weiterzuentwickeln und epistemische Resilienz als strategischen Schutzfaktor im Markenökosystem theoretisch wie empirisch zu verankern.
Auf Basis der theoretischen Fundierung werden im Folgenden die zentralen Hypothesen der Studie systematisch hergeleitet. Die Ableitung folgt der Logik eines integrierten Prozessmodells: Technologisch erzeugte Plausibilität (synthetische Gerüchte) trifft auf affektive Aktivierung und wird durch epistemische Resilienz moderiert. Negative Word of Mouth wird dabei nicht als isoliertes Kommunikationsereignis verstanden, sondern als emergente Folge dieser Interaktionen.
Die erste Hypothese adressiert den strukturellen Beschleunigungsmechanismus synthetischer Gerüchte. Gerüchte entfalten ihre Wirkung nicht allein durch inhaltliche Negativität, sondern durch wahrgenommene Plausibilität. Klassische Gerüchteforschung betont die Rolle von Ambiguität und Relevanz; digitale Kommunikationsforschung ergänzt diese Perspektive um visuelle Evidenzmarker als Beschleunigungsfaktoren.
Visuelle Inszenierungen – etwa Screenshots vermeintlicher Chats, manipulierte Produktbilder oder Deepfake-Videoausschnitte – fungieren als sogenannte Evidence Tokens. Sie suggerieren Authentizität, indem sie an etablierte Wahrnehmungsschemata anschließen: Ein Screenshot gilt intuitiv als „Beweis“, ein Video als unmittelbare Realität. Die kognitive Verarbeitung visueller Informationen erfolgt häufig schneller und mit geringerer analytischer Distanz als textbasierte Inhalte. Dual-Process-Modelle der Informationsverarbeitung (System-1-/System-2-Logik) legen nahe, dass visuelle Reize stärker heuristisch verarbeitet werden und dadurch die Wahrscheinlichkeit unmittelbarer Urteilsbildung erhöhen.
Hinzu kommt die Plattformlogik: Visuell aufgeladene Inhalte erzielen in sozialen Netzwerken signifikant höhere Interaktionsraten. Algorithmen priorisieren Inhalte mit hohem Engagement; visuelle Elemente erhöhen Klick- und Teilwahrscheinlichkeiten und verstärken somit die Reichweite. Damit entsteht eine positive Rückkopplung zwischen visueller Plausibilität und algorithmischer Amplifikation.
Aus diffusionssoziologischer Perspektive bedeutet dies, dass visuell inszenierte Gerüchte eine höhere „Velocity“ erreichen – also einen schnelleren Anstieg von Weiterverbreitung innerhalb eines gegebenen Zeitfensters. Velocity ist hier nicht bloß Volumen, sondern die Geschwindigkeit, mit der ein Gerücht kritische Schwellen überschreitet. KI-gestützte visuelle Inszenierungen reduzieren die kognitive Schwelle zur Weitergabe und erhöhen gleichzeitig die algorithmische Sichtbarkeit. Daraus ergibt sich die Annahme, dass synthetische Gerüchte mit visuellen Evidenzmarkern eine signifikant höhere NWOM-Velocity erzeugen als rein textbasierte Negativnarrative.
Die zweite Hypothese bezieht sich auf die affektive Vermittlung zwischen Exposition und Verhalten. Negative Inhalte allein erklären nicht vollständig die Weiterverbreitung. Entscheidend ist die emotionale Reaktion, insbesondere moralische Empörung.
Emotions- und Moralpsychologie zeigen, dass Empörung eine sozial mobilisierende Emotion ist. Sie entsteht, wenn wahrgenommene Normverletzungen moralische Erwartungen verletzen. Empörung aktiviert nicht nur individuelle Bewertung, sondern impliziert eine soziale Handlungsaufforderung. Das Teilen empörender Inhalte dient dabei der öffentlichen Positionierung und der Signalgebung normativer Zugehörigkeit.
Im Kontext synthetischer Gerüchte fungiert Empörung als Mediator. Die Exposition gegenüber einem visuell plausiblen, negativ konnotierten Gerücht erzeugt zunächst eine affektive Aktivierung. Diese Aktivierung ist entscheidend für die Transformation von Wahrnehmung in Handlung. Ohne affektive Intensität bleibt ein negativer Inhalt kognitiv registriert, führt jedoch nicht zwangsläufig zu Weitergabe.
Empörung verkürzt kognitive Elaborationsprozesse. Unter hoher emotionaler Erregung sinkt die Bereitschaft zur systematischen Prüfung von Quellen; heuristische Urteilsprozesse dominieren. Moralische Aktivierung erhöht zudem die subjektive Relevanz des Inhalts. Dadurch steigt die Wahrscheinlichkeit, dass Individuen Inhalte kommentieren, teilen oder aktiv weiterverbreiten.
Die Hypothese impliziert eine mediierende Struktur: Visuelle Inszenierung erhöht die wahrgenommene Plausibilität; diese Plausibilität triggert Empörung; Empörung erhöht die Weiterverbreitungswahrscheinlichkeit. Der direkte Effekt visueller Inszenierung auf NWOM-Verhalten wird teilweise oder vollständig durch Empörung erklärt. Empörung fungiert somit als psychologischer Beschleuniger synthetischer Gerüchte.
Die dritte Hypothese adressiert die moderierende Rolle epistemischer Resilienz. Während H1 und H2 strukturelle und affektive Beschleuniger beschreiben, fokussiert H3 auf individuelle Schutzmechanismen.
Epistemische Resilienz umfasst mehrere Dimensionen: Ambiguitätstoleranz, niedriger Need for Closure, kognitive Reflexivität sowie Medien- und Quellenkompetenz. Personen mit hoher Ambiguitätstoleranz können Unsicherheit akzeptieren, ohne sofort eindeutige Schlüsse zu ziehen. Ein niedriger Need for Closure reduziert die Tendenz zu vorschneller Urteilsbildung. Kognitive Reflexivität ermöglicht die bewusste Infragestellung erster Intuitionen. Medienkompetenz erhöht die Fähigkeit, visuelle und narrative Plausibilitätsmarker kritisch zu prüfen.
Im Kontext synthetischer Gerüchte wirkt epistemische Resilienz als Bremse im Prozessmodell. Sie erhöht die sogenannte „Truth Friction“ – also die Wahrscheinlichkeit, dass Individuen vor einer Weitergabe innehalten, Quellen prüfen oder alternative Informationen suchen. Selbst bei hoher affektiver Aktivierung kann eine ausgeprägte Resilienz die Transformation von Emotion in Verhalten unterbrechen.
Die Hypothese geht davon aus, dass hohe epistemische Resilienz signifikant mit geringerer realer Weitergabe korreliert. Dieser Effekt wird besonders deutlich bei visuell inszenierten Gerüchten, da hier die Plausibilitätsillusion besonders stark ist. Resiliente Individuen sind eher in der Lage, visuelle Evidence Tokens als potenziell manipulierbar zu erkennen und ihre heuristische Wirkung zu relativieren.
Auf aggregierter Ebene impliziert dies, dass Zielgruppen mit niedriger epistemischer Resilienz ein höheres strukturelles Risiko für Beschleunigungseffekte darstellen. Marken, deren Communities geringe Resilienz aufweisen, sind folglich anfälliger für synthetische Gerüchtewellen.
Die vierte Hypothese erweitert das Modell um die Dimension strategischer Intervention. Marken reagieren auf Gerüchte typischerweise mit Korrekturen, Dementis oder evidenzbasierten Stellungnahmen. Die Wirksamkeit solcher Reaktionen ist jedoch nicht homogen.
Theorien kognitiver Dissonanz und Reaktanz legen nahe, dass Personen mit stark aktivierter moralischer Überzeugung korrigierende Informationen als Bedrohung ihrer Position interpretieren können. Insbesondere bei niedriger epistemischer Resilienz kann eine Markenreaktion nicht zur Deeskalation, sondern zur weiteren Polarisierung führen. Korrekturen werden dann als Verteidigungsstrategie oder Verschleierung wahrgenommen.
Bei Individuen mit hoher epistemischer Resilienz hingegen erhöhen transparente Reaktionen die wahrgenommene Glaubwürdigkeit. Sie sind eher bereit, neue Informationen in ihre Bewertung zu integrieren und ihre Position zu revidieren. Hier entfaltet evidenzbasierte Kommunikation stabilisierende Effekte.
Die Hypothese postuliert daher einen Interaktionseffekt: Markenreaktionen reduzieren negative Word of Mouth signifikant nur innerhalb von High-Resilience-Segmenten. In Low-Resilience-Segmenten bleibt der Effekt neutral oder kann im Extremfall kontraproduktiv wirken. Dies impliziert, dass Krisenkommunikation differenziert betrachtet werden muss; eine universelle Reaktionsstrategie greift zu kurz.
Die vier Hypothesen bilden ein kohärentes Prozessmodell: Visuelle Inszenierung erhöht strukturelle Beschleunigung (H1). Empörung vermittelt diesen Effekt auf Verhalten (H2). Epistemische Resilienz moderiert die Transformation von Emotion in Weitergabe (H3). Markenreaktionen entfalten ihre Wirkung selektiv in Abhängigkeit von Resilienzprofilen (H4).
Gemeinsam beschreiben sie eine neue Dynamik negativer Word of Mouth unter Bedingungen generativer KI: Ein technologischer Beschleuniger trifft auf affektive Mobilisierung und wird durch erkenntnistheoretische Dispositionen moduliert. Die empirische Prüfung dieser Hypothesen ermöglicht es, synthetische Gerüchte nicht nur als Kommunikationsphänomen, sondern als psychodynamisches System zu verstehen, in dem Geschwindigkeit, Emotion und Resilienz die zentralen Stellhebel darstellen.
Das Forschungsmodell der Studie „Synthetic Rumors“ folgt einer prozessualen Logik. Negative Word of Mouth wird nicht als isolierte Reaktion auf Information verstanden, sondern als sequenzieller Transformationsprozess: von Exposition über emotionale Aktivierung und moralische Bewertung hin zu Verhaltensintention und realer Weitergabe. Dieser Prozess wird entscheidend durch epistemische Resilienz moderiert. Das Modell integriert damit medienpsychologische, emotionspsychologische und erkenntnistheoretische Perspektiven in einer kausalen Struktur.
Der Ausgangspunkt des Modells ist die Exposition gegenüber einem synthetischen Gerücht. Ein synthetisches Gerücht wird definiert als ein negativ konnotiertes Markennarrativ, das durch generative KI oder KI-ähnliche Inszenierung erzeugt oder verstärkt wurde und visuelle oder narrative Plausibilitätsmarker enthält. Diese Marker – etwa simulierte Screenshots, scheinbare Chatverläufe, manipulierte Bilder oder emotional zugespitzte Erfahrungsberichte – erhöhen die wahrgenommene Authentizität, ohne notwendigerweise auf realen Ereignissen zu beruhen.
Exposition ist im Modell nicht binär, sondern graduell. Sie umfasst die Wahrnehmungshäufigkeit, die Formatqualität (Text versus visuelle Inszenierung) und die wahrgenommene Glaubwürdigkeit. Theoretisch wird davon ausgegangen, dass synthetische Gerüchte aufgrund ihrer inszenierten Plausibilität eine höhere initiale Anschlussfähigkeit besitzen als klassische, rein textbasierte Kritik. Die Exposition bildet jedoch lediglich die notwendige Bedingung für den weiteren Prozess; sie erklärt noch nicht das Verhalten.
Auf die Exposition folgt im Modell die affektive Aktivierung. Hier stehen insbesondere Empörung und Angst im Zentrum. Empörung entsteht bei wahrgenommenen Normverletzungen, etwa wenn ein Unternehmen als unfair, betrügerisch oder moralisch fragwürdig dargestellt wird. Angst hingegen resultiert aus potenzieller Gefährdung, etwa wenn Produkte als gesundheitsschädlich oder sicherheitsrelevant problematisch inszeniert werden.
Affektive Aktivierung fungiert als Transformationspunkt zwischen kognitiver Wahrnehmung und sozialer Handlung. Emotionspsychologisch ist belegt, dass hohe emotionale Intensität die Wahrscheinlichkeit sozialer Weitergabe signifikant erhöht. Moralisch aufgeladene Emotionen besitzen eine besondere Mobilisierungskraft, da sie kollektive Reaktionen implizieren. Empörung signalisiert nicht nur persönliche Betroffenheit, sondern fordert implizit soziale Positionierung ein.
Im Forschungsmodell wird angenommen, dass synthetische Gerüchte über ihre visuelle und narrative Inszenierung stärkere affektive Reaktionen hervorrufen als nüchterne Negativberichte. Die Intensität der affektiven Aktivierung bestimmt maßgeblich, ob der Prozess weiter in Richtung moralischer Bewertung und Handlung fortschreitet.
Die affektive Aktivierung mündet in eine moralische Bewertung. Hier transformiert sich Emotion in normatives Urteil. Individuen beurteilen die Marke nicht mehr lediglich funktional oder ökonomisch, sondern moralisch: Ist das Verhalten gerecht oder ungerecht? Verantwortlich oder verantwortungslos? Vertrauenswürdig oder täuschend?
Diese moralische Bewertung ist entscheidend, weil sie die Brücke zwischen Emotion und sozialem Handeln bildet. Negative Word of Mouth ist häufig nicht primär informationsgetrieben, sondern normativ motiviert. Das Teilen eines Gerüchts wird zur performativen Handlung, mit der Individuen ihre moralische Position kommunizieren. Moralische Urteile verstärken die subjektive Legitimation der Weitergabe: Wer eine Normverletzung wahrnimmt, empfindet Weiterverbreitung als gerechtfertigte oder sogar notwendige Handlung.
Im Modell wird angenommen, dass moralische Bewertung die affektive Aktivierung strukturiert und stabilisiert. Während Emotion flüchtig sein kann, verleiht moralische Bewertung der Reaktion Dauerhaftigkeit und kognitive Rahmung. Sie erhöht die Wahrscheinlichkeit, dass aus spontaner Empörung eine stabile Weiterverbreitungsintention entsteht.
Die nächste Stufe des Modells ist die Intention zur negativen Weiterverbreitung. Intention wird hier als bewusste oder halb-bewusste Bereitschaft definiert, negative Inhalte über eine Marke aktiv zu teilen, zu kommentieren oder in sozialen Kontexten zu reproduzieren. Sie bildet die unmittelbare Vorstufe realen Verhaltens.
Theorien geplanten Verhaltens legen nahe, dass Intention ein zentraler Prädiktor tatsächlicher Handlung ist, sofern situative Barrieren gering sind. In digitalen Umgebungen sind diese Barrieren minimal: Ein Klick genügt, um Inhalte zu teilen. Dadurch steigt die Wahrscheinlichkeit, dass Intention in Verhalten übergeht.
Im Kontext synthetischer Gerüchte wird angenommen, dass hohe moralische Aktivierung zu einer signifikanten Erhöhung der NWOM-Intention führt. Die subjektive Wahrnehmung, eine moralisch relevante Information zu verbreiten, verstärkt die Handlungsbereitschaft. Gleichzeitig kann die soziale Architektur der Plattform – Likes, Shares, Kommentare – als Verstärker fungieren, indem sie unmittelbare soziale Rückkopplung ermöglicht.
Die letzte Stufe des Modells ist das reale negative Word-of-Mouth-Verhalten. Dieses umfasst tatsächliches Teilen, Kommentieren oder aktives Weitererzählen negativer Inhalte über Marken. Entscheidend ist, dass reales Verhalten nicht ausschließlich aus eigener Erfahrung gespeist sein muss. Synthetische Gerüchte ermöglichen „second-hand outrage“ – also moralische Empörung ohne persönliche Betroffenheit.
Reales NWOM-Verhalten manifestiert sich in messbaren Parametern wie Weiterverbreitungsrate, Engagement-Intensität und Persistenz der negativen Kommunikation. Es bildet den Endpunkt des sequenziellen Modells, ist jedoch zugleich Ausgangspunkt für neue Diffusionswellen.
Das gesamte Prozessmodell wird durch epistemische Resilienz moderiert. Epistemische Resilienz wirkt an mehreren Stellen des Prozesses hemmend oder verstärkend. Sie beeinflusst bereits die Bewertung der Exposition, indem sie die Plausibilitätsannahme relativiert. Sie moduliert die Intensität affektiver Aktivierung, indem sie impulsive Reaktionen reguliert. Sie beeinflusst die moralische Bewertung, indem sie alternative Interpretationen zulässt. Und sie reduziert schließlich die Wahrscheinlichkeit, dass Intention in reales Verhalten übergeht.
Personen mit hoher epistemischer Resilienz zeigen eine erhöhte Bereitschaft zur Quellenprüfung und eine größere Toleranz gegenüber Unsicherheit. Sie sind weniger anfällig für visuelle Evidence Tokens und weniger geneigt, moralische Urteile vorschnell zu fällen. Personen mit niedriger Resilienz hingegen reagieren stärker affektiv, bewerten schneller moralisch und transformieren Intention häufiger in Verhalten.
Im Modell fungiert epistemische Resilienz daher als zentraler Schutzfaktor. Sie unterbricht oder verlangsamt den Übergang von Exposition zu realer negativer Word of Mouth. Auf kollektiver Ebene kann eine hohe durchschnittliche Resilienz in einer Community die Ausbreitung synthetischer Gerüchte deutlich dämpfen.
Zusammenfassend beschreibt das Forschungsmodell eine lineare, jedoch durch Resilienz moderierte Prozesskette: Synthetische Exposition aktiviert Emotion, Emotion strukturiert moralische Bewertung, moralische Bewertung erzeugt Weiterverbreitungsintention, und Intention mündet in reales Verhalten. Die Stärke dieser Übergänge ist jedoch nicht universell, sondern abhängig von epistemischer Resilienz. Damit wird negative Word of Mouth unter Bedingungen generativer KI als dynamisches Zusammenspiel technologischer Inszenierung, emotionaler Mobilisierung und erkenntnistheoretischer Disposition konzeptualisiert.
Das Design der Studie ist konsequent als Real-Feldtest konzipiert. Ziel ist es, die Dynamik synthetischer Gerüchte nicht unter künstlichen Laborbedingungen, sondern in ihrer natürlichen digitalen Umwelt zu erfassen. Negative Word of Mouth wird dabei nicht simuliert, sondern in realen Plattformkontexten beobachtet und mit individuellen Dispositionen verknüpft. Die Studie folgt einer mehrphasigen Architektur, die psychologische Ausgangsstrukturen, reale Expositionen und externe Ereignisdynamiken integriert. Mit einer Stichprobe von N = 1.122 Personen wird eine belastbare empirische Grundlage geschaffen, die sowohl repräsentative Aussagen ermöglicht als auch differenzierte Segmentanalysen zulässt.
Die Stichprobe ist repräsentativ nach Alter, Geschlecht und Bildung für die online-affine Bevölkerung strukturiert. Zusätzlich wird ein gezielter Heavy-Social-User-Boost implementiert, um jene Nutzergruppen angemessen abzubilden, die aufgrund hoher Plattformintensität als potenzielle Beschleuniger negativer Word of Mouth fungieren. Diese strategische Übergewichtung ist forschungslogisch notwendig, da synthetische Gerüchte primär in digitalen Umgebungen entstehen und zirkulieren. Die Stichprobe wird so kalibriert, dass sowohl durchschnittliche Nutzer als auch hochaktive Multiplikatoren empirisch sichtbar werden. Damit entsteht eine differenzierte Datenbasis, die nicht nur Mittelwerte, sondern strukturelle Unterschiede in der Gerüchteanfälligkeit offenlegt.
Die erste Phase der Studie dient der Erhebung psychologischer Baseline-Variablen. Hier wird ein Epistemische-Resilienz-Index entwickelt und operationalisiert. Dieser Index integriert mehrere theoretisch fundierte Komponenten: Ambiguitätstoleranz als Fähigkeit, Unsicherheit auszuhalten; Need for Closure als Tendenz zur schnellen Urteilsbildung; kognitive Reflexivität als Bereitschaft zur Infragestellung erster Intuitionen; sowie medienbezogene Quellenkompetenz. Die Kombination dieser Dimensionen erlaubt eine differenzierte Messung jener Disposition, die im Forschungsmodell als moderierender Schutzfaktor fungiert.
Ergänzend werden Need for Closure und Reaktanz separat erhoben, um spezifische Effekte isolieren zu können. Need for Closure operationalisiert das Bedürfnis nach eindeutigen Antworten und kann insbesondere bei moralisch aufgeladenen Gerüchten eine Beschleunigungsfunktion übernehmen. Reaktanz wiederum misst die Tendenz, auf wahrgenommene Einschränkungen der eigenen Autonomie mit Widerstand zu reagieren – ein Faktor, der insbesondere bei Markenreaktionen relevant wird. Darüber hinaus wird die Intensität der Social-Media-Nutzung erhoben, differenziert nach Plattformen, Interaktionsformen und Nutzungsdauer. Diese Variable dient nicht nur als Kontrollgröße, sondern als struktureller Verstärkerfaktor im Diffusionsprozess. Schließlich wird das generelle Markenvertrauen erfasst, um Ausgangsniveaus der Vertrauensdisposition zu berücksichtigen.
Die Baseline-Erhebung schafft somit eine psychologische Landkarte der Stichprobe. Sie ermöglicht die Identifikation von Resilienz-Segmenten und bildet die Grundlage für spätere Moderationsanalysen. Methodisch wird hierbei auf validierte Skalen und adaptierte Kurzformen etablierter Instrumente zurückgegriffen, um Reliabilität und Vergleichbarkeit sicherzustellen.
Die zweite Phase bildet den Kern des Real-Feldtests. Über einen Zeitraum von vier Wochen dokumentieren die Teilnehmer in einem strukturierten Feld-Diary reale Expositionen mit negativen Markeninhalten. Dieses Diary ist digital implementiert und so gestaltet, dass es niedrigschwellig nutzbar ist, ohne den Alltag der Teilnehmer übermäßig zu belasten. Zentral ist, dass keine künstlichen Stimuli oder manipulierten Inhalte eingesetzt werden. Es wird ausschließlich reales Feldgeschehen erfasst. Dadurch wird die ökologische Validität maximiert und ethische Integrität gewährleistet.
Sobald Teilnehmer auf einer Plattform einen negativen Markeninhalt wahrnehmen, dokumentieren sie mehrere Parameter. Zunächst wird die Plattform erfasst, um plattformspezifische Dynamiken zu identifizieren. Anschließend wird das Format des Inhalts kategorisiert – Text, Screenshot, Video oder andere visuelle Inszenierungen. Diese Differenzierung ist entscheidend für die Prüfung der Beschleunigungshypothese. Darüber hinaus bewerten die Teilnehmer die wahrgenommene Glaubwürdigkeit des Inhalts sowie ihre emotionale Reaktion, insbesondere Empörung und Angst.
Ein zentraler Bestandteil des Diarys ist die Erfassung realer Handlung. Teilnehmer geben an, ob sie den Inhalt ignoriert, kommentiert, geteilt oder anderweitig weiterverbreitet haben. Diese Selbstberichte werden durch zeitnahe Erhebung abgesichert, um Erinnerungsverzerrungen zu minimieren. Zusätzlich wird erfasst, ob und welche Prüfschritte unternommen wurden – etwa das Öffnen externer Quellen oder die Suche nach Gegeninformationen. Dieser Aspekt operationalisiert die im Modell beschriebene „Truth Friction“.
Durch die Kombination aus Expositionsdaten, affektiven Reaktionen und tatsächlichem Verhalten entsteht ein hochauflösender Datensatz, der die sequenzielle Logik des Forschungsmodells empirisch abbildet. Der vierwöchige Zeitraum ermöglicht es, wiederholte Expositionen zu erfassen und intraindividuelle Schwankungen zu analysieren. Damit wird nicht nur zwischen Personen, sondern auch innerhalb von Personen differenziert.
Parallel zur Diary-Phase wird ein Incident-Tracking implementiert. Hier werden reale Marken-Vorfälle im Untersuchungszeitraum systematisch erfasst und analysiert. Dazu gehören öffentlich sichtbare Shitstorms, Gerüchtewellen oder mediale Negativereignisse in verschiedenen Branchen. Mittels Social-Listening-Instrumenten werden Volumen, Geschwindigkeit und Struktur negativer Kommunikation gemessen. Besonders relevant ist die Erfassung von Evidence Tokens – also visuellen oder narrativen Elementen, die Authentizität suggerieren. Ebenso wird die Reaktionszeit der betroffenen Marken dokumentiert.
Diese externe Ereignisebene wird mit den individuellen Diary-Daten verknüpft. So lässt sich analysieren, wie Teilnehmer auf konkrete reale Vorfälle reagieren und wie ihre Resilienzprofile die individuelle Beteiligung an Diffusionsprozessen beeinflussen. Die Kombination aus individueller Mikroebene und externer Makroebene stellt einen zentralen Mehrwert des Designs dar. Sie erlaubt es, Beschleunigung nicht nur subjektiv wahrzunehmen, sondern objektiv in der zeitlichen Dynamik negativer Kommunikation zu messen.
Analytisch wird das Design eine mehrstufige Modellierung ermöglichen. Auf individueller Ebene können Pfadanalysen die Sequenz Exposition → Affekt → moralische Bewertung → Intention → Verhalten abbilden. Moderationsanalysen prüfen den Einfluss epistemischer Resilienz auf die Übergangswahrscheinlichkeiten. Auf Ereignisebene können Zeitreihenanalysen und Diffusionsmetriken die Geschwindigkeit synthetischer Gerüchte quantifizieren. Durch die Verknüpfung beider Ebenen entsteht ein integratives Bild der Dynamik.
Die Stärke dieses Designs liegt in seiner ökologischen Validität. Es vermeidet die künstliche Generierung von Falschinformationen und untersucht stattdessen reale Kommunikationsprozesse. Gleichzeitig erlaubt die strukturierte Erhebung eine präzise Operationalisierung theoretischer Konstrukte. Die Kombination aus repräsentativer Stichprobe, psychologischer Baseline und longitudinalem Feld-Diary schafft eine belastbare Grundlage für kausale Schlussfolgerungen.
Insgesamt ist das Design darauf ausgelegt, die zentrale Forschungsfrage nicht abstrakt, sondern in ihrer realen sozialen Einbettung zu beantworten. Es verbindet individuelle Dispositionen mit kollektiven Kommunikationsdynamiken und integriert technologische, emotionale und erkenntnistheoretische Dimensionen. Damit wird synthetische Desinformation nicht nur als mediales Phänomen, sondern als systemischer Prozess empirisch greifbar gemacht.
Die Auswertung der Real-Feldstudie mit N = 1.122 zeigt ein konsistentes, theoriegestütztes Muster: Synthetische Gerüchte entfalten ihre Wirkung nicht primär über Informationsgehalt, sondern über strukturelle Plausibilität, affektive Mobilisierung und unterschiedliche Grade epistemischer Resilienz. Die Ergebnisse bestätigen die prozessuale Logik des Forschungsmodells und differenzieren zugleich die Mechanismen, über die negative Word of Mouth unter Bedingungen generativer KI beschleunigt wird.
Im Hinblick auf H1 – die Annahme, dass visuell inszenierte Gerüchte eine höhere NWOM-Velocity erzeugen – zeigen die Feld-Diary-Daten und das parallele Incident-Tracking eine signifikante Differenz zwischen rein textbasierten Negativinhalten und solchen mit visuellen Evidence Tokens. Inhalte, die Screenshots, vermeintliche Chatverläufe oder Videoausschnitte enthielten, wurden nicht nur häufiger als glaubwürdig eingeschätzt, sondern erreichten auch innerhalb kürzerer Zeit höhere Interaktionsraten. Die gemessene Velocity – operationalisiert als Anstieg negativer Interaktionen pro Zeiteinheit – lag bei visuell inszenierten Gerüchten im Durchschnitt deutlich über textbasierten Formaten. Besonders ausgeprägt war dieser Effekt bei Kurzvideoformaten, die emotional zugespitzt inszeniert waren.
Interessanterweise war der Volumeneffekt weniger stark als der Geschwindigkeitseffekt. Das bedeutet: Visuelle Gerüchte führten nicht zwingend zu insgesamt mehr negativer Kommunikation, aber sie überschritten schneller kritische Schwellen. Dieser Befund stützt die Annahme, dass visuelle Plausibilitätsmarker primär als Beschleuniger wirken. Die qualitative Analyse der Inhalte zeigte zudem, dass visuelle Elemente häufig als „Beweis“ zitiert wurden („Man sieht es doch“, „Schau dir das an“), selbst wenn sie objektiv keine überprüfbare Evidenz darstellten. Damit wird deutlich, dass Evidence Tokens kognitive Abkürzungen aktivieren und heuristische Verarbeitung verstärken.
H2 postulierte eine mediierende Rolle von Empörung zwischen Exposition und Weiterverbreitung. Die Strukturgleichungsmodelle bestätigen diese Annahme. Der direkte Effekt visueller Inszenierung auf NWOM-Verhalten reduzierte sich signifikant, sobald Empörung in das Modell integriert wurde. Empörung erwies sich als starker Prädiktor für Weiterverbreitungsintention und reales Verhalten. Angst zeigte ebenfalls Effekte, jedoch schwächer und weniger konsistent. Moralische Empörung war der dominante Treiber.
Die affektive Intensität wirkte dabei nicht linear. Ab einem bestimmten Schwellenwert stieg die Wahrscheinlichkeit realer Weitergabe überproportional an. Dieser Befund deutet auf eine kritische Aktivierungszone hin, in der Emotion nicht nur Reaktion, sondern Handlungsimpuls wird. Teilnehmer mit hoher Empörung berichteten signifikant häufiger, Inhalte kommentiert oder geteilt zu haben, selbst wenn sie keine eigene Markenerfahrung hatten. Dieser „second-hand outrage“-Effekt unterstreicht die Rolle moralischer Aktivierung als Motor synthetischer Gerüchte.
Im Hinblick auf H3 – die moderierende Wirkung epistemischer Resilienz – zeigt sich ein differenziertes Bild. Der Epistemische-Resilienz-Index korrelierte negativ mit realer Weitergabe. Personen im oberen Resilienz-Quartil wiesen signifikant geringere Weiterverbreitungsraten auf als Personen im unteren Quartil. Dieser Effekt blieb auch unter Kontrolle von Social-Media-Intensität und generellem Markenvertrauen bestehen.
Die Moderationsanalyse verdeutlicht, dass Resilienz insbesondere an der Schwelle zwischen affektiver Aktivierung und Verhalten wirksam wird. Während Empörung bei allen Teilnehmern ähnliche Intensitätswerte erreichen konnte, transformierte sie sich bei niedriger Resilienz deutlich häufiger in reale Handlung. Hohe Resilienz erhöhte die Wahrscheinlichkeit, dass Teilnehmer Prüfschritte einleiteten, Quellen recherchierten oder bewusst auf Weitergabe verzichteten. Diese erhöhte „Truth Friction“ fungierte als effektiver Dämpfungsmechanismus.
Segmentanalysen identifizierten drei klar unterscheidbare Gruppen: Amplifier, Brake und Volatile. Amplifier zeichneten sich durch niedrige Resilienz, hohe Empörungsneigung und intensive Plattformnutzung aus. Brake wiesen hohe Resilienz und moderate Plattformintensität auf; sie zeigten signifikant geringere Weiterverbreitungsraten. Volatile kombinierten hohe Plattformnutzung mit mittlerer Resilienz und reagierten stark kontextabhängig. Diese Segmentierung bestätigt die Annahme, dass synthetische Gerüchte nicht homogen wirken, sondern auf unterschiedliche psychologische Profile treffen.
H4 untersuchte die Wirkung von Markenreaktionen in Abhängigkeit von Resilienzprofilen. Die Incident-Tracking-Daten zeigen, dass schnelle und transparente Markenreaktionen bei High-Resilience-Segmenten tatsächlich zu einer Reduktion negativer Intentionen führten. Teilnehmer mit hoher Resilienz bewerteten evidenzbasierte Stellungnahmen als glaubwürdig und passten ihre Einschätzung an. In Low-Resilience-Segmenten war dieser Effekt hingegen nicht signifikant oder teilweise sogar invers. Dort wurden Markenreaktionen häufiger als defensive oder strategische Manöver interpretiert, was Reaktanz verstärkte.
Die Interaktion zwischen Resilienz und Reaktanz erwies sich als zentral. Teilnehmer mit hoher Reaktanzneigung reagierten auf korrigierende Informationen teilweise mit verstärkter Ablehnung. Dieser Effekt war besonders ausgeprägt bei moralisch stark aufgeladenen Gerüchten. Markenreaktionen konnten hier nur dann stabilisierend wirken, wenn sie nicht als autoritativ oder belehrend wahrgenommen wurden. Der Befund impliziert, dass Krisenkommunikation nicht universell wirksam ist, sondern segmentabhängig konzipiert werden muss.
Auf aggregierter Ebene zeigte das Incident-Tracking, dass synthetische Gerüchte mit hoher Evidence-Token-Dichte schneller an Fahrt gewannen und stärkere sekundäre Empörungswellen auslösten. Die Halbwertszeit negativer Kommunikation war bei visuell inszenierten Gerüchten länger, sofern keine glaubwürdige Gegeninformation frühzeitig platziert wurde. Gleichzeitig konnte in Communities mit höherem durchschnittlichem Resilienzindex eine schnellere Abschwächung beobachtet werden.
Ein weiterer zentraler Befund betrifft die Rolle der Plattformintensität. Heavy Social User zeigten erwartungsgemäß höhere Expositionsraten. Allerdings war nicht allein die Nutzungshäufigkeit entscheidend, sondern deren Interaktion mit Resilienz. Heavy User mit hoher Resilienz agierten teilweise als informelle „Korrekturinstanzen“, indem sie Quellen hinterfragten oder Gegenargumente einbrachten. Heavy User mit niedriger Resilienz fungierten hingegen als Beschleuniger.
Insgesamt bestätigen die Ergebnisse die integrative Logik des Forschungsmodells. Visuelle Inszenierung erhöht strukturelle Beschleunigung, Empörung mediiert die Transformation von Wahrnehmung in Handlung, epistemische Resilienz moderiert diesen Prozess, und Markenreaktionen wirken selektiv abhängig vom Resilienzprofil der Rezipienten. Negative Word of Mouth unter Bedingungen generativer KI erscheint somit als emergentes Phänomen aus technologischer Plausibilisierung, emotionaler Mobilisierung und erkenntnistheoretischer Disposition.
Die Befunde legen nahe, dass synthetische Gerüchte nicht primär durch Informationskorrektur kontrolliert werden können. Entscheidend ist die psychologische Architektur der Zielgruppe. Wo Resilienz hoch ist, greifen rationale Interventionen. Wo sie niedrig ist, dominieren affektive Dynamiken. Marken befinden sich damit in einem Spannungsfeld zwischen technischer Überwachung, emotionaler Sensibilität und langfristiger Resilienzförderung.
Die Studie zeigt zugleich, dass Beschleunigung kein rein technischer Effekt ist. Sie entsteht aus der Interaktion von visueller Plausibilität und affektiver Intensität. Synthetische Gerüchte wirken wie Beschleuniger in einem bereits vorhandenen emotionalen Klima. Sie verstärken latente Skepsis oder moralische Sensibilitäten, statt sie aus dem Nichts zu erzeugen.
Zusammenfassend belegen die Ergebnisse, dass die Dynamik negativer Word of Mouth unter Bedingungen generativer KI strukturell transformiert ist. Beschleunigung, Affekt und Resilienz bilden ein kohärentes Wirkungsgefüge. Marken, deren Communities über geringe epistemische Resilienz verfügen und deren Kommunikationsumfeld moralisch stark aufgeladen ist, tragen ein erhöhtes Risiko beschleunigter Gerüchtewellen. Umgekehrt können resiliente Zielgruppen als stabilisierende Kraft wirken. Damit wird epistemische Resilienz empirisch als strategischer Schutzfaktor bestätigt – nicht nur auf individueller, sondern auf systemischer Ebene.
Die Ergebnisse der Studie „Synthetic Rumors“ legen eine zentrale, wissenschaftlich wie strategisch relevante Schlussfolgerung nahe: Negative Word of Mouth unter Bedingungen generativer KI ist nicht länger primär ein Abbild realer Markenerfahrungen, sondern zunehmend ein Ergebnis von plausibilitätsgetriebener Bedeutungsproduktion, affektiver Mobilisierung und differenzierten epistemischen Schutz- oder Vulnerabilitätsprofilen. Diese Verschiebung ist konzeptionell bedeutsam, weil sie klassische Annahmen der Marken- und Kommunikationsforschung herausfordert: NWOM ist nicht mehr zwingend „feedback“ aus Konsumerfahrung, sondern kann als eigenständiges soziales Ereignis entstehen, dessen empirische Quelle sich von der Marke ablöst. Damit wird deutlich, dass Markenreputation zunehmend in einem semantischen Raum verhandelt wird, in dem Wahrheitsstatus, Evidenz und moralische Bewertung nicht stabil sind, sondern situativ produziert werden.
Zunächst stützt der Befund zu H1 – visuelle Inszenierung erhöht NWOM-Velocity – die These, dass synthetische Gerüchte primär über Wahrnehmungsheuristiken wirken. Die Evidenzmarker (Screenshots, Clips) fungieren als kognitive Kurzschlüsse: Sie ersetzen Begründung durch Anschauung und transformieren Unsicherheit in scheinbare Evidenz. Aus erkenntnistheoretischer Perspektive ist das ein kritischer Punkt: Visuelle Tokens erzeugen eine epistemische Illusion, weil sie den Eindruck unmittelbarer Faktizität erzeugen, ohne die Kriterien von Verifikation zu erfüllen. Die Studie zeigt damit nicht nur ein Marketingphänomen, sondern eine grundlegende Verschiebung von „argumentativer Wahrheit“ zu „ästhetischer Evidenz“. Es ist plausibel, dass dieser Effekt in Plattformumgebungen besonders stark ist, weil visuelle Inhalte algorithmisch bevorzugt und zugleich in kurzen, dekontextualisierten Sequenzen konsumiert werden. Diese Struktur begünstigt schnelle Urteile und reduziert die Wahrscheinlichkeit, dass Nutzer die semantische Herkunft eines Inhalts prüfen. Kritisch ist jedoch zu reflektieren, dass Velocity nicht allein aus visueller Plausibilität entsteht, sondern aus einem Zusammenspiel von Format, Plattformarchitektur und sozialer Anschlussfähigkeit. Die Studie erfasst diese Faktoren zwar über Plattformindikatoren und Incident-Tracking, aber nicht vollständig über algorithmische Feed-Mechanismen, die häufig intransparent sind. Damit bleibt eine methodische Grenze: Wir messen die beobachtbare Beschleunigung, aber nur indirekt die algorithmische Kausalität.
H2 – Empörung mediiert Weiterverbreitung – ist theoretisch erwartbar, aber die Stärke dieses Effekts ist konzeptionell brisant. Der Befund deutet darauf hin, dass negative Markenkommunikation zunehmend moralisiert wird. Das ist ein Hinweis auf eine gesellschaftliche Verschiebung: Konsum und Markenwahrnehmung sind weniger funktionale Entscheidungen und stärker moralische Positionierungen. Empörung ist in digitalen Räumen eine soziale Währung, die Sichtbarkeit, Anschlussfähigkeit und Gruppenzugehörigkeit erzeugt. Aus sozialpsychologischer Sicht lässt sich das als Normsignalisierung interpretieren: Wer empört ist, demonstriert Werte, Loyalitäten und moralische Kompetenzen. Der Wert des Teilens liegt dann nicht in der Informationsqualität, sondern in der symbolischen Selbstinszenierung. Genau hier liegt eine kritische Konsequenz: Wenn Empörung zentraler Treiber ist, wird Faktenkorrektur strukturell entwertet. Korrektur adressiert epistemische Dimensionen, während die Weitergabe affektiv-moralisch motiviert ist. Damit entsteht eine Asymmetrie zwischen dem, was Marken kommunikativ anbieten können (Fakten, Klarstellungen), und dem, was Gerüchte psychologisch leisten (Affekt, moralische Identität).
Die Studie zeigt zudem, dass Angst als Mediator zwar vorhanden, aber weniger stabil ist. Das ist ein wichtiger Differenzpunkt. Angst aktiviert häufig Schutz- und Vermeidungsverhalten; Empörung aktiviert Angriff, Sanktionierung und Weitergabe. Für NWOM ist Empörung funktionaler, weil sie soziale Handlung erzeugt. Dieser Befund ist kompatibel mit der Annahme, dass synthetische Gerüchte nicht einfach „Negativinformation“ sind, sondern moralische Handlungsskripte aktivieren. Eine weiterführende theoretische Interpretation wäre, dass wir eine Verschiebung von „consumer complaint“ zu „consumer prosecution“ beobachten: Konsumenten agieren nicht mehr als Beschwerdeführer, sondern als moralische Ankläger. In dieser Logik wird die Marke zum Gegenstand öffentlicher Normdurchsetzung. KI kann diese Dynamik verstärken, weil sie moralisch passende Narrative schnell erzeugt und adaptieren kann.
H3 – epistemische Resilienz reduziert reale Weitergabe – bestätigt die Schutzfunktion erkenntnistheoretischer Dispositionen und ist zugleich der theoretische Kern des Modells. Kritisch diskutiert werden muss jedoch, was Resilienz hier tatsächlich abbildet. Epistemische Resilienz ist in der Studie als mehrdimensionaler Index konzipiert. Dennoch bleibt die Frage, ob wir primär eine Fähigkeit (Kompetenz) messen oder eine Haltung (Disposition). Ambiguitätstoleranz und Need for Closure sind eher dispositionell; Quellenkompetenz ist eher erlernbar; kognitive Reflexivität ist teils trait-, teils state-nah. Diese Heterogenität ist theoretisch sinnvoll, weil Resilienz ein Bündelkonstrukt sein kann. Empirisch bedeutet es aber auch, dass unterschiedliche Subdimensionen möglicherweise unterschiedliche Wirkmechanismen haben: Bei einigen Personen kann die Bremse durch Skepsis entstehen, bei anderen durch Selbstkontrolle, bei wieder anderen durch tatsächliche Medienkompetenz. Die Studie liefert dafür erste Hinweise über Truth-Friction-Maße, aber eine tiefere differenzielle Analyse wäre ein relevanter Next Step: Welche Resilienzkomponente ist der stärkste Schutz gegen welche Gerüchteform? Visuelle Deepfake-Ästhetik könnte Medienkompetenz erfordern; textliche Narrativdichte könnte Reflexivität erfordern; moralischer Druck könnte Ambiguitätstoleranz erfordern. Diese Differenzierung wäre wissenschaftlich wertvoll, weil sie aus einem globalen Index konkrete Mechanismen ableitet.
Die Segmentierung in Amplifier, Brake und Volatile ist ein weiterer wichtiger Diskussionspunkt. Sie zeigt, dass „Vulnerabilität“ nicht nur eine Frage der Intelligenz oder Bildung ist, sondern eine Interaktion aus Plattformintensität, Affektneigung und epistemischer Struktur. Volatile sind besonders interessant: Sie sind nicht dauerhaft anfällig, sondern kontextabhängig. Das spricht dafür, dass synthetische Gerüchte nicht nur auf Traits treffen, sondern auf Zustände. Stress, Zeitdruck, soziale Konflikte, Einsamkeit oder allgemeine Überforderung könnten die Resilienz situativ senken und Volatile in Amplifier verwandeln. Die Studie hat State-Faktoren nur indirekt erfasst; hier liegt eine Erweiterung: Resilienz als dynamischer Zustand, nicht nur als trait. Wenn das zutrifft, wäre Resilienzförderung nicht nur Bildung, sondern auch ein Designproblem: Plattformarchitektur, Aufmerksamkeitspolitik und kognitive Entlastung könnten Resilienz untergraben oder unterstützen.
H4 – Markenreaktionen wirken nur bei High-Resilience-Segmenten stabilisierend – ist in seiner strategischen Konsequenz vielleicht der härteste Befund. Er impliziert, dass klassische Krisenkommunikation strukturell an eine psychologische Bedingung gebunden ist, die Marken nicht vollständig kontrollieren können. Wer epistemisch resilient ist, verarbeitet Korrekturen als Information. Wer epistemisch vulnerabel ist, verarbeitet Korrekturen als Macht- oder Manipulationssignal. In dieser Logik ist nicht der Inhalt der Markenreaktion der zentrale Hebel, sondern die Rezeption. Aus kommunikationswissenschaftlicher Perspektive lässt sich das als „Inkompatibilität der Codes“ beschreiben: Marken sprechen im Code der Fakten, Zielgruppen reagieren im Code der moralischen Zugehörigkeit. Besonders brisant ist die beobachtete Rolle von Reaktanz: Korrekturen können als Autonomiebedrohung wahrgenommen werden und damit in Low-Resilience-Segmenten die Ablehnung verstärken. Das erklärt, warum manche Dementis Öl ins Feuer gießen. Diese Dynamik ist nicht neu, aber durch KI-getriggerte Gerüchte potenziell häufiger, weil Gerüchte schneller eskalieren und moralischer aufgeladen sind.
Ein kritischer Punkt ist jedoch, dass „Markenreaktion“ in der Studie als natürlich vorkommendes Exposure gemessen wurde. Das erhöht ökologische Validität, reduziert aber experimentelle Kontrolle. Wir wissen, dass Reaktionen unterschiedlich gestaltet sind: empathisch, defensiv, evidenzbasiert, juristisch formuliert, zeitlich schnell oder langsam. In der vorliegenden Auswertung wird die Reaktionsform zwar kategorisiert, aber nicht vollständig standardisiert. Daher ist die Hypothese stark gestützt, doch die Ableitung konkreter Best Practices erfordert eine zweite Stufe: ein kontrolliertes Feldexperiment oder zumindest eine systematische Typologie mit ausreichend Fällen pro Reaktionstyp. Wissenschaftlich wäre das der logische nächste Schritt, um nicht nur zu sagen „Reaktionen wirken segmentabhängig“, sondern auch „welcher Reaktionstyp wirkt bei welchem Segment“.
Methodisch muss die Studie im Diskussionskapitel zudem ihre Grenzen offen adressieren. Erstens basiert ein Teil der Verhaltensmessung auf Diary-Self-Reports. Diese sind zeitnah und damit besser als retrospektive Befragung, aber weiterhin anfällig für soziale Erwünschtheit und Unterreporting problematischer Handlungen (z. B. impulsives Teilen). Eine ergänzende passive Datenerhebung (z. B. Tracking von Share-Aktionen mit Einwilligung) würde die Validität erhöhen, ist jedoch datenschutzsensibel. Zweitens ist die Identifikation „synthetischer“ Gerüchte im Feld methodisch heikel. Ohne forensische Gewissheit bleibt es bei plausibilitätsbasierten Kriterien: Evidence Tokens, ungewöhnliche Textmuster, virale Template-Strukturen. Das ist wissenschaftlich legitim, solange klar ist, dass es um „KI-ähnliche Inszenierung“ und nicht um gerichtsfeste Attribution geht. Drittens bleibt die Rolle der Plattformalgorithmen weitgehend eine Blackbox. Die Studie misst deren Output (Velocity), aber nicht deren Entscheidungsregeln. Für eine umfassende Theorie synthetischer Gerüchte wäre eine Kooperation mit Plattformdaten oder zumindest experimentelle Feed-Simulation hilfreich.
Trotz dieser Grenzen liefern die Befunde einen starken theoretischen Beitrag: Sie verbinden Gerüchtediffusion, moralische Emotion und epistemische Disposition in einem kohärenten Wirkmodell. Vor allem aber zeigen sie, dass Markenkommunikation in einer KI-getriebenen Informationsumwelt nicht nur ein „Reputationsproblem“ hat, sondern ein epistemisches Problem: Die Stabilität von Wahrheitssignalen erodiert, und damit verschiebt sich die Grundlage von Vertrauen. Vertrauen wird weniger zu einer Funktion faktischer Korrektheit und stärker zu einer Funktion psychologischer Passung. Das ist strategisch relevant, weil Marken in Zukunft nicht nur Produkte und Versprechen managen, sondern auch ihre Rolle als Orientierungsinstanzen in einer Umgebung, in der Evidenz immer häufiger simuliert werden kann.
Die tiefere Konsequenz ist, dass epistemische Resilienz nicht nur ein Individualmerkmal ist, sondern ein Systemparameter. In Communities mit hoher Resilienz entsteht ein anderer Kommunikationsmodus: geringere Empörungsbeschleunigung, höhere Verifikationsnormen, langsamere Diffusion. In Communities mit niedriger Resilienz entsteht ein moralisches Schnellfeuer: hohe Velocity, geringe Truth-Friction, starke Polarisierung. Markenökosysteme werden damit unterschiedlich „stabil“ – nicht aufgrund ihrer Produktqualität allein, sondern aufgrund der epistemischen Struktur ihrer Zielgruppen und Plattformumfelder. Genau hier liegt die strategische Sprengkraft der Studie: Das zentrale Risiko der Zukunft ist nicht nur schlechte Presse, sondern synthetische, moralisch aufgeladene Bedeutungsdynamik, die sich verselbstständigt.
Damit lässt sich die Diskussion in einem Satz zuspitzen: Generative KI verschiebt NWOM von einem erfahrungsbasierten Korrektiv zu einem plausibilitätsgetriebenen, affektiv beschleunigten und epistemisch selektiv regulierten System – und die wichtigste neue Managementvariable ist nicht „Message“, sondern „Resilienz“.















































































