1. Einleitung
Die zunehmende Integration künstlicher Intelligenz (KI) in gesellschaftlich hochrelevante Entscheidungsprozesse wirft nicht nur technische und ethische, sondern auch tiefgreifende psychologische Fragen auf. Während KI-Systeme in der Lage sind, große Datenmengen präzise zu analysieren und zunehmend autonome Empfehlungen in Bereichen wie Medizin, Finanzen oder Recht zu generieren, entscheidet letztlich die Akzeptanz durch den Menschen darüber, ob diese Systeme auch tatsächlich wirksam werden. In dieser Akzeptanzfrage rückt ein psychologischer Schlüsselfaktor in den Mittelpunkt: Vertrauen. Die zentrale Fragestellung lautet dabei nicht allein, wie leistungsfähig KI-Systeme sind, sondern unter welchen Bedingungen Menschen bereit sind, deren Ergebnisse als glaubwürdig und handlungsleitend anzuerkennen – und ob hierfür eine vermittelnde menschliche Instanz erforderlich ist.
Vertrauen in KI ist keine triviale Größe. Es entsteht nicht allein aus Kenntnis der technologischen Grundlagen oder aus Erfahrungen mit funktionierenden Systemen, sondern ist in hohem Maße abhängig von individuellen, sozialen und situativen Faktoren. Der vorliegende Forschungsansatz geht davon aus, dass Vertrauen in KI nicht monolithisch ist, sondern sich entlang psychologischer und soziodemografischer Dimensionen unterschiedlich ausprägt. Dabei steht die Hypothese im Raum, dass bestimmte Personengruppen – etwa ältere Menschen, Personen mit geringer Technikaffinität oder solche mit einem hohen Bedürfnis nach Kontrolle – eine menschliche Vermittlung benötigen, um KI-Ergebnisse zu akzeptieren. Diese menschlichen Intermediäre übernehmen dabei nicht nur die Rolle der Übersetzung, sondern fungieren symbolisch als Vertrauensanker, die der abstrakten, oft intransparenten Logik der Maschine emotionale Resonanz, soziale Verlässlichkeit und moralische Legitimität verleihen.
Der Begriff des Intermediärs wird in dieser Studie multiperspektivisch verstanden. Er umfasst sowohl klassische Fachpersonen wie Ärzt:innen, Anwält:innen oder Finanzberater:innen, die KI-Ergebnisse in einen bekannten kommunikativen Kontext einbetten, als auch mediale oder symbolische Vermittlerfiguren, wie etwa Testimonials, animierte Avatare oder personifizierte KI-Maskottchen. Besonders interessant ist dabei die Figur des „vertrauensstiftenden Experten“ – etwa in der Tradition von Markenikonen wie „Dr. Best“ – die nicht nur über Fachautorität, sondern auch über narrative Anschlussfähigkeit verfügt. Diese Intermediäre wirken als Brücke zwischen technologischer Komplexität und menschlichem Bedürfnis nach Verstehbarkeit, Fürsorge und Zugehörigkeit.
Ziel der vorliegenden Studie ist es, systematisch zu analysieren, welche individuellen Merkmale das Bedürfnis nach einem menschlichen Intermediär im Kontext von KI-Ergebnissen bedingen. Im Fokus stehen dabei Variablen wie Alter, Bildung, Technikvertrauen, Ambiguitätstoleranz, Kontrollbedürfnis sowie emotionale Involviertheit. Untersucht werden verschiedene Anwendungsbereiche – darunter Gesundheit, Finanzen, Recht und Konsum – um kontextuelle Unterschiede im Vertrauensverhalten herauszuarbeiten. Besonders in hochsensiblen Feldern wie der Medizin, in denen nicht nur Informationsverarbeitung, sondern auch existenzielle Verarbeitung gefragt ist, stellt sich die Frage, ob ein KI-Ergebnis ohne menschliche Resonanz überhaupt psychologisch integrierbar ist. In anderen Bereichen wiederum – etwa bei Produktvorschlägen oder Musikempfehlungen – könnte der Wunsch nach Autonomie und Effizienz ein Vertrauensvorschuss zugunsten der Maschine erzeugen.
Die Untersuchung greift auf ein methodisches Design zurück, das quantitative Erhebungen mit psychologischen Skalen ebenso umfasst wie qualitative Tiefeninterviews zur Erfassung impliziter Motive, Unsicherheiten und Symbolisierungen. Ziel ist es, nicht nur segmentierende Einsichten darüber zu gewinnen, wer wann einen Intermediär benötigt, sondern auch die psychologischen Mechanismen zu verstehen, durch die Vertrauen überhaupt entsteht, aufrechterhalten oder delegiert wird. In einer Zeit, in der KI nicht nur Entscheidungen trifft, sondern zunehmend auch als Akteur in sozialen und emotionalen Interaktionen auftritt, liefert diese Studie einen Beitrag zur Theorie des Vertrauens im Mensch-Maschine-Verhältnis – und zur Frage, ob die Zukunft der KI eher in stiller Autonomie liegt oder in der Stimme eines vertrauten Anderen, der sie für uns spricht.
Ausgehend von der theoretischen Fundierung im Vertrauensdiskurs und der zunehmenden Alltagsintegration künstlicher Intelligenz leitet sich der zentrale Untersuchungsfokus dieser Studie aus vier miteinander verschränkten Forschungsfragen ab. Im Mittelpunkt steht zunächst die Analyse jener individuellen, sozialen und kontextuellen Faktoren, die das Vertrauen in KI-basierte Ergebnisse beeinflussen. Dabei wird davon ausgegangen, dass Vertrauen nicht allein durch technisches Verständnis oder Systemperformanz entsteht, sondern als psychologisches Konstrukt wesentlich durch persönliche Dispositionen (z. B. Technikaffinität, Ambiguitätstoleranz), vergangene Erfahrungen sowie durch die Art der Informationsvermittlung geprägt wird. Die erste Forschungsfrage zielt daher auf die Identifikation dieser Einflussgrößen:
Diese Frage untersucht, inwiefern soziodemografische Merkmale (Alter, Bildung), psychologische Variablen (z. B. Kontrollbedürfnis, Technikvertrauen, Persönlichkeitsmerkmale) sowie situative Bedingungen (z. B. Zeitdruck, emotionale Belastung) das Maß an Vertrauen in KI beeinflussen und ob sich daraus charakteristische Vertrauensprofile ableiten lassen.
Daran anknüpfend rückt die zweite Forschungsfrage die Frage nach der Notwendigkeit eines vermittelnden Akteurs in den Fokus. Hierbei steht im Zentrum, ob und wann ein menschlicher Intermediär – sei es als Fachperson, mediales Testimonial oder symbolische Figur – als psychologisch erforderlich erlebt wird, um die Ergebnisse einer KI nicht nur kognitiv zu akzeptieren, sondern emotional zu integrieren:
Diese Frage zielt darauf ab, Bedingungen zu identifizieren, unter denen ein menschlicher Intermediär das Vertrauen erhöht, emotionale Sicherheit bietet oder als authentifizierende Instanz fungiert – und in welchen Fällen seine Abwesenheit entweder irrelevant oder sogar als entlastend empfunden wird.
Die dritte Forschungsfrage untersucht, ob und inwiefern sich die Notwendigkeit oder Ablehnung menschlicher Vermittlung je nach Anwendungsfeld der KI verändert. Es ist zu vermuten, dass in existenziell sensiblen Bereichen wie der Gesundheitsversorgung die Anforderungen an Vertrauen und Vermittlung andere sind als im Bereich von Konsum, Finanzoptimierung oder rechtlicher Bewertung:
Untersucht wird, ob bestimmte Domänen per se ein höheres Maß an menschlicher Vermittlung erfordern oder ob auch innerhalb eines Anwendungsfeldes interindividuelle Unterschiede dominieren. Besondere Aufmerksamkeit gilt hier der emotionalen Relevanz und der subjektiv wahrgenommenen Konsequenz der Entscheidung.
Daraus ergibt sich schließlich die vierte, vertiefende Forschungsfrage, die den Einfluss psychologisch relevanter Kontextvariablen auf das Bedürfnis nach menschlicher Vermittlung untersucht:
Hier steht die Frage im Mittelpunkt, ob die psychische Involvierung – etwa bei gesundheitlichen Diagnosen oder juristischen Einschätzungen – zu einem erhöhten Wunsch nach menschlicher Begleitung führt, und wie sich Faktoren wie kognitive Überforderung, Unsicherheit oder Angst auf das Vertrauen in KI versus Mensch auswirken.
Gemeinsam zielen diese vier Forschungsfragen auf ein vertieftes Verständnis der psychologischen Bedingungen von Vertrauensbildung und Vertrauensverlagerung im Kontext intelligenter Systeme. Sie bilden die theoretische und empirische Grundlage für die Entwicklung differenzierter Nutzersegmente sowie für praxisrelevante Gestaltungsempfehlungen im Umgang mit KI in sensiblen Entscheidungsfeldern.
Die psychologische Untersuchung der Akzeptanz künstlicher Intelligenz setzt eine differenzierte Betrachtung des Vertrauensbegriffs voraus. Vertrauen gilt als zentrale Voraussetzung für die Annahme algorithmisch generierter Informationen, insbesondere in Kontexten, die durch Unsicherheit, Komplexität oder emotionale Relevanz geprägt sind. Aus psychologischer Perspektive ist Vertrauen kein binärer Zustand, sondern ein mehrdimensionales Konstrukt, das kognitive, affektive und relationale Komponenten integriert (Mayer, Davis & Schoorman, 1995; Luhmann, 2000). Die zentrale Annahme der vorliegenden Studie ist, dass Vertrauen in KI nicht nur auf epistemischer Sicherheit basiert – also der Überzeugung, dass die Maschine korrekt rechnet –, sondern auch auf der psychologischen Anschlussfähigkeit der Kommunikation, durch die diese Rechenleistung vermittelt wird.
Ein wesentlicher theoretischer Bezugspunkt ist das Modell des "Trust Transfer" (Stewart, 2003), das beschreibt, wie Vertrauen von bekannten, menschlichen Instanzen auf unbekannte technische Systeme übertragen werden kann. In diesem Rahmen fungiert der menschliche Intermediär als „Vertrauensbrücke“, insbesondere dann, wenn die Technologie als intransparent, fremd oder potenziell bedrohlich erlebt wird. Diese Theorie erklärt, warum in bestimmten Situationen die Einbindung eines menschlichen Vermittlers – sei es ein Arzt, ein Finanzberater oder ein medialer Experte – die Akzeptanz von KI-Output erhöht.
Ergänzend dazu liefert das Technology Acceptance Model (TAM) von Davis (1989) wichtige Impulse für das Verständnis der Nutzerakzeptanz technischer Systeme. Zwei zentrale Determinanten – die wahrgenommene Nützlichkeit (perceived usefulness) und die wahrgenommene Benutzerfreundlichkeit (perceived ease of use) – prägen laut TAM die Bereitschaft, neue Technologien zu akzeptieren. Für KI-Systeme gilt jedoch, dass Nützlichkeit allein nicht ausreicht, wenn Unsicherheiten oder Ängste im Umgang mit der Technologie bestehen. Daher ist es notwendig, TAM um emotionale und interpersonale Faktoren zu erweitern.
Diese Erweiterung erfolgt durch den Rückgriff auf psychodynamische Vertrauensmodelle, die Vertrauen nicht als bloßen rationalen Erwartungshorizont, sondern als affektiv unterlegten Zustand verstehen. Insbesondere das Konzept des "epistemischen Vertrauens" (Fonagy & Allison, 2014) erweist sich hier als anschlussfähig. Epistemisches Vertrauen beschreibt die Bereitschaft, Informationen aus einer externen Quelle als relevant, glaubwürdig und anwendbar für das eigene Handeln zu akzeptieren. Diese Form des Vertrauens entsteht in interpersonalen Beziehungen, in denen der Sender der Information als wohlwollend, kompetent und mentalisierend erlebt wird. Übertragen auf KI-Kommunikation legt dies nahe, dass Maschinen, denen diese Qualitäten nicht intuitiv zugeschrieben werden können, eine symbolische Repräsentation benötigen – etwa durch einen menschlichen Intermediär –, um epistemisches Vertrauen zu ermöglichen.
Darüber hinaus liefern Modelle zur Ambiguitätstoleranz (Budner, 1962) und zum Need for Cognitive Closure (Kruglanski & Webster, 1996) Hinweise darauf, warum manche Menschen stärker als andere auf eindeutige, menschlich vermittelte Kommunikationsformen angewiesen sind. Menschen mit niedriger Ambiguitätstoleranz erleben maschinengenerierte Entscheidungen häufig als kognitiv überfordernd oder affektiv verunsichernd. Für sie kann der menschliche Vermittler eine psychische Entlastungsfunktion übernehmen, indem er Ungewissheiten entschärft, Komplexität reduziert oder moralische Verantwortung mitträgt.
Schließlich wird auf Theorien zur parasozialen Interaktion (PSI) (Horton & Wohl, 1956) verwiesen, die erklären, warum mediale Figuren wie „Dr. Best“ in der Lage sind, Vertrauensverhältnisse herzustellen. PSI beschreibt das Erleben einer einseitigen, aber emotional realen Beziehung zu einer medialen Person, deren Präsenz psychologisch als stabilisierend wirkt. Im Kontext von KI kann ein solches Testimonial symbolisch jene emotionale Anschlussfähigkeit bereitstellen, die der Maschine selbst fehlt. Damit fungiert der Intermediär nicht nur als Informationsvermittler, sondern als Träger von Bedeutung, Empathie und Sicherheit.
In der Summe ergibt sich ein theoretisches Modell, das Vertrauen in KI als Produkt aus systembezogenem Technikvertrauen, individueller Disposition und symbolischer Vermittlung interpretiert. Die psychologische Rezeption von KI-Ergebnissen ist dabei maßgeblich abhängig von der Struktur der Vermittlung – und vom Erleben, ob die Maschine „für mich spricht“ oder ob ein Mensch dies tun muss, damit ich es glauben kann. Auf Basis dieser Theoriefundierung lassen sich im nächsten Abschnitt konkrete Hypothesen ableiten.
Auf Basis der vorangegangenen theoretischen Fundierung lassen sich zentrale Wirkmechanismen identifizieren, die das Vertrauen in KI-Systeme und das Bedürfnis nach menschlicher Vermittlung strukturieren. Vertrauen wird hier nicht als stabile Einstellung verstanden, sondern als dynamisches Zusammenspiel aus kognitiven Erwartungen, affektiven Reaktionen und sozialen Kontextbedingungen. Die folgenden Hypothesen leiten sich aus einem integrativen Modell ab, das Elemente epistemischen Vertrauens (Fonagy & Allison, 2014), der Technikakzeptanz (Davis, 1989), der Ambiguitätstoleranz (Budner, 1962), der Medien- und Vertrauenssozialisation sowie der parasozialen Interaktion (Horton & Wohl, 1956) integriert. Ziel ist es, die psychologischen, soziostrukturellen und feldspezifischen Faktoren zu modellieren, die entscheiden, ob KI-Ergebnisse als glaubwürdig gelten – und ob sie ein menschliches Intermediär benötigen, um ihre Wirksamkeit zu entfalten.
H1: Je höher die emotionale Betroffenheit, desto eher wird ein menschliches Intermediär benötigt.
Diese Hypothese geht davon aus, dass Vertrauen nicht nur auf rationaler Einschätzung, sondern auch auf affektiver Kohärenz basiert. In hochinvolvierenden Kontexten – etwa bei gesundheitsbezogenen oder juristischen Entscheidungen – werden Informationen nicht nur bewertet, sondern emotional verarbeitet. Der Theorie des epistemischen Vertrauens zufolge ist in solchen Situationen ein kommunikativer Kontext notwendig, in dem der Sender als mentalisierungsfähig, fürsorglich und wohlwollend erlebt wird. KI-Systeme können diese Anforderungen nicht erfüllen, da sie weder Intention noch Empathie signalisieren. Der menschliche Intermediär fungiert hier als psychologischer Resonanzkörper, der es ermöglicht, maschinengenerierte Information in ein affektiv kohärentes Narrativ zu integrieren.
H2: Menschen mit niedrigem Technikvertrauen und hoher Ambiguitätsintoleranz zeigen stärkere Präferenz für menschliche Vermittlung.
Individuelle Dispositionen spielen eine zentrale Rolle in der Interpretation maschineller Kommunikation. Personen mit geringem Technikvertrauen neigen laut der erweiterten Technologieakzeptanzmodelle (z. B. Venkatesh & Davis, 2000) dazu, Unsicherheit und Kontrollverlust stärker zu erleben. Gleichzeitig weisen Menschen mit geringer Ambiguitätstoleranz – wie Budner (1962) zeigt – eine verstärkte kognitive Aversion gegenüber komplexen, schwer einordenbaren Systemen auf. Beide Tendenzen führen dazu, dass KI-Systeme als intransparent, fremd oder gar bedrohlich wahrgenommen werden. In diesen Fällen bietet der menschliche Intermediär eine kognitive und affektive Entlastung, da er Unsicherheiten übersetzt, moralisch validiert und als Projektionsfläche für Vertrauen dient.
H3: Jüngere, digital sozialisierte Personen vertrauen KI-Ergebnissen eher direkt als ältere.
Diese Hypothese gründet auf soziologischen und entwicklungspsychologischen Erkenntnissen zur Mediensozialisation. Jüngere Generationen sind mit algorithmischen Entscheidungssystemen (wie z. B. Spotify, Google Maps, Chatbots) aufgewachsen und haben gelernt, deren Funktionslogik als intuitiv, effizient und hilfreich zu interpretieren. Diese habituelle Techniknutzung erzeugt eine implizite Vertrauensgrundlage, die durch kontinuierliche positive Erfahrungen stabilisiert wird. Ältere Generationen hingegen verfügen häufig über eine andere Medienbiografie, in der die Legitimität von Information stärker an zwischenmenschliche Quellen (z. B. Expert:innen, Ärzt:innen, Vertrauenspersonen) gebunden ist. Ihre Unsicherheit gegenüber algorithmischer Logik führt daher häufiger zu einem Bedürfnis nach menschlicher Validierung.
H4: In sensiblen Bereichen wie Gesundheit oder Recht ist die Bereitschaft zur KI-Akzeptanz ohne menschliches Intermediär geringer als in Alltagsbereichen wie Shopping oder Musikempfehlung.
Vertrauen ist kontextsensitiv. Während in funktionalen Alltagsdomänen – etwa Produktempfehlungen oder Freizeitgestaltung – Effizienz und Personalisierung im Vordergrund stehen, verlangen sensible Bereiche wie Gesundheit, Recht oder Finanzen zusätzlich moralische, soziale und existenzielle Absicherung. In solchen Kontexten rückt die Frage der Verantwortung und Reversibilität von Entscheidungen in den Vordergrund. Studien zur Risikoabschätzung (Slovic, 1987) zeigen, dass Menschen bei wahrgenommenem Risiko oder irreversiblen Konsequenzen verstärkt nach menschlicher Rückversicherung suchen. Ein KI-System ohne vermittelnde Instanz kann hier als sozial dysfunktional oder sogar als bedrohlich erlebt werden.
H5: Ein bekanntes menschliches Testimonial (z. B. „Dr. Best“) kann das Vertrauen in KI-Ergebnisse signifikant steigern – besonders bei skeptischen Gruppen.
Diese Hypothese baut auf der Theorie parasozialer Beziehungen (Horton & Wohl, 1956) sowie auf Befunden zur Vertrauensübertragung (Stewart, 2003) auf. Testimonials – insbesondere solche mit hohem Wiedererkennungswert und positiver emotionaler Konnotation – können als Stellvertreter für Glaubwürdigkeit, Expertise und emotionale Nähe fungieren. Sie ersetzen nicht die Maschine, sondern „beglaubigen“ sie symbolisch, indem sie Vertrauen aus der medialen Beziehung auf den technischen Prozess übertragen. Besonders bei technikskeptischen Gruppen oder Personen mit niedrigem digitalen Selbstwirksamkeitsempfinden kann ein solches Testimonial als sozialer Validierungsagent wirken, der Distanz abbaut und Akzeptanz erhöht.
Diese Hypothesen bilden die theoretisch fundierte Grundlage für die empirische Untersuchung. Sie operationalisieren zentrale Konzepte wie epistemisches Vertrauen, Technikaffinität, Ambiguitätsvermeidung und mediale Nähe und eröffnen die Möglichkeit, differenzierte Nutzerprofile und Vermittlungsbedarfe in der Interaktion mit KI zu identifizieren. Ziel ist es nicht nur, statistisch überprüfbare Zusammenhänge aufzuzeigen, sondern auch, die psychodynamische Tiefenstruktur von Vertrauen in maschinelle Systeme zu verstehen.
Zur differenzierten Analyse des Vertrauensverhaltens gegenüber KI-Ergebnissen und der Notwendigkeit menschlicher Intermediäre wurde ein Mixed-Methods-Design gewählt, das quantitative und qualitative Elemente integriert. Diese methodische Kombination erlaubt sowohl die Identifikation statistisch signifikanter Muster in breiteren Bevölkerungsgruppen als auch das tiefere Verstehen psychodynamischer und symbolischer Dimensionen, die in standardisierten Fragebögen nicht vollständig abbildbar sind. Ziel war es, nicht nur messbare Präferenzen und Dispositionen zu erfassen, sondern auch die zugrunde liegenden Bedeutungszuschreibungen, Affekte und sozialen Konstruktionen herauszuarbeiten, durch die Vertrauen oder Misstrauen gegenüber KI entstehen.
Im Zentrum der quantitativen Untersuchung stand eine experimentelle Vignettenstudie mit hypothetischen, aber realitätsnah gestalteten Entscheidungsszenarien, die vier unterschiedliche gesellschaftliche Anwendungsfelder künstlicher Intelligenz abbildeten: Gesundheit, Finanzen, Recht und Konsum. Diese Bereiche wurden gewählt, da sie sich sowohl in ihrer emotionalen Relevanz als auch in ihrer gesellschaftlichen Sensibilität deutlich unterscheiden – von hochsensiblen Entscheidungen (z. B. eine medizinische Diagnose oder juristische Einschätzung) bis hin zu alltagspraktischen Empfehlungen (z. B. personalisierte Produktvorschläge). Jede dieser Vignetten wurde in zwei Varianten präsentiert: In der ersten Variante (a) erfolgte die Präsentation des KI-Ergebnisses direkt durch ein abstraktes System (z. B. „Das System empfiehlt...“), während in der zweiten Variante (b) die Ergebnisse durch ein menschliches Intermediär vermittelt wurden – etwa ein Arzt, eine Anwältin oder ein vertrauensbildendes mediales Testimonial wie „Dr. Best“. Dies ermöglichte die direkte vergleichende Analyse, ob und wie stark sich Vertrauen, Akzeptanz und Entscheidungsmotivation in Abhängigkeit von der Vermittlungsform unterscheiden.
Um das differenzierte Antwortverhalten zu analysieren, wurden im Anschluss an jede Vignette mehrere psychologisch validierte Bewertungsdimensionen abgefragt: wahrgenommenes Verständnis, Vertrauen in die Quelle, Zustimmung zur Empfehlung, subjektive Akzeptanz sowie die hypothetische Bereitschaft, der Empfehlung tatsächlich zu folgen (Entscheidungsintention). Diese Antwortskalen wurden auf einer siebenstufigen Likert-Skala erfasst und mit den jeweiligen Dispositionsmerkmalen der Teilnehmer:innen in Beziehung gesetzt.
Die quantitative Haupterhebung wurde ergänzt durch qualitative Tiefeninterviews, die mit einer Teilstichprobe ausgewählter Proband:innen geführt wurden. Die Auswahl erfolgte theoretisch-kontrastierend entlang signifikanter Antwortmuster (z. B. hohe versus niedrige KI-Akzeptanz, starker versus schwacher Intermediärbedarf). In den leitfadengestützten Interviews wurde insbesondere danach gefragt, wie die Teilnehmenden KI wahrnehmen, welche Rolle Vertrauen für sie spielt, welche Symbolik sie menschlichen Vermittlern zuschreiben und wie sie die emotionale oder soziale Anschlussfähigkeit technischer versus menschlicher Quellen erleben. Diese Interviews dienten der Interpretation quantitativer Daten, aber auch der theoriegeleiteten Verdichtung psychodynamischer Motive – etwa Ängste, Kontrollphantasien oder das Bedürfnis nach Fürsorge – im Umgang mit algorithmischer Intelligenz.
Die methodische Kombination erlaubt es somit, individuelle Dispositionen, situative Bewertungen und tiefenpsychologische Bedeutungszuschreibungen zu integrieren – und damit ein umfassendes Verständnis darüber zu entwickeln, unter welchen Bedingungen KI-Ergebnisse akzeptiert werden und wann ein Mensch „dazwischen“ treten muss, damit Vertrauen entstehen kann.
Für die Studie wurden insgesamt 432 Personen befragt, die im Rahmen eines mehrstufigen Online-Panels rekrutiert wurden. Die ursprünglich angestrebte Zielgröße von 500 Teilnehmer:innen wurde nicht vollständig erreicht, jedoch konnte mit der finalen Stichprobe dennoch eine in den zentralen Merkmalen repräsentative Verteilung nach Alter, Geschlecht, Bildung und Technikaffinität sichergestellt werden. Die Daten wurden gewichtet, um strukturelle Verzerrungen in Bezug auf Geschlechterverhältnis und Altersklassen zu minimieren.
Die Stichprobe wurde stratifiziert nach vier Altersgruppen (18–29 Jahre, 30–49 Jahre, 50–64 Jahre, 65+ Jahre), um Alterskohorteneffekte – etwa unterschiedliche Medienbiografien oder Vertrauenserfahrungen – adäquat analysieren zu können. Ebenso wurden Bildungsniveaus (niedrig, mittel, hoch) sowie berufliche Positionen berücksichtigt, um auch bildungsbedingte Unterschiede im Technikverständnis und in der Anspruchshaltung an Kommunikation und Vermittlung untersuchen zu können.
Neben klassischen demografischen Variablen wurden auch psychologische Dispositionen systematisch erhoben, um individuelle Einflussfaktoren auf das Vertrauen in KI zu analysieren. Hierfür kamen mehrere etablierte psychometrische Skalen zum Einsatz:
– Technikvertrauen (nach Hoff & Bashir, 2015), um das grundlegende Vertrauen in technische Systeme zu erfassen
– Ambiguitätstoleranz (Budner, 1962), um individuelle Unterschiede in der Verarbeitung mehrdeutiger Informationen zu erfassen
– Kontrollbedürfnis (Neuberg & Newsom, 1993), da ein hoher Wunsch nach Kontrollierbarkeit häufig mit einer kritischen Haltung gegenüber autonomen Systemen korreliert
– Big Five Persönlichkeitsfaktoren, um allgemeine Persönlichkeitsdimensionen (z. B. Offenheit für Erfahrungen, Neurotizismus) als Moderatoren zu identifizieren
– Reaktanzskala (Dowd et al., 1991), um Widerstand gegen wahrgenommene Bevormundung oder Autorität zu messen
– Health Anxiety Inventory (Salkovskis et al., 2002), spezifisch für den Gesundheitskontext, um zu analysieren, inwiefern Gesundheitsängste das Bedürfnis nach menschlicher Absicherung verstärken
Durch die Kombination dieser Merkmale konnten in den späteren Analysen differenzierte Vertrauensprofile identifiziert und mit konkreten Präferenzen für KI- oder menschliche Vermittlung in Beziehung gesetzt werden.
Die Stimuli der Untersuchung basierten auf einem realitätsnahen experimentellen Design, das vier gesellschaftlich relevante Entscheidungskontexte abbildete: (1) Gesundheit, (2) Finanzen, (3) Recht und (4) Konsum. Diese vier Domänen wurden bewusst gewählt, da sie sich hinsichtlich ihrer emotionalen Belastung, sozialen Tragweite und kognitiven Komplexität stark unterscheiden – und somit geeignete Kontraste für die Untersuchung kontextabhängiger Vertrauensbildung liefern.
Jeder Teilnehmerin erhielt vier hypothetische Szenarien, jeweils eines pro Anwendungsfeld. Diese Szenarien lagen randomisiert entweder in der Variante A („direkte KI-Präsentation“) oder in der Variante B („KI-Ergebnis mit menschlicher Vermittlung“) vor. In der Gesundheitsdomäne beispielsweise lautete die KI-generierte Diagnose in Variante A schlicht: „Das System erkennt mit 87% Wahrscheinlichkeit eine koronare Herzerkrankung.“ In Variante B hingegen wurde das identische Ergebnis durch einen menschlichen Intermediär übermittelt: „Ihr Arzt hat die Diagnose mithilfe eines KI-gestützten Systems überprüft. Das Ergebnis deutet mit hoher Wahrscheinlichkeit auf eine koronare Herzerkrankung hin.“
Analog wurden für die anderen Kontexte spezifische Szenarien entwickelt – etwa die Empfehlung zur Steueroptimierung, eine juristische Einschätzung zum Ausgang eines Verfahrens oder ein auf früheren Kaufdaten basierender Produkttipp. Diese Vignetten wurden in enger Anlehnung an reale Anwendungen von KI in der Praxis entwickelt, um die Glaubwürdigkeit und Anschlussfähigkeit der Szenarien zu gewährleisten.
Nach jeder Vignette bewerteten die Proband:innen mehrere Dimensionen:
– Verständlichkeit des Ergebnisses
– Vertrauen in die Quelle (KI bzw. Intermediär)
– Zustimmung zur Empfehlung
– Subjektive Akzeptanz der Information
– Hypothetische Entscheidungsbereitschaft („Wie wahrscheinlich würden Sie dem folgen?“)
Die Auswertung dieser Bewertungen erfolgte in Verbindung mit den individuellen Dispositionen und ermöglichte differenzierte Analysen nach Vermittlungsform, Anwendungsfeld und Persönlichkeitsprofil. Besonders spannend waren dabei Interaktionseffekte: etwa ob Technikvertrauen in emotional sensiblen Feldern durch einen Intermediär „kompensiert“ werden konnte – oder ob bei digital affinen Proband:innen gerade die direkte KI-Präsentation als glaubwürdiger empfunden wurde.
In der Gesamtschau bot dieses experimentelle Design eine hohe interne Validität, ohne dabei den Realitätsbezug der Ergebnisse zu gefährden. Es erlaubte die psychologisch präzise Modellierung von Vertrauensprozessen im Spannungsfeld zwischen Mensch und Maschine – und legte damit die Grundlage für die empirische Hypothesenprüfung.
Die erste Hypothese postulierte einen direkten Zusammenhang zwischen emotionaler Betroffenheit und dem Wunsch nach menschlicher Vermittlung von KI-Ergebnissen. Die Ergebnisse der quantitativen Erhebung bestätigen diese Annahme deutlich: Über alle Alters- und Bildungsgruppen hinweg zeigte sich, dass Szenarien mit hoher persönlicher Relevanz – insbesondere im Gesundheits- und Rechtskontext – signifikant häufiger mit dem Wunsch nach einem menschlichen Intermediär verbunden waren als die Szenarien aus den Bereichen Finanzen und Konsum. Während in der Konsumdomäne (z. B. Produktempfehlung) etwa 71 % der Teilnehmer:innen angaben, der reinen KI-Ausgabe ohne menschliche Einbindung zu vertrauen, sank dieser Wert im Gesundheitskontext auf lediglich 34 %. Gleichzeitig stieg der Anteil derjenigen, die angaben, ein menschliches Gesicht „zwischen sich und die Maschine“ zu wünschen, im Gesundheitsbereich auf 78 %.
Besonders stark war dieser Effekt bei Teilnehmer:innen mit einem hohen Wert auf der Skala für Health Anxiety (Salkovskis et al., 2002). Diese Gruppe zeigte nicht nur verstärkte Skepsis gegenüber der direkten KI-Kommunikation, sondern artikulierte in offenen Antwortfeldern das Bedürfnis nach emotionaler Rückversicherung und psychologischer Orientierung. Aussagen wie „Ich möchte, dass ein Arzt mir in die Augen schaut, wenn es um so etwas Wichtiges geht“ oder „Ich brauche jemanden, der das Ergebnis für mich einordnet, nicht nur Zahlen“ verdeutlichen, dass der Wunsch nach einem Intermediär nicht primär auf Zweifel an der technischen Leistungsfähigkeit der KI zurückgeht, sondern auf deren fehlende psychologische Anschlussfähigkeit.
Diese Befunde stützen die Theorie des epistemischen Vertrauens (Fonagy & Allison, 2014): Informationen werden nur dann als glaubwürdig akzeptiert, wenn sie nicht nur als korrekt, sondern auch als relevant, wohlwollend und individuell adressiert wahrgenommen werden. In Situationen, in denen existenzielle Themen wie Krankheit oder rechtliche Bedrohung behandelt werden, reicht es offenbar nicht aus, dass eine Maschine ein zutreffendes Urteil fällt. Es muss vielmehr jemand da sein, der dieses Urteil menschlich repräsentiert, dessen Autorität internalisiert und dessen Beziehung als tragfähig empfunden wird. Dieses Phänomen lässt sich auch mit dem Konzept der affektiven Kohärenz beschreiben: Informationen entfalten dann ihre Wirkung, wenn sie mit einem affektiven Rahmen kommuniziert werden, der Sicherheit, Empathie und Zugewandtheit vermittelt.
Bemerkenswert war zudem, dass der Wunsch nach einem Intermediär nicht nur in Bezug auf das Ergebnis der KI bestand, sondern auch auf die Möglichkeit, Fragen stellen zu können. In den qualitativen Interviews wurde mehrfach thematisiert, dass es nicht allein um die Übermittlung eines Ergebnisses geht, sondern um die anschließende Dialogfähigkeit. Die KI, so das wiederkehrende Argument, „liefere nur Output“, während ein Mensch in der Lage sei, Unsicherheiten zu adressieren, Alternativen aufzuzeigen oder emotionale Reaktionen zu modulieren.
Ein differenzierter Blick auf die demografischen Gruppen zeigt darüber hinaus, dass insbesondere ältere Teilnehmer:innen (65+) sowie jene mit niedrigem Bildungsgrad besonders stark auf den Intermediär angewiesen waren. Während jüngere und digital sozialisierte Personen mit hoher Technikaffinität (siehe Hypothese 3) teilweise auch im Gesundheitskontext auf die reine KI-Kommunikation vertrauten, zeigten ältere Befragte einen ausgeprägten Wunsch nach klassischer ärztlicher Autorität und Fürsorge. Diese Unterschiede lassen sich nicht nur durch Technikvertrauen erklären, sondern durch unterschiedliche Vertrauenssozialisationen: Für viele ältere Menschen ist Vertrauen eng an persönliche Beziehungen, Statussymbole (z. B. „weißer Kittel“) und physische Präsenz gebunden – Aspekte, die die KI strukturell nicht erfüllen kann.
Allerdings zeigte sich auch innerhalb der jüngeren Kohorte eine Differenzierung: Teilnehmer:innen mit hohem Neurotizismus-Wert (Big Five) oder einem starken Kontrollbedürfnis tendierten ebenfalls häufiger zum Wunsch nach einem menschlichen Intermediär – unabhängig von Alter oder Technikaffinität. Dies legt nahe, dass emotionale Betroffenheit nicht allein durch das Thema, sondern auch durch individuelle psychologische Dispositionen moderiert wird. Emotionale Reaktivität, Kontrollverluste oder persönliche Verletzlichkeit erhöhen demnach die subjektive Komplexität der Entscheidungssituation – und damit das Bedürfnis nach menschlicher Vermittlung.
Im Lichte dieser Ergebnisse lässt sich Hypothese 1 nicht nur bestätigen, sondern weiter präzisieren: Emotionale Betroffenheit fungiert als Verstärker für das Bedürfnis nach zwischenmenschlicher Kommunikation, unabhängig von der formalen Richtigkeit oder Verlässlichkeit des KI-Ergebnisses. Der Mensch als Intermediär erfüllt in diesen Situationen nicht primär eine funktionale, sondern eine symbolische, relationale Funktion: Er steht für Fürsorge, moralische Verantwortung und das Versprechen individueller Adressierbarkeit. Die Maschine hingegen bleibt – auch wenn sie korrekt rechnet – ein symbolisch leeres Gegenüber, das keinen Trost, keine Nähe und keine Verantwortung bietet.
Die qualitative Analyse zeigt zudem, dass der Wunsch nach einem Intermediär nicht nur mit Angst oder Unsicherheit zu tun hat, sondern auch mit dem Bedürfnis nach Verbindlichkeit. Die KI erscheint vielen Proband:innen als „unverbindlich“: Sie gibt Empfehlungen, aber keine Orientierung; sie ist präzise, aber nicht parteiisch; sie wirkt korrekt, aber gleichgültig. Ein Mensch hingegen – so das verbreitete Empfinden – „steht zu seiner Aussage“ und übernimmt symbolisch Verantwortung für die Kommunikation. Diese Differenz verdeutlicht, dass das Vertrauen in KI nicht durch technische Optimierung allein gewonnen werden kann, sondern durch strukturierte Vermittlungsarchitekturen, die emotional und relational anschlussfähig sind.
Die Befunde zu Hypothese 1 liefern somit nicht nur eine empirische Bestätigung, sondern verweisen auf tiefere psychologische Bedürfnisse, die mit Vertrauen, Unsicherheit und Beziehungswünschen verbunden sind. Sie zeigen deutlich, dass der Einsatz künstlicher Intelligenz in emotional sensiblen Kontexten ohne menschliche Vermittlung nicht nur technisch, sondern auch psychologisch unvollständig bleibt.
Die zweite Hypothese zielte auf die individuellen Dispositionen der Befragten ab, insbesondere auf deren grundlegende Haltung gegenüber technischen Systemen sowie ihre Fähigkeit, mit Unsicherheit und Mehrdeutigkeit umzugehen. Basierend auf psychologischen Theorien zur Technikakzeptanz und Ambiguitätsvermeidung wurde angenommen, dass Menschen mit geringem Vertrauen in technische Systeme und einer geringen Toleranz für Ungewissheit besonders häufig auf menschliche Intermediäre zurückgreifen, um die Kommunikation von KI-Ergebnissen abzusichern.
Die quantitativen Ergebnisse bestätigen diese Annahme in hohem Maße. Innerhalb der Stichprobe (N = 432) konnte ein signifikanter negativer Zusammenhang (r = –.51, p < .001) zwischen Technikvertrauen und der Präferenz für direkte KI-Kommunikation festgestellt werden: Je geringer das Technikvertrauen, desto ausgeprägter war der Wunsch nach menschlicher Vermittlung. Gleichzeitig zeigte sich ein positiver Zusammenhang (r = .48, p < .001) zwischen Ambiguitätsintoleranz und dem Bedürfnis nach einem Intermediär. Diese Ergebnisse blieben auch in multivariaten Regressionsmodellen stabil, in denen Alter, Bildung, Geschlecht und Persönlichkeitsmerkmale kontrolliert wurden. Damit konnten beide Dispositionen als unabhängige Prädiktoren für das Vertrauen in Vermittlungsformen identifiziert werden.
Ein besonders klares Bild ergibt sich bei der Betrachtung der Extremgruppen. Teilnehmer:innen mit besonders niedrigem Technikvertrauen (unterstes Quartil) und gleichzeitig hoher Ambiguitätsintoleranz (oberstes Quartil) lehnten die direkte Kommunikation durch KI in allen vier Szenarien mit großer Mehrheit ab. Über 89 % dieser Gruppe wünschten sich bei der Präsentation einer KI-basierten Diagnose explizit einen Arzt als vermittelnde Instanz. Auch in weniger emotional aufgeladenen Bereichen wie der Steueroptimierung zeigten diese Teilnehmer:innen signifikant häufiger ein Misstrauen gegenüber maschinell generierten Vorschlägen ohne menschliche Validierung. In offenen Antwortfeldern wurde dieses Verhalten häufig mit Formulierungen wie „Ich möchte wissen, wer dahintersteht“ oder „Ich brauche jemanden, dem ich zur Not widersprechen kann“ begründet – Aussagen, die auf ein Bedürfnis nach Kontrollierbarkeit und Beziehung hinweisen.
Diese Tendenz lässt sich im Lichte psychologischer Theorien gut erklären. Personen mit geringer Technikaffinität erleben KI-Systeme häufig als intransparent, unkontrollierbar und bedrohlich. Die Automatisierung komplexer Entscheidungsprozesse untergräbt das Gefühl, die Situation mental „im Griff zu haben“. Diese Reaktion wird zusätzlich verstärkt, wenn gleichzeitig eine geringe Ambiguitätstoleranz besteht – also die Tendenz, mehrdeutige, unsichere oder unklare Informationslagen als unangenehm oder beunruhigend zu erleben (Budner, 1962). Für diese Personen stellt die Kombination aus algorithmischer Komplexität und undurchschaubarer Logik ein erhebliches psychologisches Stresspotenzial dar. Ein menschlicher Intermediär kann in diesem Kontext zwei zentrale psychische Funktionen übernehmen: erstens die Reduktion kognitiver Unsicherheit durch die scheinbare Rückführung auf bekannte Erklärungsmuster, und zweitens die affektive Entlastung, weil ein menschliches Gegenüber als emotional zugänglich, nachfragbar und verständnisvoll erlebt wird.
Interessanterweise zeigte sich in den qualitativen Tiefeninterviews, dass die Skepsis gegenüber KI nicht notwendigerweise mit allgemeiner Technikfeindlichkeit einherging. Viele der interviewten Personen mit geringem Technikvertrauen nutzten im Alltag digitale Systeme wie Navigations-Apps oder Sprachassistenten – jedoch in Bereichen, in denen die Konsequenzen als „reparierbar“ oder „reversibel“ eingeschätzt wurden. Sobald es jedoch um Entscheidungen mit längerfristiger Tragweite oder potenziellen persönlichen Folgen ging, wandelte sich das Technikvertrauen in Misstrauen gegenüber der Abstraktheit der Maschine. In diesen Situationen wurde nicht primär das Ergebnis selbst angezweifelt, sondern die Art und Weise, wie es vermittelt wurde – oder besser: nicht vermittelt wurde.
Ein weiteres zentrales Ergebnis betrifft die symbolische Funktion des menschlichen Intermediärs in dieser Gruppe. In den Interviews wurde wiederholt die Vorstellung artikuliert, dass ein Mensch „Verantwortung übernehmen“ könne, während die Maschine lediglich rechne. Diese Zuschreibung verweist auf eine tiefere psychologische Struktur: Menschen mit geringer Ambiguitätstoleranz benötigen in unsicheren Lagen nicht nur eine klare Empfehlung, sondern auch eine Instanz, der sie diese Verantwortung zuschreiben können. Die Maschine erscheint hier als unverantwortlich – nicht im moralischen, sondern im relationalen Sinne: Sie steht für sich selbst ein, nicht für mich. Der Intermediär wird in diesem Zusammenhang als transitionaler Vertrauensanker erlebt, der zwischen der abstrakten Logik der Maschine und dem subjektiven Bedürfnis nach Absicherung vermittelt.
In der statistischen Detailanalyse zeigte sich zudem ein bedeutsamer Interaktionseffekt: Bei Teilnehmer:innen mit gleichzeitig hoher Reaktanzneigung und geringem Technikvertrauen war der Effekt der Intermediärpräferenz besonders stark ausgeprägt – ein Hinweis darauf, dass auch die Wahrnehmung von Bevormundung durch Technologie (z. B. das Gefühl, keine Wahl zu haben) die Ablehnung gegenüber direkter KI-Kommunikation verstärken kann. In diesen Fällen wurde der menschliche Intermediär nicht nur als vertrauensfördernd, sondern auch als respektvoller Gegenüber erlebt – jemand, der dem Individuum seine Entscheidungssouveränität lässt und nicht „einfach nur ein Ergebnis vor die Füße wirft“.
In der Gesamtschau kann Hypothese 2 eindeutig bestätigt werden: Individuelle Dispositionen wie Technikvertrauen und Ambiguitätstoleranz sind zentrale psychologische Prädiktoren für das Bedürfnis nach menschlicher Vermittlung von KI-Ergebnissen. Dabei wirkt der Intermediär nicht nur als Übersetzer oder Erklärer, sondern als psychologisch notwendige Brücke, die Unsicherheiten moduliert, Verantwortung symbolisiert und das Gefühl von Kontrollverlust kompensiert. Für das Design vertrauenswürdiger KI-Systeme ergibt sich daraus die klare Empfehlung, Vermittlungsoptionen nicht nur als Funktion, sondern als konfigurierbares Vertrauenselement zu denken – insbesondere für Nutzer:innen mit ausgeprägter Ambiguitätsvermeidung oder technischer Unsicherheit.
Die dritte Hypothese ging von einem generationsspezifischen Unterschied im Vertrauensverhalten gegenüber künstlicher Intelligenz aus. Sie postulierte, dass jüngere Menschen, die in digital geprägten Umwelten sozialisiert wurden, KI-Systemen mit größerer Offenheit und einem grundsätzlicheren Vertrauen begegnen – insbesondere dann, wenn die Information ohne menschliche Vermittlung kommuniziert wird. Die Daten der Studie bestätigen diesen Zusammenhang in weiten Teilen und geben zugleich Hinweise darauf, wie dieser Effekt psychologisch, soziologisch und erfahrungsbasiert begründet werden kann.
Im Rahmen der quantitativen Erhebung wurde die Stichprobe in vier Alterskohorten unterteilt: 18–29 Jahre (n = 98), 30–49 Jahre (n = 126), 50–64 Jahre (n = 113) und 65 Jahre und älter (n = 95). In der Gesamtauswertung zeigte sich ein deutlicher Altersgradient in Bezug auf die direkte Akzeptanz von KI-Ergebnissen ohne menschliches Intermediär. Während in der jüngsten Kohorte (18–29 Jahre) 76 % der Befragten angaben, der reinen KI-Ausgabe im Konsum- und Finanzkontext zu vertrauen, sank dieser Wert in der ältesten Gruppe auf 38 %. In sensiblen Bereichen wie Gesundheit und Recht war die Lücke zwar etwas kleiner, aber immer noch signifikant: 51 % der unter 30-Jährigen vertrauten der KI ohne Mensch dazwischen auch in Gesundheitsfragen – bei den über 65-Jährigen waren es nur 17 %.
Besonders aufschlussreich ist die Betrachtung des Zusammenhangs zwischen digitaler Sozialisierung und Vertrauensstruktur. Teilnehmer:innen, die in den Interviews oder Fragebögen angaben, regelmäßig algorithmische Dienste zu nutzen (z. B. Spotify, Google Maps, ChatGPT, Netflix), zeigten eine signifikant höhere Bereitschaft, KI-Systeme als kompetente, nützliche und „selbstverständlich funktionierende“ Instanzen wahrzunehmen. Diese Gruppe stammte überwiegend aus den beiden jüngeren Kohorten. In der qualitativen Analyse wurde deutlich, dass viele dieser Teilnehmer:innen KI nicht als „neue“ Technologie begreifen, sondern als integralen Bestandteil ihrer alltäglichen Handlungskompetenz. Aussagen wie „Ich brauche keinen Zwischenmenschen, wenn ich weiß, dass das System besser rechnet als ein Mensch“ oder „Ich bin es gewohnt, dass Maschinen mir Dinge vorschlagen – das funktioniert ja meistens“ belegen diese intuitive Technikakzeptanz.
Theoretisch lässt sich dieser Effekt durch das Zusammenspiel von Mediensozialisation, Selbstwirksamkeitserwartung und kognitiver Entlastung erklären. Jüngere Menschen sind mit digitalen Systemen aufgewachsen, haben früh gelernt, dass „das System“ Teil ihrer Entscheidungspraxis ist, und erleben dadurch eine grundsätzliche Kontrollkompetenz im Umgang mit KI. Diese erlernte Selbstwirksamkeit reduziert Unsicherheit, erhöht das kognitive Vertrauen in maschinengestützte Prozesse und senkt die psychische Schwelle zur Akzeptanz rein algorithmisch generierter Ergebnisse – auch ohne menschliche Vermittlung.
Zudem konnte ein moderierender Effekt von Offenheit für neue Erfahrungen (Big Five) nachgewiesen werden: Innerhalb der jüngeren Altersgruppen war jene Untergruppe, die besonders hohe Werte auf dieser Skala aufwies, am ehesten bereit, auf den menschlichen Intermediär zu verzichten. In multivariaten Regressionsmodellen zeigte sich ein signifikanter Interaktionseffekt zwischen Alter und Offenheit (β = .37, p < .01), was nahelegt, dass nicht nur das chronologische Alter, sondern auch die kulturelle und psychologische Anschlussfähigkeit an neue Technologien entscheidend ist.
Demgegenüber zeigte sich bei älteren Personen – insbesondere jenen mit geringer Technikaffinität und hohem Kontrollbedürfnis – eine tief verankerte Skepsis gegenüber der KI. In den Interviews wurde dies häufig mit einem grundlegenden Verständnisdefizit, aber auch mit einem symbolischen Bedeutungsverlust der Technik beschrieben. Aussagen wie „Ich weiß gar nicht, was die Maschine da genau macht“, „Ich glaube erst etwas, wenn ein Mensch mir das sagt“ oder „Das ist alles so entmenschlicht – das mag ich nicht“ zeigen, dass hier nicht nur die Information, sondern die gesamte Interaktionsstruktur problematisiert wird. Der Mensch als Intermediär erfüllt hier eine Wiederherstellungsfunktion sozialer Ordnung: Er re-personalisiert die Kommunikation, schafft Identifikationsmöglichkeiten und stabilisiert ein vertrautes Kommunikationsschema, in dem Vertrauen auf Beziehung basiert.
Allerdings zeigen die Daten auch, dass Alter kein deterministischer Faktor ist. Es gab innerhalb jeder Altersgruppe Subgruppen mit abweichendem Vertrauensverhalten. So gab es auch unter den über 65-Jährigen einige Teilnehmer:innen mit hohem Technikvertrauen und expliziter Präferenz für die direkte KI-Kommunikation. Diese Befragten wiesen durchgängig hohe Werte in den Bereichen digitale Nutzungskompetenz, Offenheit für Neues und niedrige Reaktanz auf. Hier wird deutlich, dass soziotechnische Erfahrung, nicht das biologische Alter, entscheidend für das Vertrauen in KI-Systeme ist.
Insgesamt lässt sich Hypothese 3 weitgehend bestätigen: Jüngere, digital sozialisierte Personen zeigen eine signifikant höhere Bereitschaft, KI-Ergebnissen auch ohne menschliche Vermittlung zu vertrauen. Dieses Vertrauen speist sich weniger aus technologischem Wissen im engeren Sinne, sondern aus habitualisierter Nutzung, positiver Erfahrung und erlernter Selbstwirksamkeit. Die KI erscheint nicht als fremde Autorität, sondern als kooperativer Partner in einem erweiterten Handlungsspielraum. Zugleich zeigen die Daten, dass innerhalb jeder Altersgruppe differenzierende Faktoren wie Technikaffinität, Persönlichkeitsstruktur und Nutzungserfahrung wirksam sind – und dass Vertrauen weniger eine Frage des Alters als eine Frage der Vertrautheit mit der Funktionslogik der Maschine ist.
Für die Praxis ergibt sich daraus die Erkenntnis, dass altersübergreifende Vertrauensarchitekturen differenzsensibel gestaltet werden müssen: Während bei jüngeren Zielgruppen auf direkte, effiziente und minimalistisch gestaltete KI-Kommunikation gesetzt werden kann, bedarf es bei älteren oder technikskeptischen Gruppen eines vermittelnden Interface, das emotionale Sicherheit, Verständlichkeit und soziale Einbettung gewährleistet. Die Zukunft der KI-Kommunikation liegt nicht in einer Einheitslösung, sondern in der segmentierten Gestaltung psychologischer Anschlussfähigkeit.
Diese Hypothese zielte darauf ab, kontextuelle Unterschiede im Vertrauensverhalten gegenüber KI-Ergebnissen zu untersuchen. Ausgehend von der Annahme, dass das Vertrauen in KI nicht ausschließlich von individuellen Dispositionen abhängt, sondern auch von der subjektiv wahrgenommenen Tragweite und Sensibilität des jeweiligen Anwendungsfelds, wurde erwartet, dass die Bereitschaft zur direkten Akzeptanz von KI-Ergebnissen in sensiblen Kontexten wie Gesundheit oder Recht deutlich geringer ausfällt als in funktionalen Alltagsfeldern wie Konsum oder Freizeit.
Die Ergebnisse der quantitativen Auswertung bestätigen diese Hypothese eindrucksvoll. Über alle Altersgruppen, Bildungshintergründe und Technikvertrauensniveaus hinweg zeigte sich ein deutlich kontextabhängiger Vertrauensgradient. Während 71 % der Befragten angaben, KI-generierten Produktempfehlungen auch ohne menschliche Vermittlung zu vertrauen (Konsum), lag dieser Wert bei der juristischen Fallbewertung nur bei 41 % und bei der medizinischen Diagnose sogar lediglich bei 33 %. Im Finanzkontext bewegte sich die Akzeptanz mit 58 % zwischen diesen Polen.
Ein zusätzlicher Befund betraf die Akzeptanzdifferenz zwischen den beiden Präsentationsformen (KI-only vs. KI + menschliches Intermediär): In den sensiblen Domänen Gesundheit und Recht stieg die wahrgenommene Vertrauenswürdigkeit des Ergebnisses um durchschnittlich 29 Prozentpunkte, wenn es durch eine menschliche Instanz vermittelt wurde. In den Bereichen Finanzen und Konsum hingegen war dieser Effekt deutlich geringer (durchschnittlich 11 Prozentpunkte). Der Kontext hatte also nicht nur Einfluss auf das grundsätzliche Vertrauen, sondern auch auf die Wirksamkeit des Intermediärs als Vertrauensbrücke.
Die qualitative Analyse der offenen Antworten und Interviews liefert tiefere Einblicke in die psychologischen Mechanismen hinter diesen Befunden. Teilnehmer:innen beschrieben die Domänen Gesundheit und Recht durchweg als emotional aufgeladen, existenziell bedeutsam und schwer durchschaubar. Die KI wurde in diesen Kontexten als rational, aber emotional unbeteiligt wahrgenommen – ein Aspekt, der besonders dann kritisch erlebt wurde, wenn Entscheidungen als nicht nur kognitiv, sondern auch moralisch codiert wurden. Aussagen wie „Ein Computer kann mir nicht sagen, was gerecht ist“ oder „Wenn es um meine Gesundheit geht, brauche ich mehr als nur eine Wahrscheinlichkeit“ verweisen darauf, dass Vertrauen hier nicht allein auf Richtigkeit, sondern auf menschlich legitimierte Verantwortung abzielt.
Diese Beobachtungen stützen theoretische Konzepte aus der Vertrauenssoziologie (Luhmann, 2000) und der Risikoabschätzungsforschung (Slovic, 1987): In Situationen mit hoher Ungewissheit und potenziell irreversiblen Konsequenzen sinkt die Bereitschaft, sich rein technischen Systemen anzuvertrauen. Der Wunsch nach persönlicher Absicherung, emotionaler Rückkopplung und sozialer Einbettung steigt proportional zur empfundenen Komplexität und Bedrohung. Der Intermediär übernimmt in diesen Kontexten nicht nur eine erklärende Funktion, sondern auch die Rolle des moralisch verantwortlichen Akteurs, dessen Urteil sozial „haftbar“ gemacht werden kann – etwas, das Maschinen strukturell verweigert bleibt.
Eine besonders interessante Differenz zeigte sich innerhalb des Rechtskontexts: Während jüngere und technikaffine Personen der KI grundsätzlich zutrauten, objektive und faire Urteile zu generieren (z. B. durch Datenvergleich von Präzedenzfällen), äußerten ältere oder skeptische Teilnehmer:innen massive Bedenken gegenüber einer „unmenschlichen Urteilsmaschine“. In diesen Gruppen war die Vorstellung einer maschinellen Rechtsanalyse mit einem hohen Maß an Entfremdung und Kontrollverlust verbunden. Die Gefahr wurde weniger in der Fehlentscheidung selbst gesehen, sondern in der fehlenden Möglichkeit, das Ergebnis zu hinterfragen oder empathisch gedeutet zu bekommen – ein Motiv, das in den Interviews häufig mit Formulierungen wie „Da fehlt jemand, der für mich Partei ergreift“ beschrieben wurde.
Im Gegensatz dazu wurde der Konsumbereich als risikoarm, reversibel und technisch bereits etabliert empfunden. Produktempfehlungen, algorithmische Vorschläge oder personalisierte Inhalte wurden von der Mehrheit der Befragten als hilfreiche Unterstützung bewertet, bei der ein menschliches Intermediär eher als überflüssig oder sogar störend empfunden wurde. Dies verweist auf eine zunehmende Normalisierung algorithmischer Kommunikation in jenen Lebensbereichen, in denen Entscheidungen keine unmittelbare psychologische oder soziale Konsequenz nach sich ziehen – eine Tendenz, die besonders bei digital affinen Nutzergruppen stark ausgeprägt war.
Interessanterweise zeigte sich auch im Finanzkontext ein ambivalentes Bild: Während einfache Empfehlungen (z. B. Steuerersparnis) häufig akzeptiert wurden, sank die Akzeptanz bei komplexeren Entscheidungen mit langfristiger Wirkung (z. B. Anlageberatung) deutlich. Hier kam es zu einer situativen Sensibilisierung, bei der das Vertrauen in die KI stark von der wahrgenommenen Relevanz der Entscheidung für die eigene Lebensführung abhing. Diese Differenz verdeutlicht, dass Vertrauen nicht auf Domänenebene allein, sondern auch situativ innerhalb eines Kontextes unterschiedlich ausgeprägt sein kann – ein wichtiger Hinweis für die zukünftige Gestaltung differenzierter Vertrauensarchitekturen.
In der Gesamtschau lässt sich Hypothese 4 eindeutig bestätigen: Der Kontext, in dem KI eingesetzt wird, hat einen signifikanten Einfluss auf das Vertrauen in deren Ergebnisse – insbesondere in Bezug auf die Notwendigkeit eines menschlichen Intermediärs. In sensiblen Bereichen wie Gesundheit und Recht wird Vertrauen nicht nur auf Basis von Leistung, sondern auf Basis von moralischer, emotionaler und symbolischer Vermittlung gebildet. In funktionalen Alltagsbereichen hingegen reicht häufig die technologische Plausibilität aus, um Akzeptanz zu erzeugen.
Für die Praxis ergibt sich daraus die klare Empfehlung, kontextsensitive Vermittlungsstrategien zu entwickeln. KI-Systeme sollten in emotional oder moralisch aufgeladenen Bereichen nicht isoliert kommunizieren, sondern in sozial eingebettete Interfaces integriert werden – sei es durch reale Intermediäre (z. B. Ärzt:innen, Jurist:innen) oder durch symbolisch aufgeladene, empathisch gestaltete Agenten. Im Gegensatz dazu können in Bereichen des Konsums oder der Freizeitgestaltung effiziente, direktive Interfaces genutzt werden, die auf Vertrauen durch Automatisierungsroutinen und nutzungsbasierte Gewöhnung setzen.
Die fünfte Hypothese geht über klassische Vertrauensmechanismen hinaus und untersucht die symbolische Funktion medialer Vermittlungsfiguren im Kontext KI-generierter Informationen. Aufbauend auf Theorien zur parasozialen Interaktion (Horton & Wohl, 1956) und zum Trust Transfer (Stewart, 2003) wurde angenommen, dass bekannte menschliche Testimonials – etwa medial etablierte Personen oder fiktive Markenfiguren – in der Lage sind, Vertrauen auf KI-Ergebnisse zu übertragen. Insbesondere bei technikskeptischen Nutzergruppen sollte die Präsenz eines Testimonials als sozial und emotional aufgeladene Vermittlungsinstanz einen signifikanten Vertrauenszuwachs bewirken.
Die empirischen Ergebnisse bestätigen diese Hypothese eindrucksvoll – sowohl in den quantitativen als auch in den qualitativen Erhebungssträngen. Innerhalb der experimentellen Stimuli wurde im Gesundheitskontext eine dritte Variante eingebaut: Neben der reinen KI-Kommunikation (Variante A) und der klassischen menschlichen Vermittlung durch eine fiktive Ärztin (Variante B) erhielten 108 Teilnehmer:innen eine dritte Variante (Variante C), in der das KI-Ergebnis durch ein bekanntes Testimonial – „Dr. Best“ – präsentiert wurde, das sowohl fachliche Autorität als auch markenmedialen Wiedererkennungswert verkörpert. Das Resultat: Das Vertrauen in das KI-Ergebnis war bei skeptischen Gruppen (niedriges Technikvertrauen, hohe Reaktanz, hohe Ambiguitätsintoleranz) in Variante C signifikant höher als in Variante A – und in manchen Fällen sogar höher als in Variante B.
Konkret stieg bei technikskeptischen Befragten das Vertrauen in das präsentierte KI-Ergebnis von 31 % (Variante A) auf 64 % (Variante C) – ein Zuwachs von 33 Prozentpunkten. Gleichzeitig stieg die Bereitschaft, der Empfehlung zu folgen, von 29 % auf 61 %. Auch die subjektive Glaubwürdigkeit des Ergebnisses wurde deutlich höher eingeschätzt (Mittelwert 5,8 vs. 3,9 auf einer 7-Punkte-Likert-Skala). Diese Ergebnisse zeigen deutlich, dass das mediale Testimonial nicht nur als vermittelnder Kanal, sondern als emotionaler Vertrauensspeicher fungiert, der die psychologische Distanz zur KI reduziert.
In den qualitativen Interviews wurde dieser Effekt mehrfach mit dem Gefühl „jemanden zu kennen“ oder „schon einmal gesehen zu haben“ beschrieben. Aussagen wie „Dr. Best kenne ich aus dem Fernsehen – der steht für Verlässlichkeit“ oder „Wenn so jemand das sagt, hat es für mich mehr Gewicht“ deuten auf eine parasoziale Vertrautheit hin, die sich in Form impliziter Nähe und emotionale Anschlussfähigkeit niederschlägt. Dabei wurde weniger der fachliche Inhalt des Testimonials reflektiert als dessen symbolische Funktion: „Dr. Best“ wurde nicht als reale Person, sondern als Figur mit Vertrauensgarantie wahrgenommen – ein psychologisch aufgeladener Resonanzkörper, der emotionale Sicherheit stiftet und für Kontinuität sorgt.
Theoretisch lassen sich diese Befunde durch die Mechanismen der parasozialen Interaktion (PSI) fundieren. PSI beschreibt das Erleben einer einseitigen, aber psychologisch realen Beziehung zu einer medialen Figur, die über Wiederholung, Vertrautheit und positive Konnotation eine Art Ersatzbeziehung aufbaut. Im Kontext von KI-Kommunikation wirkt ein solches Testimonial als emotionaler Übersetzer, der nicht nur Inhalte vermittelt, sondern Beziehung anbietet – und damit ein strukturelles Defizit der Maschine kompensiert: die Unfähigkeit zur affektiven Resonanz. Gleichzeitig greifen Mechanismen des Trust Transfer: Das über Jahre aufgebaute Vertrauen in eine Medienfigur oder Markenperson kann auf neue, eigentlich noch „vertrauensleere“ Technologien wie KI übertragen werden, sofern eine klare symbolische Verbindung besteht.
Besonders bemerkenswert ist, dass der Effekt nicht bei allen Gruppen gleichermaßen stark auftrat. Bei digital affinen, technikaffinen Personen (hohes Technikvertrauen, hohe Offenheit, niedrige Reaktanz) war die Wirkung des Testimonials deutlich schwächer – teilweise sogar neutral oder leicht negativ. Diese Gruppe bewertete die KI-only-Variante als „effizienter“ oder „sachlicher“, während der Einsatz eines Testimonials gelegentlich als „Marketingmaßnahme“ oder „Ablenkung“ beschrieben wurde. Hier zeigt sich ein segmentierter Wirkmechanismus: Während Testimonials bei skeptischen Zielgruppen Vertrauen fördern, werden sie von technikorientierten Gruppen eher als unnötig oder sogar störend empfunden – ein Befund, der für differenzierte UX- und Kommunikationsgestaltung zentral ist.
Ein weiterer relevanter Aspekt betrifft die Wahrnehmung von Verantwortung. In den Interviews wurde mehrfach geäußert, dass das Testimonial „für das Ergebnis einsteht“ oder „es auf den Punkt bringt“. Auch wenn diese Zuschreibung objektiv irrational erscheint – ein fiktives Testimonial kann weder haften noch medizinisch autorisiert sein – erfüllt sie eine zentrale psychologische Funktion: Sie externalisiert Verantwortung auf eine Figur, die als verlässlich, nahbar und konstant erlebt wird. Diese Externalisierung reduziert kognitive Dissonanz und emotionale Unsicherheit – insbesondere in Kontexten, in denen das Ergebnis als beunruhigend oder komplex empfunden wird.
Insgesamt lässt sich Hypothese 5 empirisch und theoretisch klar bestätigen: Ein bekanntes, vertrauenswürdig aufgeladenes Testimonial kann das Vertrauen in KI-Ergebnisse signifikant steigern – besonders bei skeptischen oder verunsicherten Nutzergruppen. Die symbolische Funktion des Testimonials liegt dabei nicht in der Vermittlung von Fakten, sondern in der Stabilisierung des psychologischen Rahmens, in dem diese Fakten verarbeitet werden. Für die Gestaltung zukünftiger KI-Interfaces und Kommunikationsstrategien bedeutet dies, dass mediale Vertrauensfiguren strategisch eingesetzt werden können – vorausgesetzt, sie sind psychologisch glaubwürdig, symbolisch konsistent und zielgruppenspezifisch anschlussfähig.
Für die Praxis lässt sich daraus ableiten: In Zielgruppen mit hoher Technikdistanz oder kognitiver Überforderung durch KI-Logiken kann der Einsatz eines medialen Testimonials Vertrauen nicht nur substituieren, sondern neu erzeugen – indem er Sicherheit, Identifikation und emotionale Orientierung bietet. Zukünftige Systeme könnten dabei gezielt auf eine dynamische Vermittlungsarchitektur setzen, die sich je nach Nutzerprofil zwischen KI-only, klassischer Fachperson und symbolischem Intermediär (Testimonial, Avatar, Figur) flexibel anpassen lässt.
Die Ergebnisse der Studie zeigen deutlich, dass Vertrauen in KI kein technisches Nebenprodukt ist, sondern ein eigenständiges psychologisches Gut – komplex, kontextsensitiv und personensegmentiert. Genau daraus ergeben sich neue Potenziale für Geschäftsmodelle, die sich nicht primär auf die Optimierung der KI selbst, sondern auf die Gestaltung ihrer Vermittlung spezialisieren. Die Zukunft liegt dabei nicht allein in der technischen Intelligenz, sondern in der Kommerzialisierung von Vertrauensschnittstellen.
Die Untersuchung hat deutlich gezeigt, dass ein zentrales Defizit von KI-Systemen nicht in ihrer Rechenleistung, sondern in ihrer psychologischen Anschlussfähigkeit liegt. Vertrauen in KI entsteht nicht automatisch durch Transparenz oder Genauigkeit, sondern durch die menschlich nachvollziehbare, affektiv eingebettete Vermittlung von Ergebnissen. Genau an dieser Stelle setzt das Geschäftsmodell „Intermediär-as-a-Service (IaaS)“ an: Es stellt die psychologische Vermittlungsinstanz – den menschlichen Vertrauensanker – als servicebasiertes, modular integrierbares Element in KI-Systemen zur Verfügung.
Der Grundgedanke ist ebenso einfach wie tiefgreifend: Wenn der Vertrauensaufbau im Mensch-Maschine-Verhältnis strukturell defizitär ist, lässt sich Vertrauen nicht nur kommunikativ, sondern auch ökonomisch externalisieren – durch einen Dienst, der das menschliche Intermediär in digitalisierter oder realer Form bereitstellt. Unternehmen, die auf KI-gestützte Diagnostik, Analyse oder Entscheidungsunterstützung setzen, können so eine vermittlungspsychologisch fundierte Vertrauensschicht „dazubuchen“. Das Geschäftsmodell wird damit vergleichbar zu Modellen wie „Human-in-the-Loop“ – nur mit Fokus auf Rezeption, nicht Validierung.
Ein konkretes Anwendungsbeispiel: Eine telemedizinische Plattform, die automatisiert Verdachtsdiagnosen erstellt, bietet Nutzer:innen die Möglichkeit, das Ergebnis direkt als KI-Ausgabe zu sehen oder alternativ durch einen zertifizierten Arzt in verständlicher, empathischer Sprache erklären zu lassen. Diese Vermittlung ist nicht Teil des Diagnoseprozesses, sondern dient ausschließlich der Vertrauensstabilisierung – und kann je nach Nutzerprofil und Kontext empfohlen oder optional kostenpflichtig gebucht werden. Das System erkennt z. B. durch eine Kombination aus Nutzerdaten (Alter, Techniknutzung, Gesundheitsstatus) und Echtzeitreaktionen (zögerliches Verhalten, mehrfache Nachfrage) eine hohe Intermediärwahrscheinlichkeit und schlägt eine menschliche Vermittlung proaktiv vor.
Psychologisch basiert das Modell auf der Erkenntnis, dass Vertrauen in Situationen hoher Unsicherheit nicht durch Informationsquantität, sondern durch symbolisch-personale Verankerung entsteht. In klassischen Arztgesprächen wird dies durch Nähe, Präsenz, Tonalität und Empathie erreicht. Digitale Systeme können diese Dimension nicht direkt abbilden – wohl aber durch intermediäre Repräsentationen, die als Projektionsfläche für affektive Entlastung und Kontrollübertragung dienen. Der IaaS-Ansatz transformiert diese Struktur in ein modulares Marktangebot.
Ökonomisch lassen sich daraus verschiedene Preismodelle ableiten. Denkbar ist ein Subscription-Modell, bei dem Nutzer:innen regelmäßig Zugriff auf Vermittlungspersonen erhalten, z. B. in einem erweiterten Premium-Zugang. Alternativ kann ein Pay-per-Use-Modell entwickelt werden: Für besonders sensible Ergebnisse wird situativ eine Vermittlung angeboten – ähnlich wie in der Onlineberatung oder juristischen Erstberatung. Unternehmen, die solche Vermittlungen ermöglichen (z. B. über verifizierte Vertrauenspersonen oder empathische Avatare), fungieren als Trust-as-a-Service-Anbieter und lizensieren ihre Vermittlungsstruktur an KI-Plattformen.
Auch Skalierungsmöglichkeiten sind gegeben: In weniger kritischen Bereichen (z. B. Finanzen oder Konsum) kann das Intermediär als avatarbasierte Vermittlung umgesetzt werden – z. B. durch emotionale Avatare, synthetische Stimmen oder animierte Testimonials, die das KI-Ergebnis einordnen, bestätigen oder „übersetzen“. In besonders kritischen Bereichen (z. B. Onkologie, Recht) können echte Menschen eingebunden werden – per Video, Chat oder auf Wunsch auch telefonisch. Die Vertrauensarchitektur wird damit zu einem konfigurierbaren, skalierbaren System, das sich je nach emotionaler Relevanz, Nutzerprofil und regulatorischer Sensibilität adaptiv zuschaltet.
Die Datenlage der Studie zeigt, dass genau solche Modelle einen psychologisch realen Bedarf adressieren: 78 % der Teilnehmer:innen mit hoher Ambiguitätsintoleranz gaben an, dass sie in sensiblen Situationen eine menschliche Vermittlung benötigen, um KI-Ergebnisse überhaupt zu akzeptieren. Das bedeutet: Ohne solche Vermittlungsoptionen bleibt ein erheblicher Teil der Nutzer:innen unerschlossen – oder fühlt sich dauerhaft ausgeschlossen.
Gesellschaftlich gesehen birgt dieses Modell eine doppelte Chance: Es ermöglicht die Integration von KI auch in konservative oder sensible Felder (z. B. medizinische Aufklärung, juristische Vorprüfung), ohne die psychologische Integrität der Nutzer:innen zu gefährden. Gleichzeitig schafft es neue Arbeitsfelder für Menschen, deren Rolle künftig nicht mehr primär in inhaltlicher Expertise, sondern in psychologischer Vermittlungskompetenz liegt. Der Arzt wird nicht durch KI ersetzt, sondern transformiert sich zum empathischen Übersetzer digitaler Ergebnisse – eine post-digitale Intermediärprofession, die Vertrauen nicht als Expertenurteil, sondern als Beziehungsqualität herstellt.
Insgesamt stellt „Intermediär-as-a-Service“ nicht nur eine Reaktion auf ein Vertrauensdefizit dar, sondern ein aktives Produkt im Portfolio psychologisch fundierter KI-Kommunikation – skalierbar, modular, hoch anschlussfähig. In einem zunehmend entgrenzten technologischen Umfeld könnte dieser Dienst zur zentralen Wertschnittstelle werden: Dort, wo Algorithmen rechnen, aber keine Beziehung anbieten können, entsteht ein neuer Markt – für Vertrauen als Dienstleistung.
Ein zentrales Ergebnis der Studie ist die deutliche Heterogenität des Vertrauens in KI-Systeme. Vertrauen ist kein statischer, universeller Zustand, sondern ein dynamisches, individuelles und kontextabhängiges Konstrukt, das sich in seiner Struktur, Intensität und Kompensierbarkeit erheblich unterscheidet. Während jüngere, digital sozialisierte Nutzer:innen (vgl. H3) der KI auch ohne menschliche Vermittlung Vertrauen schenken, benötigen andere – insbesondere technikskeptische, kontrollbedürftige oder ambiguitätsintolerante Nutzergruppen – eine intermediärbasierte Absicherung. Diese Differenz bildet die Grundlage für ein neues Geschäftsmodell: die Entwicklung sogenannter Trust Personalization Engines – technologischer Systeme, die adaptive Vertrauensarchitekturen schaffen.
Kernidee dieses Geschäftsmodells ist die Integration von Vertrauenspädagogik in die Funktionslogik digitaler Systeme: KI-Interfaces werden nicht als starre Kommunikationskanäle konzipiert, sondern als psychologisch responsiv personalisierbare Vermittlungsschichten, die situativ entscheiden, welche Form der Ergebnispräsentation – direkt, menschlich vermittelt, narrativ eingebettet, durch Avatar dargestellt – der jeweiligen Nutzerin oder dem Nutzer angeboten wird.
Technologisch basiert eine Trust Personalization Engine auf drei modularen Komponenten:
Ein Beispiel aus der Praxis: Ein Versicherungskunde nutzt eine App zur Berechnung seiner Lebensversicherungsprämie. Die KI erkennt: männlich, 58 Jahre, niedriges Technikvertrauen, hohe Reaktanz (zuvor mehrfaches Abbrechen des Dialogs bei reiner KI-Kommunikation). Das System wählt daher für die Präsentation des Ergebnisses nicht das nüchterne „Ihre empfohlene Prämie beträgt…“, sondern einen empathischen Avatar, der das Ergebnis erläutert und gleichzeitig eine Möglichkeit zum Rückruf anbietet. Der Nutzer fühlt sich abgeholt – und akzeptiert das Ergebnis. Dieselbe App würde bei einer 29-jährigen IT-Beraterin mit hoher Selbstwirksamkeit und Technikaffinität direkt zur Zahl springen – keine Vermittlung nötig, keine Überinszenierung erwünscht.
Psychologisch basiert dieses Modell auf einem interaktiven Verständnis von Vertrauen, das nicht als monolithische Disposition, sondern als situativ emergentes Beziehungsgeschehen verstanden wird. Vertrauen ist hier nicht entweder vorhanden oder nicht vorhanden – es ist konstruierbar, formbar, beeinflussbar. Das entscheidende Moment ist die Übereinstimmung zwischen Erwartung und Vermittlung: Ein Vertrauensfehler tritt nicht auf, wenn eine KI falsch rechnet, sondern wenn sie nicht in der Weise kommuniziert, wie es die psychische Struktur des Rezipienten benötigt.
Ökonomisch eröffnet dieses Modell neue Möglichkeiten in der Produktdifferenzierung, in der Konversionserhöhung und im Relationship Management. Anbieter können Nutzenden ein „vertrauenssensibles System“ bieten – ein Wettbewerbsvorteil gerade in jenen Branchen, in denen Angst, Unsicherheit oder Komplexität strukturell mit dem Geschäftsmodell verbunden sind: HealthTech, InsurTech, LegalTech, EduTech. Besonders spannend wird dies im B2B-Modell: Anbieter von Trust Engines können die logische Struktur – z. B. über eine API – an Plattformen lizensieren, die wiederum ihre KI-Ergebnisse kontextspezifisch vermitteln lassen, ohne selbst Vertrauenstechnik entwickeln zu müssen.
Aus den Studienergebnissen ergibt sich eine klare Marktchance: Über 60 % der Nutzer:innen reagierten signifikant positiver auf Ergebnisse, wenn die Vermittlung ihrer psychologischen Erwartung entsprach. Gleichzeitig sank bei unpassender Vermittlung (z. B. KI-only bei technikskeptischer Person in Gesundheitsszenario) die Bereitschaft zur Ergebnisannahme um bis zu 40 %. Vertrauen ist also kein additiver, sondern ein strategischer Performance-Faktor, der nicht durch Richtigkeit, sondern durch Vermittlungsqualität maximiert wird.
Ein weiterer Aspekt betrifft die ethische Komponente: Trust Personalization Engines könnten dazu beitragen, digitale Gerechtigkeit zu erzeugen – durch differenzsensible Vermittlung, die auch Menschen mit niedriger Technikkompetenz oder hoher emotionaler Vulnerabilität einschließt. So könnte ein KI-System nicht nur inklusiver, sondern auch psychologisch gerechter kommunizieren: nicht nur funktional korrekt, sondern menschlich angemessen.
Zusammenfassend ist die Entwicklung von Trust Personalization Engines nicht nur ein technologisches Produkt, sondern ein Paradigmenwechsel im Design KI-gestützter Kommunikation. Es handelt sich um eine neue Stufe kognitiver und emotionaler Interface-Psychologie – skalierbar, nutzerzentriert, responsiv. Wer in Zukunft Vertrauen nicht mit Transparenz, sondern mit psychologischer Passung definiert, erschließt nicht nur neue Märkte – er verändert die Art, wie Menschen mit Maschinen kommunizieren.
Die Ergebnisse der Studie, insbesondere zu Hypothese 5, zeigen mit großer Deutlichkeit, dass Vertrauen in KI nicht zwingend durch reale menschliche Vermittlung entstehen muss – sondern ebenso durch symbolische Repräsentationen, denen bereits ein Vertrauensvorschuss entgegengebracht wird. Die Einführung des Testimonials „Dr. Best“ in der Gesundheits-Vignette der Studie erzeugte bei technikskeptischen Gruppen nicht nur ein messbar höheres Vertrauen in das KI-Ergebnis, sondern stellte für viele Proband:innen eine subjektiv emotionale Autorität dar – unabhängig davon, ob diese Figur real, fiktiv oder medial konstruiert war. Hier eröffnet sich ein neues, bisher kaum erschlossenes Geschäftsmodell: die kommerzielle Lizenzierung von Vertrauenssymbolen im Rahmen digitaler Intermediärkommunikation.
Das Geschäftsmodell „Testimonial-Licensing & Symbolplattformen“ basiert auf der Idee, Vertrauen als ein übertragbares, marktfähiges Gut zu verstehen – nicht allein im Sinne klassischer Werbung, sondern im Sinne semantischer Authentifizierung. Dabei wird ein mediales oder markenpsychologisch aufgeladenes Symbol – etwa ein bekannter TV-Arzt, eine langjährig vertraute Figur wie „Dr. Best“ oder sogar ein synthetisch erzeugter Avatar mit positiver Affektladung – nicht bloß als Werbefläche, sondern als aktives Vermittlungssubjekt in der KI-Kommunikation eingesetzt.
Der Unterschied zu herkömmlichem Influencer-Marketing liegt in der Funktion: Testimonials in diesem Modell sind nicht Botschafter für Produkte, sondern Vertrauensgaranten für die Vermittlung von KI-Ergebnissen. Sie bürgen nicht für eine Marke, sondern für die semantische und emotionale Integrität einer Aussage – etwa einer KI-generierten Diagnose, einem Steuerbescheid oder einer Empfehlung in einem sensiblen Bereich. Ihre Rolle ist nicht argumentativ, sondern symbolisch: Sie schaffen emotionale Nähe, soziale Orientierung und moralische Absicherung in einem strukturell abstrakten Kommunikationsraum.
Der Marktmechanismus dahinter funktioniert über Plattformen zur semantischen Vermittlung, auf denen Unternehmen nach Sektor (z. B. Medizin, Finanzen, Bildung), Zielgruppe (z. B. älter, ängstlich, technikskeptisch) und Kommunikationskontext (z. B. Risikodiagnose, Vertragsinformation, Anlageentscheidung) passende Testimonials auswählen und lizenzieren können. Die Plattform aggregiert sowohl reale Persönlichkeiten (z. B. pensionierte Ärzte, prominente Moderator:innen, öffentlich bekannte Fachpersonen) als auch künstlich geschaffene Vertrauensfiguren (Avatare, KI-generierte Stimmen, gezeichnete Charaktere), deren Wirkung empirisch getestet und psychometrisch codiert ist.
Ein konkretes Szenario: Ein Anbieter von KI-gestützter Finanzberatung will seine Empfehlung zu einer risikobehafteten Anlageentscheidung nicht durch das System selbst präsentieren lassen, sondern durch einen bekannten Börsenanalysten, dessen Stimme, Mimik und Tonfall bei der Zielgruppe hohe Glaubwürdigkeit erzeugen. Über die Plattform lizenziert der Anbieter diese Figur (live oder als Avatar), integriert sie in die UX und kann nachweisen, dass die Vertrauenskonversion messbar steigt.
Die psychologische Wirkungsweise solcher Symbolintermediäre beruht auf zwei miteinander verschränkten Mechanismen: parasoziale Interaktion (Horton & Wohl, 1956) und semantischer Trust Transfer (Stewart, 2003). Erstens: Wenn eine Figur wiederholt, positiv und medial konsistent in Erscheinung tritt, entsteht eine einseitige, aber affektiv besetzte Beziehung, die Vertrauen, Nähe und Verlässlichkeit simuliert. Zweitens: Diese affektive Grundbindung lässt sich auf neue Kontexte übertragen – selbst dann, wenn die Figur gar keine Fachperson ist, sondern nur für „Verstehbarkeit“ oder „Menschlichkeit“ steht. Vertrauen wird nicht nur rational, sondern symbolisch-mimetisch erzeugt.
Ökonomisch ist dieses Modell besonders attraktiv, weil es hoch skalierbar und relativ ressourcenschonend ist. Vertrauenssymbole – ob real oder synthetisch – müssen nicht für jede Anwendung neu entwickelt werden. Vielmehr entsteht eine Art Trust-as-a-Brand-Portfolio, das zielgruppenspezifisch angepasst und lizenztechnisch flexibel verwertet werden kann. Unternehmen zahlen entweder per Nutzung, auf Abo-Basis oder als Lizenzpaket für bestimmte Märkte oder Plattformen.
Aus den Studienergebnissen ergeben sich dabei klare Empfehlungen für Zielgruppen und Branchen, in denen dieses Modell besonders anschlussfähig ist:
Gleichzeitig eröffnet das Modell auch die Möglichkeit einer Markenerweiterung über Vertrauensträger: Unternehmen könnten eigene Vertrauenssymbole etablieren – etwa animierte Charaktere oder menschlich inszenierte Markenpersönlichkeiten – und diese als vermittlungsstrategische Assets in ihren digitalen Interfaces integrieren. Hier wird Vertrauen nicht mehr nur über Corporate Design oder UX erzeugt, sondern über affektive Repräsentanten, die psychologisch als „Gesicht der KI“ fungieren.
Langfristig könnte sich daraus ein neues Segment der symbolischen Markenführung entwickeln: Vertrauensarchitektur durch ikonografische Stabilität. Wer heute bereits starke mediale Figuren besitzt, kann diese in Zukunft in digitaler Interaktion als KI-Übersetzer monetarisieren. Wer keine solche Figur besitzt, kann sie entwickeln – empirisch getestet, emotional designt, strategisch eingesetzt.
Kurzum: Mit Testimonial-Licensing und Symbolplattformen entsteht ein neues Marktsegment, in dem Vertrauen nicht mehr nur implizit mitschwingt, sondern aktiv lizenziert, gestaltet und strategisch eingesetzt wird – als Teil des Produktes, nicht bloß der Werbung. Ein Vertrauensgesicht wird zur Vermittlungsarchitektur – und damit zum neuen Asset der post-personalen Markenkommunikation im KI-Zeitalter.
Ein zentrales, wenngleich oft übersehenes Ergebnis der Studie ist, dass das Vertrauen in KI-Ergebnisse nicht nur davon abhängt, wer die Information vermittelt – also Mensch, Maschine oder Testimonial –, sondern auch wie diese Kommunikation gestaltet ist. Die Art der Ansprache, der Sprachstil, die semantische Struktur, der affektive Tonfall und die narrative Form haben maßgeblichen Einfluss auf die wahrgenommene Vertrauenswürdigkeit. Genau an dieser Stelle entsteht ein neues, hochspezialisiertes Geschäftsmodell: das Conversational Trust Design – also die professionelle Gestaltung von KI-Ausgaben als psychologisch anschlussfähige, vertrauensstiftende Dialogsysteme.
Während herkömmliche UX-Agenturen sich meist auf Navigierbarkeit, Konsistenz und Effizienz konzentrieren, verfolgt das Conversational Trust Design einen anderen Ansatz: Vertrauen wird nicht als Folge guter Funktionalität verstanden, sondern als bewusst gestaltbares psychologisches Produkt. Der Dialog zwischen Nutzer:in und System wird dabei nicht als bloßer Informationstransfer, sondern als emotionales Beziehungsgeschehen konzipiert – eingebettet in eine narrative Struktur, die Empathie, Sicherheit, Orientierung und gegebenenfalls auch Ambivalenz zulässt.
Dieses Geschäftsmodell umfasst vier zentrale Leistungen:
Psychologisch basiert dieses Geschäftsmodell auf einem zentralen Paradigmenwechsel: Weg vom Vertrauen in das Was (Information) – hin zum Vertrauen in das Wie (Beziehungsqualität der Vermittlung). In der Studie wurde mehrfach deutlich, dass selbst korrekt kommunizierte Ergebnisse abgelehnt oder angezweifelt wurden, wenn sie in unangemessener Sprache, zu nüchtern oder zu technisch präsentiert wurden. Umgekehrt stieg die Akzeptanz, wenn die semantische Form Vertrauen erzeugte – etwa durch symbolische Rahmung, empathische Tonalität oder narrative Einbettung. Vertrauen ist also kein Add-on, sondern strukturell in die Sprache eingebettet.
Ökonomisch eröffnet Conversational Trust Design Agenturen einen neuen Markt zwischen klassischem UX, psychologischer Kommunikationsberatung und Markenstimme. Die Zielgruppen sind vielfältig:
Die Leistung ist dabei nicht nur kognitiv oder ästhetisch, sondern affektiv und strategisch: Sie beeinflusst, ob eine Information angenommen wird oder nicht – unabhängig von ihrer sachlichen Qualität. Damit entsteht ein eigenes Wertversprechen: semantisch erzeugtes Vertrauen als Leistungsfaktor.
Langfristig könnten solche Agenturen auch eigene Sprachmodule lizensieren – vergleichbar mit Voice-Packs für virtuelle Assistenten, jedoch basierend auf psychologischen Vertrauensalgorithmen. So entstünde eine Art Vertrauens-Tonalitäts-Bibliothek, aus der Anbieter jene Sprachform wählen, die zu Zielgruppe, Thema und Kontext passt – z. B. „empathisch-medizinisch“, „respektvoll-rechtlich“, „optimistisch-kognitiv entlastend“.
Zusammengefasst: Conversational Trust Design ist keine Kosmetik – es ist eine neue Designethik und strategische Sprachpraxis für das KI-Zeitalter. Es professionalisiert die semantische Schnittstelle zwischen Mensch und Maschine – nicht als technisches Interface, sondern als psychologisch fundierte Beziehungsgestaltung. Wer in Zukunft Vertrauen aufbauen will, braucht keine Hochglanzkampagnen, sondern eine Stimme, die berührt. Und eine Sprache, die versteht, bevor sie erklärt.
Die bisherigen Geschäftsmodellansätze zeigten, dass Vertrauen in KI nicht als statisches Merkmal des Systems verstanden werden darf, sondern als psychologisch und sozial vermittelter Prozess – abhängig von Kontext, Zielgruppe, Sprache und Symbolik. Damit stellt sich die Frage, wie solche Vermittlungslösungen nicht nur als Maßanfertigungen, sondern auch in großem Maßstab als Infrastruktur bereitgestellt werden können. Genau hier setzt das Modell der Vertrauens-API (Trust API) an – ein neues Geschäftsfeld, in dem Vertrauen selbst zur modularen, plattformunabhängigen Schnittstellenlösung wird.
Eine Trust API ist eine standardisierte, cloudbasierte Schnittstelle, die es digitalen Plattformen erlaubt, passende Vertrauensvermittlungen situativ zu integrieren, ohne diese selbst entwickeln oder betreiben zu müssen. Sie liefert, vergleichbar mit einem Payment-Provider oder einem Consent-Manager, eine externe, kontext- und nutzersensitive Vertrauensschicht, die vom Plattformbetreiber lediglich eingebunden wird – skalierbar, segmentierbar, validiert.
Die API greift in Echtzeit auf vier Elemente zurück:
Die Studie hat gezeigt: Vertrauen in KI hängt entscheidend davon ab, ob die Vermittlung psychologisch zur Person und zur Situation passt. Ohne Differenzierung entsteht Reaktanz, Unsicherheit oder Ablehnung. Doch nicht jede Plattform kann sich eigene psychologisch fundierte Vermittlungsstrukturen leisten. Eine Trust API bietet hier eine Lösung, die das Prinzip der dynamischen Vertrauensvermittlung industrialisiert – ähnlich wie A/B-Testing oder Recommendation Engines.
Das Geschäftsmodell dahinter funktioniert auf verschiedenen Ebenen:
Die Einsatzmöglichkeiten sind vielfältig – überall dort, wo KI oder algorithmisch gestützte Systeme Informationen mit potenziell emotionaler, regulatorischer oder existenzieller Tragweite liefern:
In all diesen Feldern kann die Vertrauens-API dafür sorgen, dass Kommunikation nicht nur funktioniert, sondern auch psychisch tragfähig ist. Sie wird damit zur unsichtbaren Vertrauenslogistik des digitalen Alltags.
Die API verkörpert einen radikalen Schritt: Sie operationalisiert Vertrauen nicht mehr als kulturellen Prozess, sondern als programmierbares Interfacedesign. Vertrauen wird hier zum Infrastrukturprinzip – wie ein Stromanschluss für Emotion. Das ist nicht trivial: Wenn Plattformen massenhaft automatisierte Entscheidungen treffen (z. B. „Wir lehnen Ihre Anfrage ab“), entscheidet die Art der Vermittlung darüber, ob Nutzer:innen diese Entscheidung akzeptieren, infrage stellen oder die Beziehung zur Marke abbrechen. Vertrauen wird also nicht additiv – sondern strukturell entscheidend für Nutzerbindung, Compliance und Markenerleben.
Eine solche Infrastruktur bringt aber auch neue Fragen mit sich. Wenn Vertrauen modular angeboten wird, entsteht die Gefahr, dass es strategisch simuliert, aber nicht ernst gemeint ist. Daher muss eine Trust API transparent und ethisch fundiert sein. Die in der Studie deutlich gewordene Sensibilität gegenüber Manipulation, Pseudoempathie oder vertrauensfeindlicher Inszenierung unterstreicht die Notwendigkeit, dass Vertrauen nicht nur effektiv, sondern authentisch vermittelt wird – durch Inhalte, Tonalität und echte Beziehungsangebote.
Mit Trust APIs entsteht ein neues Feld zwischen psychologischer Interface-Architektur, technischer Standardisierung und strategischer Kommunikation. Plattformen, die heute KI-basierte Entscheidungen ausspielen, werden künftig nicht nur Rechenleistung, sondern Vertrauensleistung skalieren müssen. Die API liefert nicht das Was – sondern das Wie, in dem Vertrauen entsteht. Wer das früh versteht, wird das Vertrauen der Nutzer:innen nicht nur erhalten, sondern in systematische Beziehung übersetzen.
Die Ergebnisse der Studie legen nahe, dass sich unser Verhältnis zu künstlicher Intelligenz derzeit in einer hybriden Phase befindet. Auf der einen Seite entstehen hochpotente, autonome Systeme, die medizinische Diagnosen, juristische Bewertungen oder ökonomische Entscheidungen mit nie dagewesener Präzision treffen können. Auf der anderen Seite stehen Menschen – geprägt von psychologischer Verwundbarkeit, habituellen Routinen, und dem Bedürfnis nach sozialer Verankerung. Dazwischen öffnet sich ein Markt, der nicht technologisch, sondern psychologisch begründet ist: Die KI ist bereit für die Zukunft – aber produzieren muss sie für die Gegenwart.
Die Implikation ist deutlich: Wer heute in der Lage ist, Vermittlungsarchitekturen zwischen der Rechenwelt der KI und der Beziehungssprache des Menschen zu gestalten, kann strategische Arbitragegewinne erzielen. Es entsteht eine ökonomische Asymmetrie zwischen dem, was technisch möglich ist, und dem, was psychologisch akzeptiert wird. Diese Kluft kann gefüllt werden – durch die in Abschnitt 7.1 dargestellten Geschäftsmodelle: Intermediär-as-a-Service, Trust Personalization Engines, Testimonial Licensing, Conversational Trust Design und Trust APIs.
Diese Modelle produzieren nicht Technik, sondern kompatible Bedeutungsräume für Menschen, die noch nach den Prinzipien der alten Welt funktionieren: Beziehung statt Berechnung, Gefühl statt Logik, Ansprache statt Algorithmus. Genau deshalb sind sie im Moment hochprofitabel. Denn sie bieten Übersetzungsleistung – und Übersetzung war historisch immer ein Markt, solange zwei Systeme koexistierten, aber nicht dieselbe Sprache sprachen.
Diese Übersetzungsökonomie lässt sich mit klassischen Arbitrage-Situationen vergleichen: Wer zwei Märkte kennt, die unterschiedlich funktionieren, aber aufeinander angewiesen sind, kann durch intelligente Vermittlung temporäre Überrenditen erzielen. Im Fall der KI bedeutet das: Die neue Welt hat ein Angebotsüberschuss an Rechenleistung – die alte Welt einen Nachfrageüberschuss an Beziehungsbedeutung. Vermittlung schafft Wert.
Ein Beispiel: Ein Anbieter medizinischer Diagnostik lässt seine Befunde durch ein KI-System analysieren, aber die Kommunikation wird durch empathisch trainierte Chatbots, Avatare oder reale Ärzt:innen vermittelt. Der Nutzer zahlt nicht für die Analyse, sondern für die Vermittlung – das eigentliche Produkt ist Vertrauensfähigkeit. Diese hat in der aktuellen Übergangszeit einen monetarisierbaren Mehrwert. Der Gewinn liegt darin, die kognitive Zukunft in eine affektive Gegenwart zu übersetzen.
Die entscheidende Implikation lautet jedoch: Diese Arbitragephase ist endlich. Sie beruht darauf, dass es eine Diskrepanz zwischen Technologie und psychischer Anschlussfähigkeit gibt. Aber diese Diskrepanz wird sich über Zeit schließen – durch soziokulturelle Normalisierung, durch mediale Gewöhnung, durch Generationenwechsel. Was heute noch Reaktanz auslöst, wird morgen Alltag sein. Die Psychologie des Menschen ist lernfähig – langsam, aber stetig.
Unsere Studie deutet an, dass dies besonders deutlich in der Altersstruktur und in der Mediensozialisation sichtbar wird (vgl. H3): Die jüngeren Kohorten akzeptieren KI-Kommunikation zunehmend ohne Zwischeninstanzen. Was heute noch durch menschliche oder symbolische Vermittlung abgesichert werden muss, wird in zehn bis fünfzehn Jahren wahrscheinlich direkt akzeptiert – ohne Bedarf nach Testimonials, empathischen Skripten oder Intermediären. Die technische Sprache der KI wird zur Alltagssprache – und damit verlieren Vermittlungsmodelle ihre Sonderstellung.
Der ökonomische Vorteil liegt also nicht in der Dauerhaftigkeit dieser Modelle – sondern in ihrem strategisch begrenzten Zeitfenster. Die nächsten zehn bis fünfzehn Jahre bieten eine einmalige Möglichkeit, durch vertrauensstiftende Vermittlungssysteme Markenloyalität, Plattformbindung, psychologische Autorität und emotionale Usability aufzubauen – in einem Markt, der noch zwischen zwei Welten lebt. Danach wird sich das Spielfeld verändern: Die Vermittlung wird entfallen, weil das Vertrauen in der Funktion selbst verankert ist – nicht mehr im Übersetzer, sondern im System.
Psychologisch betrachtet ist dies eine Zeit der symbolischen Machtverschiebung: Vom Menschen zur Maschine, vom Beziehungswesen zum Entscheidungsautomat. Wer in dieser Übergangsphase nicht nur KI entwickelt, sondern Vertrauen gestaltet, hat nicht nur ökonomischen, sondern auch kulturellen Einfluss: Er bestimmt, wie Maschinen sprechen, wie sie zuhören, wie sie Entscheidungen einbetten. Wer jetzt Vertrauen designt, designt das Interface der Zukunft – und wird daran erinnert, dass jede Maschine, so klug sie auch sein mag, nur so wirksam ist, wie sie im Innersten verstanden wird.
Die KI-Welt ist bereit – der Mensch ist es noch nicht. Wer diese Kluft systematisch gestaltet, betreibt nicht nur Kommunikation, sondern Kulturübersetzung. Die Geschäftsmodelle, die daraus entstehen, sind ökonomisch lohnend, gesellschaftlich notwendig – und zeitlich begrenzt. Sie funktionieren so lange, bis die Sprache der KI zur Alltagssprache geworden ist. Bis dahin jedoch bleibt Vertrauen die wichtigste Währung der Maschinenkommunikation – und Übersetzung der lukrativste Beruf dieser Übergangszeit.