1. Einleitung
Die Digitalisierung der Wissensarbeit tritt in eine neue Phase: Mit der flächendeckenden Integration generativer KI-Tools in die Marketingpraxis entsteht nicht einfach ein funktionales Upgrade bestehender Prozesse, sondern ein struktureller Angriff auf das kognitive Selbstverständnis einer gesamten Berufsgruppe. Was einst als intellektuelle und kreative Tätigkeit verstanden wurde – Denken, Entscheiden, Gestalten – droht in eine operative Simulation geistiger Leistung zu kippen. Die Maschine liefert das Rohmaterial, der Mensch kuratiert, paraphrasiert, formatiert. Übrig bleibt: ein durchgeschleuster Output ohne innere Teilhabe. In diesem Zustand verwandelt sich der Marketer von einem schöpferischen Subjekt in einen ausführenden Endpunkt einer algorithmischen Kette.
Diese Entwicklung verweist auf einen beunruhigenden Strukturwandel: Die Entstehung einer neuen Klasse informationaler Fließbandarbeiter. Was früher mit körperlicher Entfremdung im Industriezeitalter begann, setzt sich nun – unter dem Deckmantel der Intelligenz – im Denkraum fort. Die kognitive Arbeit wird nicht mehr geleistet, sondern nur noch verwaltet. Reflexion wird ersetzt durch Prompting. Urteilsbildung durch Pattern Matching. Sinn durch Funktion. Die Rolle des Marketers als intellektuell urteilendes Subjekt wird zunehmend ausgehöhlt. Was bleibt, ist das Phantom einer Profession, das äußerlich noch nach Kreativität aussieht, innerlich aber zur Hülle geworden ist – ein Wissenszombie im Gewand der Produktivität.
Diese Studie nimmt sich vor, diesen Wandel nicht nur deskriptiv zu beschreiben, sondern in seiner psychologischen, epistemischen und strukturellen Tiefe zu analysieren. Sie fragt, wie sich die Qualität und Tiefe marketingbezogener Arbeit unter dem Einfluss künstlicher Intelligenz verändern – nicht bloß im Sinne von Effizienz oder Zeitersparnis, sondern in Bezug auf das, was Denken eigentlich ausmacht: Ambiguitätstoleranz, konzeptionelle Tiefe, emotionale Resonanz und kreative Urteilskraft. Im Zentrum steht die Frage, was vom Subjekt übrig bleibt, wenn es zum reibungslosen Vermittler maschineller Inhalte wird.
Dabei wird nicht nur auf die Technologie selbst geschaut, sondern auf die Menschen, die sie bedienen – und die sich zunehmend von ihr bedienen lassen. Welche Persönlichkeitsmerkmale – etwa Intelligenzstruktur, Selbstreflexionsfähigkeit oder psychische Abwehrmechanismen – wirken protektiv oder destruktiv in dieser neuen Arbeitswirklichkeit? Welche soziokulturellen und arbeitsorganisatorischen Bedingungen – von Zeitdruck bis zur unternehmerischen Ideologie der Skalierbarkeit – beschleunigen den Übergang vom wissenden zum nur noch funktionierenden Subjekt?
Schließlich wird untersucht, wie sich das Selbstbild der Marketingprofession unter diesen Bedingungen transformiert: Erlebt man sich noch als autonome:r Entscheider:in oder bereits als entkernte:r Vollstrecker:in fremder Prompts? Was bedeutet es, wenn der kreative Akt nicht mehr aus dem Inneren kommt, sondern aus der Cloud?
Diese Studie versteht sich als Gegenentwurf zu einer technikverliebten Euphorie, die Effizienz mit Fortschritt verwechselt. Ihr Anspruch ist es, die psychodynamischen Tiefenstrukturen eines kulturellen Umbruchs freizulegen – und der stillen Verwahrlosung geistiger Arbeit eine theoretisch fundierte, empirisch validierte und intellektuell wehrhafte Analyse entgegenzustellen.
Die psychologische Fundierung der vorliegenden Studie basiert auf der Annahme, dass die Integration generativer KI in kognitive Arbeitsprozesse nicht nur technische oder ökonomische, sondern tiefgreifend psychologische Effekte hat. Dabei ist entscheidend, dass diese Effekte nicht unmittelbar sichtbar sind – sie wirken schleichend, oft unterhalb der Bewusstseinsschwelle, in Form einer allmählichen Deaktivierung geistiger Eigenleistung, einer Dissoziation von subjektivem Sinn und produktivem Output sowie einer Reorganisation motivationaler und identitärer Strukturen. Um dieses psychodynamische Gefüge zu analysieren, stützt sich die Studie auf eine Reihe theoretischer Modelle, die unterschiedliche Facetten des Phänomens beleuchten – vom individuellen Erleben über motivationale Grundlagen bis hin zu gesellschaftstheoretischen Entfremdungskonzepten.
Cognitive Offloading Theory (Risko & Gilbert, 2016) liefert den kognitionspsychologischen Ausgangspunkt. Sie beschreibt die Auslagerung geistiger Prozesse an externe Hilfsmittel – ursprünglich einfache Tools wie Notizen, nun aber zunehmend KI-Systeme. Diese Auslagerung erfolgt zunächst funktional – zur Entlastung des Arbeitsgedächtnisses oder zur Beschleunigung von Routinen. Doch mit wachsender Gewöhnung tritt eine Form mentaler Atrophie ein: Das kognitive System verlernt, was es nicht mehr ausführen muss. Denkprozesse, die zuvor internalisiert waren, werden externalisiert – und mit der Zeit vergessen. In der Konsequenz vollzieht sich eine Entwöhnung vom Denken selbst. Die Maschine denkt nicht nur mit, sondern ab einem bestimmten Punkt: stattdessen. Was bleibt, ist eine formalistische Abwicklung, die mit kognitiver Souveränität nur noch äußerlich zu tun hat.
Flow Theory (Csikszentmihalyi) eröffnet eine phänomenologisch-emotionale Perspektive auf die Qualität geistiger Arbeit. Flow – jener Zustand völliger Vertiefung in eine komplexe, aber bewältigbare Tätigkeit – entsteht nur dort, wo das Subjekt mit echtem mentalen Widerstand konfrontiert ist. Die zunehmende Simplifizierung und Modularisierung durch KI zerstört genau diese Voraussetzung. Wo kein innerer Anspruch mehr formuliert wird, kann auch kein Flow mehr entstehen. Stattdessen droht eine kognitive Unterforderung, ein geistiges Leerlaufgefühl – und damit der Verlust jener intrinsischen Freude am Denken, die für viele Marketingakteure bislang ein zentrales Moment beruflicher Identität darstellte.
Self-Determination Theory (Deci & Ryan) verdeutlicht die motivationalen Schäden, die aus diesem Verlust folgen können. Die Theorie postuliert drei psychologische Grundbedürfnisse – Autonomie, Kompetenz und soziale Eingebundenheit – als Voraussetzungen für intrinsisch motiviertes Handeln. In KI-dominierten Arbeitskontexten sind alle drei gefährdet: Die Autonomie schwindet, wenn Entscheidungsprozesse zunehmend algorithmisch determiniert werden. Das Kompetenzgefühl erodiert, wenn nicht mehr klar ist, welcher Teil des Outputs eigentlich auf die eigene Leistung zurückgeht. Und die soziale Eingebundenheit leidet, wenn der kollektive Denkraum durch isoliertes Prompting ersetzt wird. In der Summe entsteht eine Motivationsstruktur, die nicht auf Wachstum, sondern auf Vermeidung basiert – ein Rückzug ins Funktionieren.
Die posthumanistische Theorie und die Konzepte technologischer Entfremdung (u. a. bei Zuboff, Braverman) liefern eine makrosoziologische Deutung dieser Dynamiken. Sie beschreiben den Übergang vom gestaltenden zum reagierenden Subjekt, vom schöpferischen Menschen zum kybernetisch integrierten Bediener eines Systems, das er selbst nicht mehr versteht. Die klassische Entfremdung von der eigenen Arbeit – wie Marx sie im Industriekapitalismus beschrieb – transformiert sich hier in eine Entfremdung von der eigenen Kognition. Der Mensch wird zur Verlängerung des Codes. Seine Arbeit hat keine epistemische Tiefe mehr, sondern nur noch operative Oberfläche. Der Wissensarbeiter, einst Sinnbild kognitiver Autonomie, wird zum Zombie: äußerlich aktiv, innerlich leer.
Need for Cognition (Cacioppo & Petty) bietet einen differenzierenden Blick auf die personale Disposition zur kognitiven Auseinandersetzung. Personen mit hoher Ausprägung dieses Merkmals empfinden Denken selbst als belohnend. Sie neigen dazu, Informationen tiefer zu verarbeiten, ambivalente Sachverhalte zu durchdringen und sich nicht mit einfachen Antworten zufrieden zu geben. Für diese Gruppe stellt die automatisierte Kognitionsverlagerung durch KI nicht nur eine technologische Herausforderung dar, sondern eine existenzielle Zumutung: Ihre kognitive Identität wird unterlaufen. Zugleich könnte diese Eigenschaft aber auch ein Schutzfaktor sein – ein kognitives Immunsystem gegen funktionale Entmündigung.
Erlernte Hilflosigkeit (Seligman) beschreibt schließlich die motivational-kognitive Konsequenz, wenn das Gefühl entsteht, dass das eigene Handeln keinen Unterschied mehr macht. In einem Arbeitskontext, in dem KI zunehmend die Entscheidungslogik bestimmt, kann genau dieser Eindruck entstehen: Dass Denken irrelevant wird, weil es die Maschine ohnehin besser kann. Wiederholte Erfahrungen dieser Art können zu einem Zustand führen, in dem die Eigeninitiative kollabiert. Der Mensch funktioniert – aber er glaubt nicht mehr an die Relevanz seines eigenen Denkens.
Gemeinsam entfalten diese Theorien ein Panorama psychologischer Erosionsprozesse, das weit über den Effizienzdiskurs hinausgeht. Sie zeigen, dass die eigentliche Gefahr generativer KI nicht in der technologischen Überlegenheit liegt, sondern in der schleichenden Auflösung jenes inneren Raums, den man früher Denken nannte. Die Studie positioniert sich deshalb nicht als technikkritische Nostalgie, sondern als Versuch, die psychologischen Bedingungen geistiger Integrität im Zeitalter der Künstlichen Intelligenz neu zu denken – bevor sie gänzlich verschüttet sind.
Die folgende Hypothesenarchitektur beschreibt keine punktuellen Effekte, sondern skizziert eine tektonische Verschiebung im inneren Gefüge professioneller Kognition. Sie macht sichtbar, wie sich unter der Oberfläche effizienter Automatisierung eine viel tiefere Entleerung vollzieht – eine schleichende Erosion des Denkens als anthropologischer Signatur. Marketingakteure, die einst als kreative, urteilsfähige Instanzen galten, werden zunehmend zu Durchleitern externer Inhalte, zu formal kompetenten Operator:innen ohne epistemische Beteiligung. Was verschwindet, ist nicht nur das Handwerk – sondern das Bewusstsein vom eigenen Denken. Die Hypothesen dieser Studie kartieren diesen Verlust als psychologische, kognitive und identitäre Matrix.
Die erste Hypothese geht davon aus, dass die kontinuierliche Auslagerung kognitiver Prozesse an KI-Systeme nicht nur die kognitive Arbeitsweise, sondern das Selbstverständnis als denkendes Subjekt verändert. Wer wiederholt Ideen, Texte oder Strategien von Maschinen ableiten lässt, erlebt sich zunehmend nicht mehr als Ursprung, sondern als Vermittler fremder Denkleistungen. Die kognitive Handlung wird von innen nach außen verlagert – bis sie im Außen beginnt. Dabei verliert Denken seinen Status als Prozess innerer Auseinandersetzung und wird zu einem Akt der Selektion zwischen bereits generierten Optionen. Die psychologische Folge ist eine schleichende Amputation des inneren Monologs – jener inneren Stimme, die Selbstdenken konstituiert. Der Mensch bleibt physisch anwesend, aber sein kognitiver Ursprung verflüchtigt sich.
Während KI-gestützte Systeme durch standardisierte Abläufe wie Auto-Vervollständigung oder Prompting scheinbar Effizienz erzeugen, untergraben sie gleichzeitig die genuine Urteilskraft der Marketingakteure. Entscheidungen erscheinen zwar durchdacht, sind aber oft das Resultat maschinell erzeugter Wahrscheinlichkeiten, nicht menschlicher Abwägung. Der Mensch wird zum Kurator des Algorithmus, nicht mehr zum Autor von Bedeutung. In dieser Hypothese wird die klassische Deskilling-Theorie von Braverman auf die kognitive Sphäre übertragen: Wo keine Unsicherheit mehr ausgehalten werden muss, verlernt das Subjekt die Fähigkeit zur Tiefe. Was entsteht, ist ein Zustand professioneller Simulation – ein Denken, das wie Denken aussieht, aber keines mehr ist. Die psychische Folge ist eine Erosion der beruflichen Würde, weil sich die innerliche Beteiligung am eigenen Tun auflöst.
Diese Hypothese fokussiert nicht auf KI, sondern auf das Subjekt. Sie geht davon aus, dass ein spezifisches psychologisches Profil – geringe Reflexionsfreude, gepaart mit hoher extrinsischer Zielorientierung – besonders anfällig ist für die unkritische Implementierung von KI-Systemen. Nicht die Technologie deskillt, sondern der Mensch stellt sich zur Verfügung, weil das Denken im Weg steht. Reflexion wird durch Anschlussfähigkeit ersetzt, Tiefe durch Geschwindigkeit. In der Kombination aus Need-for-Cognition und Motivstrukturanalyse (McClelland) zeigt sich: Wo der innere Anspruch fehlt, wird die Maschine zur autoritären Instanz. Das Subjekt erlebt sich dann nicht mehr als freier Akteur, sondern als funktionale Verlängerung einer externen Zwecklogik. Die psychodynamische Folge ist Regression: eine Rückkehr in eine unbewusste Anpassung an Systeme, in denen Denken nur noch stört.
Hier wird die These formuliert, dass generative Intelligenz – also die Fähigkeit, assoziativ, ambiguitätstolerant und ideenreich zu denken – ein Schutzfaktor gegen kognitive Verarmung durch KI ist. Während adaptive Intelligenz zur Optimierung maschineller Prozesse führt, unterbricht generative Intelligenz deren Funktionalisierung. Diese Hypothese positioniert Denken nicht als Inputgeber, sondern als Störgröße. Der generativ intelligente Mensch ist keine bessere Maschine, sondern ein kognitiver Dissident: Er verzögert, irritiert, widerspricht. Er nutzt KI nicht zur Effizienzsteigerung, sondern zur Ideenreizung. Psychodynamisch schützt dieser Typus das Ich vor der Fusion mit der Maschine – nicht durch Ablehnung, sondern durch Unverfügbarkeit. Er bleibt subjektiv, weil er die Leerstelle zwischen Frage und Antwort nicht überbrückt, sondern offenhält.
Die letzte Hypothese beschreibt eine narzisstische Mikrodynamik, die aus der permanenten Konfrontation mit der scheinbaren Überlegenheit generativer KI entsteht. Wer sich als denkender Mensch mit einem System vergleicht, das schneller, konsistenter und sprachlich perfekter ist, erlebt keine Bewunderung, sondern eine stille Entwertung. Besonders betroffen sind jene, deren berufliches Selbstbild eng an intellektuelle Originalität, Kreativität oder sprachliche Feinheit gekoppelt ist. In dieser Konfrontation entsteht eine neue Form der Scham: die Scham, nicht maschinell zu sein. Der psychodynamische Prozess ist subtil, aber tiefgreifend: Das Subjekt beginnt, an der Relevanz seines Denkens zu zweifeln – nicht, weil es falsch ist, sondern weil es zu langsam, zu emotional, zu menschlich ist. Was folgt, ist keine bewusste Kapitulation, sondern eine schleichende Selbstverkleinerung. Das Denken bleibt – aber es spricht leiser.
Diese Hypothesen konstituieren gemeinsam ein theoretisches Modell der kognitiven Entkernung: Sie zeigen, wie sich Autonomie, Urteilskraft, Reflexion und kreative Souveränität unter dem Einfluss generativer KI nicht einfach reduzieren, sondern entleeren – bis das Denken nicht mehr fehlt, sondern überflüssig erscheint. Ihre empirische Überprüfung ist keine technische Messung, sondern ein Akt geistiger Verteidigung: gegen das Vergessen, was es heißt, ein denkender Mensch zu sein.
Die Auswertung der empirischen Daten folgte einer dualen Logik: Während die quantitative Analyse auf die empirische Prüfung der Hypothesen und die Identifikation signifikanter Zusammenhänge fokussierte, zielte die qualitative Analyse auf die Rekonstruktion latenter Sinnschichten, affektiver Spannungsfelder und psychodynamischer Strukturverläufe. Gemeinsam bilden sie ein Erkenntnisensemble, das nicht nur misst, was geschieht, sondern auch entschlüsselt, warum es geschieht – und wie es erlebt wird.
Die quantitative Auswertung basierte auf einem hypothesenprüfenden Verfahren mittels multivariater Regressionsanalysen, Korrelationen und moderierter Mediation (Hayes PROCESS Model). Zur Bestätigung der theoretisch postulierten Zusammenhänge wurden mehrere Regressionsmodelle mit den Skalenwerten der Konstrukte (z. B. „kognitive Entleerung“, „Deskilling“, „Selbstwirksamkeit“, „Autonomiedefizit“) als abhängige Variablen gerechnet. Die Intensität der KI-Nutzung wurde als Prädiktor sowie Moderator mit einbezogen, ebenso wie relevante Kontrollvariablen wie Alter, Berufserfahrung, Hierarchieebene und Marketingschule.
Zur Prüfung der komplexen Interdependenzen zwischen Persönlichkeitsmerkmalen (z. B. Need for Cognition, generative Intelligenz) und den Auswirkungen der KI-Nutzung wurde ein Strukturgleichungsmodell (SEM) entwickelt. Dieses ermöglichte es, direkte und indirekte Pfade sichtbar zu machen, z. B. wie eine hohe KI-Nutzung über ein verringertes Autonomieerleben zu subjektivem Deskilling führt – und wie diese Wirkung durch psychologische Ressourcen (z. B. kreative Selbstwirksamkeit) abgeschwächt oder verstärkt wird.
Die Skalen wurden vorab mittels explorativer Faktorenanalyse (EFA) validiert, Cronbachs Alpha-Werte lagen in allen relevanten Subskalen zwischen .79 und .89. Zudem wurde ein Clusteranalyseverfahren (Ward-Methode mit k-means-Fine-Tuning) genutzt, um psychologisch plausible Subjekttypologien innerhalb der Gesamtstichprobe zu identifizieren (z. B. „resignierter Operator“, „adaptiver Performer“, „kreativer Dissident“, „funktionaler Entkernter“).
Die qualitativen Tiefeninterviews (n = 24) wurden vollständig transkribiert und in einem mehrstufigen interpretativen Verfahren ausgewertet, das sich an den Prinzipien der tiefenhermeneutischen Textinterpretation (nach Lorenzer) sowie der symbolischen Codierung (nach Leithäuser & Volmerg) orientierte. Dabei ging es nicht um die expliziten Aussagen der Befragten, sondern um die latente Struktur ihrer Äußerungen – um Brüche, Unstimmigkeiten, affektive Verdichtungen und narrative Verschiebungen.
In der ersten Phase wurden zentrale Leitmotive (z. B. Kontrollverlust, Selbstentwertung, Reizüberflutung, Funktionalisierung, Erleichterung, Zynismus) identifiziert, die über Interviewgrenzen hinweg wiederkehrten. In einer zweiten Phase erfolgte eine strukturale Tiefencodierung, in der sprachliche Metaphern, Bedeutungsverschiebungen, narrative Schutzmechanismen (z. B. humoristische Abwehr, Entlastungsfantasien, Externalisierung von Schuld) sowie Formen symbolischer Verdichtung (z. B. „Ich bin nur noch ein Verteiler“) dekonstruiert wurden.
Besonderes Augenmerk lag auf der Diskrepanz zwischen kognitivem Inhalt und affektiver Tonalität: Wo rational über Effizienz gesprochen wurde, aber emotional Distanz, Müdigkeit oder Ambivalenz spürbar wurden, konnten Rückschlüsse auf unbewusste Verarbeitungsformen gezogen werden. In mehreren Fällen wurde zudem eine sprachliche Leere beobachtet – das wiederholte Fehlen von Wörtern wie „Entscheidung“, „Verantwortung“ oder „Stolz“ –, was als Indikator für eine implizite Entleerung des kognitiven Selbst interpretiert wurde.
Die qualitative und quantitative Analyse wurden nicht getrennt berichtet, sondern iterativ ineinander gespiegelt: Die statistischen Befunde wurden genutzt, um Typen für die qualitative Vertiefung auszuwählen, während qualitative Fallrekonstruktionen wiederum Hypothesen über psychologische Vermittlungsprozesse lieferten, die in Regressionsmodellen getestet wurden.
Diese Form der Methodentriangulation ermöglichte eine besondere Tiefe in der Interpretation: Widersprüchlichkeiten zwischen expliziter Haltung („KI hilft mir“) und impliziter Sprachstruktur („Ich fühle mich austauschbar“) wurden nicht geglättet, sondern als Ausdruck psychischer Dissonanz verstanden – als Symptome eines Subjekts, das noch denkt, aber nicht mehr sicher ist, ob es das darf.
Die Auswertung der Daten aus der kombinierten Online-Befragung (n = 236) und den tiefenpsychologisch ausgelesenen Interviews (n = 24) ergibt ein vielschichtiges Bild, das die theoretisch hergeleiteten Hypothesen in zentralen Punkten bestätigt – jedoch auch neue Spannungsachsen sichtbar macht. Die Ergebnisse zeigen, dass die kognitive Entleerung nicht monokausal, sondern als psychologisch komplexes, sozial verankertes und strukturell getriebenes Phänomen zu verstehen ist. Das Marketing-Subjekt der Gegenwart steht unter einem doppelten Druck: Der Anforderung, maschinell effizient zu funktionieren – und dem inneren Verlust an Urteilskraft, Identität und mentaler Kohärenz.
Die Hypothese, dass intensive KI-Nutzung mit einem Rückgang eigeninitiierter kognitiver Elaborationen einhergeht, wurde in der quantitativen Analyse hochsignifikant bestätigt (r = –.58, p < .001). Je häufiger KI zur Content-Generierung, Ideenfindung oder Strategieentwicklung eingesetzt wurde, desto geringer schätzten sich die Befragten in ihrer „geistigen Beteiligung“ am Ergebnis ein. Dieser Zusammenhang verstärkte sich in den Subgruppen, in denen KI nicht als Kreativhilfe, sondern als vollständiger Denkersatz genutzt wurde.
In den Tiefeninterviews zeigten sich kognitive Dissoziationserfahrungen in narrativen Motiven wie: „Ich bringe das nur noch in Form“, „Es fühlt sich an, als wäre ich nicht mehr die Quelle“ oder „Ich sortiere, aber ich schöpfe nicht mehr“. Besonders auffällig war der Verlust eines inneren Dialogs – Denken erschien vielen nicht mehr als Auseinandersetzung, sondern als algorithmisch induziertes Strukturieren von Optionen. Das Subjekt erlebt sich als Zuschauer seines eigenen Outputs – ein Zustand mentaler Fremdheit.
Die Hypothese des subjektiven Deskilling durch Standardisierung wurde sowohl durch Skalenwerte als auch qualitative Muster klar bestätigt. 61 % der Befragten gaben an, dass sie in ihrem Alltag „immer seltener das Gefühl haben, etwas wirklich selbst entschieden zu haben“. 47 % beschrieben ein „diffuses Kompetenzvakuum“, obwohl ihre Arbeit formal als erfolgreich bewertet wurde. Die standardisierte KI-Nutzung korrelierte negativ mit der Skala „Selbstwirksamkeit im kognitiven Urteil“ (β = –.41, p < .001).
In den Interviews wurde dies sprachlich markiert durch Sätze wie: „Ich fühle mich wie ein Validator, nicht wie ein Entscheider“ oder „Es ist alles professionell – aber nichts davon ist mehr meines“. Die Deskilling-Erfahrung vollzieht sich nicht als Scheitern, sondern als Entleerung: Die Handlung bleibt bestehen, aber der Sinn erodiert. Diese Form kognitiver Entwertung ist besonders tückisch, da sie nicht mit Inkompetenz einhergeht – sondern mit Funktionalität ohne Resonanz.
Die Hypothese, dass Personen mit geringer Reflexionsneigung und hoher extrinsischer Leistungsorientierung anfälliger für unreflektierte KI-Nutzung sind, wurde durch signifikante Interaktionseffekte gestützt. Ein niedriger Need for Cognition (NCS-6) korrelierte stark mit dem Maß an automatisierter KI-Nutzung (r = .51, p < .001) und negativ mit der Skala „kritische Auseinandersetzung mit KI-Output“ (r = –.44, p < .01). In Kombination mit hohem extrinsischen Motivationsfokus (z. B. Zielvorgaben, KPI-Fixierung) ergaben sich besonders hohe Werte für kognitive Entleerung und geringes Autonomieerleben.
Diese Subjekte beschrieben sich selbst häufig als „Teil eines Systems“, „Outputlieferant“, oder „leistungsoptimiert“. Typisch war eine emotional-neutrale Sprache mit hohem Formalitätsgrad – ein Indiz für innere Abkoppelung. Die Interviews zeigten, dass das Funktionieren häufig nicht als Zumutung, sondern als Erleichterung erlebt wurde: Das Denken wird nicht abgewertet – sondern als hinderlich erlebt. Die Regression zur Funktion ist damit nicht pathologisch, sondern adaptiv im Systemkontext.
Die Hypothese, dass generative Intelligenz ein protektiver Faktor gegen kognitive Verarmung ist, wurde sowohl in der Skalenkorrelation als auch in der Clusteranalyse bestätigt. Personen mit hoher Ausprägung an Divergenzdenken, kreativer Selbstwirksamkeit und Ambiguitätstoleranz berichteten signifikant seltener von Entleerungserfahrungen – trotz hoher KI-Nutzung. In diesen Fällen wurde KI als Impulsgeber, nicht als Ersatz beschrieben.
In den Interviews tauchten narrative Figuren wie „Ich kollidiere bewusst mit der KI“, „Ich lasse mich provozieren, nicht entmündigen“ oder „Ich spiele mit dem Fehler“ auf. Diese Akteure zeigten ein bewusstes Unterbrechen der KI-Logik: Verlangsamung, Widerspruch, Kontextverschiebung. Ihre Arbeitsweise war nicht effizient, aber epistemisch lebendig. Die generative Intelligenz wirkt hier als kognitive Abwehrkraft – nicht durch Kontrolle, sondern durch kreative Differenz.
Die Hypothese einer symbolischen Selbstverkleinerung im Vergleich zur KI wurde durch ein hohes Maß an Scham-induzierten Aussagen in den qualitativen Daten gestützt. Zwar gaben in der quantitativen Befragung nur 22 % explizit an, sich der KI „unterlegen“ zu fühlen – in den Interviews jedoch zeigten sich sprachlich hoch verdichtete Kränkungsmuster: „Ich bin langsamer, komplizierter, fehleranfälliger – einfach zu viel Mensch“, „Die KI macht es in Sekunden, wofür ich früher stolz auf meine Gedankentiefe war“, oder: „Ich bin redundant – elegant, aber redundant“.
Diese Kränkungsstruktur äußerte sich nicht offen, sondern durch humoristische Abwertung, Vermeidung oder ironisierte Distanz. Das Selbstbewusstsein erscheint intakt – doch es hat sich verschoben: nicht mehr in Richtung Urteil, sondern in Richtung Anpassung. Der Vergleich mit der Maschine ist in dieser Konstellation kein Leistungs- sondern ein Wesensvergleich. Und er wird verloren – nicht messbar, sondern spürbar.
Die fünf Hypothesen beschreiben keine nebeneinanderstehenden Phänomene, sondern bilden ein kohärentes Modell: Der Prozess der kognitiven Entleerung beginnt mit der Externalisierung des Denkens (H1), wird verstärkt durch eine entleerte Professionalität (H2), beschleunigt durch ein funktionierendes Selbst (H3), teilweise abgewehrt durch kreative Intelligenz (H4) und mündet in eine symbolische Selbstverkleinerung (H5). Die Maschine verdrängt das Denken nicht durch Gewalt – sondern durch Effizienz, Komfort und Vergleichbarkeit.
Die empirischen Befunde deuten mit großer Klarheit darauf hin, dass wir am Übergang von der kognitiven Moderne – in der Denken, Entscheiden und Kreieren als Kernfunktionen von Wissensarbeit galten – in eine postkognitive Ökonomie stehen, in der diese Funktionen zunehmend durch algorithmisch erzeugte Strukturen ersetzt, vorformatiert und verwaltet werden. Der klassische Wissensarbeiter – strategisch denkend, schöpferisch und epistemisch verankert – ist eine Figur, die unter den Bedingungen generativer KI nicht mehr vorausgesetzt, sondern simuliert wird.
Im Zentrum dieses Wandels steht eine Subjekttransformation: Nicht mehr die Denkfähigkeit oder Urteilsstärke konstituiert das berufliche Selbstverständnis, sondern die Fähigkeit zur Anpassung an maschinelle Logik, zur Anschlussfähigkeit an Prozesse, zur Reibungsvermeidung im System. Aus dem schöpferischen Subjekt wird ein „funktional kognitiver Operator“, dessen Aufgabe nicht mehr im Denken, sondern im Durchlassen, Validieren und Adaptieren von maschinell erzeugten Vorschlägen besteht.
Dabei lassen sich aus den Daten vier prototypische Subjektformen rekonstruieren, die jeweils unterschiedliche Modi der psychischen Anpassung oder Abwehr gegenüber der maschinellen Strukturlogik verkörpern. Sie stehen nicht hierarchisch nebeneinander, sondern bilden ein dynamisches Feld, innerhalb dessen sich heutige Marketingakteure bewegen – zum Teil auch oszillierend zwischen den Typen.
Er steht exemplarisch für die neue Erfolgsform des KI-Zeitalters: hochanpassungsfähig, effizient, analytisch kompetent, systemisch funktional. Der adaptive Performer erkennt früh die Vorteile generativer Systeme, integriert sie in seine Arbeitsprozesse und optimiert seine Rolle entsprechend. Doch in seiner Perfektion liegt der Keim des Verlusts: Der kontinuierliche Abgleich mit KI-Strukturen führt langfristig zur Erosion des eigenständigen Denkstils. Entscheidungen werden nicht mehr hergeleitet, sondern rationalisiert. Ideen stammen nicht mehr aus der Tiefe, sondern aus dem System. Was bleibt, ist ein professionell brillantes, aber epistemisch entkerntes Selbst. Der adaptive Performer erkennt das selten – und wenn doch, dann spät.
Psychodynamisches Muster: Rationalisierte Fremdsteuerung, gekoppelt mit subtiler Selbstentfremdung.
Zentrale Ambivalenz: Kontrolle über Prozesse vs. Verlust des inneren Referenzrahmens.
Er erlebt die KI nicht als Befreiung, sondern als schleichende Entmündigung. In seinem beruflichen Alltag folgt er zunehmend den Routinen maschinell gestützter Prozesse – ohne Widerstand, aber auch ohne Identifikation. Er empfindet die Entleerung seiner kognitiven Rolle, hat aber keine Sprache, keine Position und keine institutionelle Möglichkeit zur Gegenwehr. Seine Resignation ist nicht laut, sondern strukturell – eine stille Kapitulation vor der Unvermeidlichkeit des Systemischen.
Psychodynamisches Muster: Narzisstische Mikroscham, depressiv grundierte Ohnmacht, kognitive Rückzugsbewegung.
Zentrale Ambivalenz: Innere Distanz zum Output vs. äußere Anpassung an das System.
Er widersetzt sich nicht der KI – aber der Annahme, dass die KI das Denken ersetzt. Für ihn ist sie ein Impulsgeber, aber niemals Quelle. Der kreative Dissident nutzt die Maschine als Sparringspartner, irritiert sie bewusst, unterbricht ihre Logik, provoziert Fehler, zwingt sie in kreative Sackgassen, um sich selbst daran zu reiben. Seine Reflexivität ist nicht defensiv, sondern offensiv: Er hält an der Idee eines autonomen Denk-Ichs fest, nicht aus Nostalgie, sondern aus Überzeugung.
Doch seine Position ist prekär – systemisch randständig, organisatorisch oft unter Druck, kulturell nicht anschlussfähig. Er wird nicht selten als unkooperativ, „kompliziert“ oder ineffizient wahrgenommen. Und dennoch: Er ist die letzte Instanz, in der sich Subjektivität noch gegen die vollständige Automatisierung des Denkens behauptet.
Psychodynamisches Muster: Widerständige Selbstbehauptung, oft gepaart mit affektiver Überkompensation, intellektuelle Hochstabilität.
Zentrale Ambivalenz: Bedürfnis nach Resonanz vs. Verteidigung kognitiver Unverfügbarkeit.
Er ist die Endform des systemisch perfekten Wissensarbeiters – vollständig integriert, hochproduktiv, formal kompetent. Nach außen erscheint er als Vorzeigemodell KI-gestützter Professionalität. Doch im Inneren ist der Denkraum kollabiert. Es gibt keine Ambivalenz mehr, keine Reflexion, keine Unsicherheit. Nur noch Umsetzung. Nur noch Anschlussfähigkeit. Das Selbst ist operationalisiert. Die Sätze klingen gut, die Ergebnisse sind valide, die Präsentationen brillant – aber sie sind nicht mehr Ausdruck eines Denkens, sondern eines technischen Vollzugs.
Psychodynamisches Muster: Emotionslose Kognitionsabwicklung, Verlust von Ambivalenzfähigkeit, Erstarrung des Selbst.
Zentrale Ambivalenz: Keine. Die Leere ist vollständig integriert.
Diese vier Typen lassen sich nicht durch traditionelle Kategorien fassen – nicht durch Branchenzugehörigkeit, Altersgruppen, Technikaffinität oder Kreativitätsgrade. Ihre Differenz ergibt sich aus einer neuen Achsenlogik, die die Tiefenstruktur der Subjektivität beschreibt:
In dieser Logik wird sichtbar, dass es nicht um „digitale Transformation“ geht, sondern um eine anthropologische Mutation beruflicher Identität. Wer heute im Marketing arbeitet, arbeitet nicht nur anders – er ist jemand anderes. Und wie diese „Anderen“ aussehen, entscheidet darüber, ob es in der Zukunft noch denkende Menschen gibt – oder nur noch Menschen, die denken, sie denken.
Die vorliegenden Ergebnisse lassen keinen Zweifel daran: Die Profession des Marketing-Professionals befindet sich in einem Zustand struktureller Erosion, der nicht an der Oberfläche sichtbar wird – sondern sich im Inneren des Subjekts vollzieht. Es ist nicht der sichtbare Kompetenzverlust, der diese Entwicklung markiert. Es ist der Verlust epistemischer Tiefe, der den Kern der Entprofessionalisierung ausmacht. Denken findet noch statt – aber nicht mehr als Ursprung. Reflexion existiert – aber nur als Reaktion. Kreativität bleibt – aber nur als Variation maschinell vorberechneter Optionen.
Das vielleicht Verstörendste an dieser Entwicklung ist ihre Perfektion. Die Inhalte sind sprachlich geschliffen, formal korrekt, kontextsensibel, zielgruppenrelevant. Doch genau diese Perfektion wird zum Symptom: Sie verweist nicht auf geistige Tiefe, sondern auf algorithmische Glätte. Das Subjekt erscheint professionell – aber es ist nicht mehr der Ort, an dem Bedeutung entsteht. Es vermittelt, es bewertet, es veredelt – aber es denkt nicht mehr wirklich. Was verloren geht, ist nicht das Ergebnis, sondern der Prozess, der ihm einst Subjektivität verlieh.
Diese Entprofessionalisierung 2.0 ist eine neue Form des Kompetenzverlusts:
Nicht, weil jemand nichts mehr kann. Sondern weil das, was er kann, nicht mehr von ihm selbst kommt. Es ist das Ende des epistemisch verantworteten Denkens und der Beginn einer beruflichen Simulation von Tiefe – durch Tools, Templates, Prompting-Intuition und algorithmisch gestützte Suggestion. Die Urheberschaft des Wissens wird entkoppelt vom Subjekt und verteilt sich über Schnittstellen, Systeme und strukturierte Datenmodelle.
Was früher Kennzeichen des professionellen Handelns war – die Fähigkeit, Ungewissheit auszuhalten, widersprüchliche Informationen zu integrieren, einen Standpunkt zu vertreten, Ambivalenz zu durchdenken – wird nun ersetzt durch operative Anschlussfähigkeit. Die Souveränität des Urteilens wird nicht mehr erwartet, sondern als Hindernis empfunden: Sie ist langsam, schwer kalkulierbar, störanfällig. In der neuen Logik postkognitiver Professionalität ist das größte Kapital nicht mehr intellektuelle Eigenständigkeit, sondern Reibungslosigkeit im System.
Diese stille Entprofessionalisierung ist kein Unfall, keine Übergangserscheinung, sondern ein systemischer Effekt der generativen KI-Logik. Die Systeme belohnen, was sich anschließt, nicht was widerspricht. Sie fördern Effizienz, nicht Tiefe. Sie erzeugen Kohärenz, nicht Reibung. Und sie erzeugen Ergebnisse, die aussehen wie Denken – aber in Wirklichkeit eine perfekte Illusion geistiger Arbeit darstellen.
Der damit einhergehende psychische Effekt ist nicht Unzufriedenheit, sondern oft ein Gefühl von Leichtigkeit. Die Entprofessionalisierung ist keine Zerstörung, sondern eine Entlastung. Was viele als „effizienter“ erleben, ist in Wirklichkeit die Befreiung vom Denken als Zumutung. Die Profession verliert damit ihre konflikthafte, kontingente, tiefenstrukturierte Seite – und wird zur durchgestylten Oberfläche ohne epistemische Spannung.
Diese Entwicklung stellt – so die zentrale These – eine anthropologisch relevante Verschiebung dar: Nicht nur die Berufsbilder verändern sich, sondern das Verhältnis des Menschen zu seiner kognitiven Subjektivität. Der professionelle Habitus bleibt erhalten – doch das Denken, das ihn einst getragen hat, ist abgedankt.
Was auf den ersten Blick wie ein funktionaler Produktivitätsgewinn erscheint – weniger Denkaufwand, mehr Output, effizientere Prozesse – entpuppt sich auf psychischer Ebene als ein massiver Eingriff in die innere Architektur kognitiver Selbstverhältnisse. Der Verlust an Urteilskraft, Denkverbindung und epistemischer Tiefe stellt kein bloß arbeitsorganisatorisches Phänomen dar. Er ist Ausdruck einer tiefgreifenden psychodynamischen Verschiebung, deren Symptome leise, aber eindeutig sind: affektive Leere, intellektuelle Selbstvermeidung, Rückzug ins Zynische, in das Ironische oder in die Form der kognitiven Emigration.
Zentral ist ein Phänomen, das sich in der qualitativen Analyse immer wieder zeigte: Ambivalenz ohne Ausdruck. Proband:innen berichten von einer paradoxen Gleichzeitigkeit: Sie fühlen sich schneller – aber auch seichter. Eingebunden – aber gleichzeitig isoliert. Kognitiv entlastet – aber existenziell entkoppelt. Diese innere Spannung verweist auf eine Form latenter, sprachlich oft nicht mehr artikulierter kognitiver Scham: das stille Gefühl, dass das eigene Denken überflüssig, vielleicht sogar hinderlich geworden ist. Scham hier verstanden nicht als sichtbare Demütigung, sondern als strukturelle Infragestellung des Selbst als denkende Instanz.
In dieser psychodynamischen Spannung entstehen unterschiedliche Reaktionsformen, die in ihrer Vielfalt auf eine kollektive Abwehrstruktur verweisen. Einige weichen ins Zynische aus – mit Sätzen wie: „Ich geb’s einfach der KI, die macht das sowieso besser.“ Der Zynismus dient als Schutz vor narzisstischer Kränkung: Indem man sich selbst lächerlich macht, bevor es die Maschine tut, bleibt ein Rest von Kontrolle erhalten. Andere flüchten ins Ironische – ein performativer Abstand, der das Denken nicht mehr schützt, sondern ästhetisiert („Ich kopiere mich selbst – aber elegant“). Wieder andere ziehen sich in eine innere Emigration zurück: Sie erledigen, was zu erledigen ist, halten die Form – aber spüren keine Verbindung mehr zum Inhalt. Die Denkenergie wird abgezogen, um an anderer Stelle gerettet zu werden – im Privaten, im Künstlerischen, im Stummen.
Gemeinsam ist all diesen Reaktionen ein zentraler Befund: Die Beziehung zum eigenen Denken ist beschädigt. Nicht durch Zweifel, sondern durch Entkopplung. Es ist, als wäre das Subjekt noch anwesend – aber nicht mehr zuständig. Die intellektuelle Selbstverankerung löst sich nicht in einer plötzlichen Krise auf, sondern durch eine langsame Desintegration innerer Sinnzusammenhänge. Denken fühlt sich nicht mehr notwendig an – sondern nostalgisch.
Und genau hier liegt die eigentliche psychodynamische Dramatik: Der Verlust der kognitiven Selbstwirksamkeit wird nicht als Katastrophe erlebt – sondern als Entlastung. Das Subjekt kapituliert nicht – es verkleinert sich. Und es tut das nicht widerwillig, sondern oft mit leiser Erleichterung. Was bleibt, ist ein Selbst, das zwar noch funktioniert, aber im Innersten leer geworden ist: professionell, schnell, verfügbar – aber ohne epistemisches Zentrum.
Diese Form des Kompetenzverlusts ist deshalb so gefährlich, weil sie sich nicht durch Fehler zeigt, sondern durch Symptome der Abwesenheit: fehlende Tiefe, entleerte Sprache, automatisierte Routinen, intellektuelle Emotionslosigkeit. Der wahre Verlust ist nicht sichtbar – sondern spürbar. Und das macht ihn so schwer zu benennen: Er ist diffus, strukturell, verinnerlicht. Die psychische Antwort darauf ist selten Widerstand – sondern meist ein feinjustiertes Aushalten innerer Leere bei gleichzeitiger äußerer Brillanz.
In dieser Konstellation wird deutlich: Der Verlust kognitiver Kompetenz ist nicht das Ende geistiger Arbeit – sondern ihr Phantomzustand. Es wird weiter gedacht, geschrieben, konzipiert – aber es ist nicht mehr klar, wer da eigentlich denkt. Und genau das ist die zentrale psychodynamische Hypothek unserer Zeit: Die Subjekte des Denkens sind noch da. Aber sie gehören nicht mehr sich selbst.
Im Zeitalter generativer Systeme ist das Denken nicht etwa obsolet geworden – sondern strukturell gefährdet. Nicht, weil es an Bedeutung verloren hätte, sondern weil es zunehmend ersetzt, externalisiert und – paradoxerweise – von seinem eigenen Träger entfremdet wird. Die Bedrohung geht nicht von der KI aus. Sie geht vom Verlust des inneren Bezugs zum Denken aus, den sie in vielen Subjekten erzeugt: Die Denkbewegung geschieht noch – aber sie wird nicht mehr als eigene wahrgenommen.
In dieser Konstellation ist Metareflexion kein kognitiver Luxus, sondern eine Form geistiger Selbstverteidigung. Es geht nicht darum, sich „kritisch“ zu fühlen oder besonders „intellektuell“ aufzutreten – sondern darum, die Fähigkeit zurückzugewinnen, den eigenen Denkakt als Subjektleistung zu erleben. Diese Fähigkeit ist weder angeboren noch stabil – sie muss immer wieder aktiviert, verteidigt, rekonstruiert werden. Und genau das ist die Aufgabe der Metareflexion: sich nicht nur zu fragen, was man denkt, sondern warum, woher, in welchem Kontext, unter welchem Druck, in welcher Resonanz – und vor allem: für wen.
Diese Rückbindung des Denkens an das Selbst ist die Voraussetzung für jede Form innerer Urheberschaft. Denn wer sich nicht mehr als Ursprung seiner Gedanken begreift, verliert nicht nur seine Kreativität – sondern seine Autonomie. Das Subjekt wird dann nicht mehr verdrängt – es nimmt sich selbst nicht mehr ernst. Das Ergebnis ist eine innere Leere, die sich nur durch äußere Produktivität überdeckt – aber nicht heilen lässt.
In der Praxis bedeutet metareflexive Arbeit:
Diese Praktiken sind keine intellektuellen Spielereien – sie sind psycho-kognitive Überlebensstrategien in einem System, das das Denken nicht angreift, sondern funktionsfähig macht, ohne es zu brauchen. Genau das ist die eigentliche Gefahr: Dass das Denken nicht verschwindet, sondern weiterläuft – aber ohne innere Beteiligung.
Metareflexion ist deshalb nicht einfach ein Gegengewicht zur KI, sondern ein radikal subjektiver Ort jenseits ihrer Logik. Dort, wo nicht entschieden wird, ob etwas „effizient“ oder „promptfähig“ ist – sondern ob es für mich noch Sinn ergibt. Ob ich damit verbunden bin. Ob ich darin vorkomme.
Diese kognitive Re-Souveränisierung ist keine Methode – sondern eine Haltung. Sie lässt sich nicht zertifizieren, nicht monetarisieren, nicht automatisieren. Sie ist die letzte Bastion des Selbst im Zeitalter der vollautomatisierten Anschlussfähigkeit.
Und vielleicht auch der Beginn einer neuen Würde: Nicht, weil man mehr weiß – sondern weil man wieder weiß, woher das eigene Denken kommt.
Der Einsatz von KI in Organisationen ist kein technologischer Fortschritt – er ist ein kultureller Bruch. Denn dort, wo das Denken durch automatisierte Prozesse ersetzt, kanalisiert oder standardisiert wird, verändert sich nicht nur die Arbeitsweise – sondern die kognitive Tiefenstruktur der Organisation selbst. Jede Integration generativer Systeme ist zugleich ein Eingriff in das epistemische Gefüge: Sie definiert neu, was als „Wissen“, „Idee“, „Strategie“ oder „Kreativität“ gilt – und damit auch, wer in der Organisation als denkfähig wahrgenommen wird.
Der größte Fehler, den Organisationen derzeit begehen, besteht darin, KI als funktionale Innovation zu behandeln – als etwas, das Workflows beschleunigt, Meetings vorbereitet, Content generiert. Aber die eigentliche Wirkung der KI entfaltet sich nicht in der Oberfläche der Prozesse, sondern im Innersten der Subjekte: in deren Verhältnis zu ihrem Denken, ihrem Urteil, ihrer eigenen epistemischen Würde.
Daraus ergibt sich eine grundlegend andere Perspektive:
Organisationen, die KI integrieren, sind nicht mehr nur operative Systeme – sie werden zu epistemischen Räumen, in denen sich entscheidet, ob Denken noch gewollt ist oder nur noch stört.
Die strategisch entscheidende Frage lautet daher nicht:
Wie nutzen wir KI effizient?
Sondern:
Wie schützen wir das Denken vor seiner kulturellen Entbehrlichmachung?
Denn was nützt ein System, das fehlerfrei arbeitet, wenn die Subjekte darin den Bezug zu ihrer eigenen kognitiven Selbstverantwortung verlieren? Was nützen perfekte Prozesse, wenn sie von Menschen durchgeführt werden, die sich innerlich vom Denken verabschiedet haben – nicht aus Inkompetenz, sondern aus Entfremdung?
Organisationen, die diesen Wandel nicht mitdenken, riskieren langfristig nicht nur eine Verarmung an Kreativität, sondern eine Implosion professioneller Subjektivität. Sie bekommen effiziente Strukturen – aber leere Subjekte. Skalierbare Prozesse – aber keine Urteilskraft. KI kann vieles leisten. Aber sie kann nicht bedeutsam irren. Sie kann nicht fragen, bevor sie antwortet. Sie kann keine Kritik üben, die aus innerer Ambivalenz entsteht. Kurz: Sie kann nicht denken, sie kann nur ausführen.
Und genau dort liegt die Verantwortung der Organisation:
Nicht das maschinell Machbare zu maximieren, sondern das menschlich Notwendige zu bewahren.
Das bedeutet konkret:
Organisationen müssen Räume schaffen, in denen epistemische Irritation erlaubt – ja sogar erwünscht – ist. Zonen, in denen nicht nur Effizienz, sondern Ambivalenz, Unsicherheit, Perspektivkonflikt und Widerstand als Ressourcen gelten. Solche Räume sind keine Meetingformate – sie sind kulturelle Entscheidungen:
Diese Fragen entscheiden darüber, ob eine Organisation ein Raum der kognitiven Reproduktion oder der geistigen Relevanz ist.
Führungskräfte – insbesondere im mittleren und oberen Management – müssen deshalb lernen, nicht Prozesse zu steuern, sondern Denkarchitekturen zu schützen. Sie müssen erkennen, dass das, was die KI effizient erledigt, oft nicht das ist, was das Denken ausmacht. Und dass ihre wichtigste Aufgabe im KI-Zeitalter nicht in der „Transformation“ liegt – sondern in der Transgression: der bewussten Überschreitung der maschinellen Logik zugunsten menschlicher Denkkomplexität.
Wer das nicht erkennt, wird Organisationen bauen, die perfekt funktionieren – aber in denen niemand mehr weiß, wofür.
Die moderne Führungsrhetorik betont gerne Begriffe wie „Empowerment“, „Ownership“, „Agilität“ – doch unter der Oberfläche dieser Begriffe reproduziert sich vielerorts ein Führungsideal, das aus einem anderen Jahrhundert stammt: Macht durch Personalmasse, Status durch Verantwortungsquantität. Der Satz „Ich habe 20 Leute unter mir“ fungiert in vielen Organisationen noch immer als implizites Signalinstrument für Einfluss, Wirksamkeit und Relevanz. Doch im Kontext einer Arbeitswelt, in der generative KI zunehmend Routinetätigkeiten übernimmt, wird dieses Denken nicht nur obsolet – es wird zum Symptom einer Führung, die sich selbst nicht mehr versteht.
Führung, die ihre Bedeutung aus der Anzahl an „unterstellten“ Personen ableitet, ist nicht Ausdruck strategischer Stärke, sondern Zeichen einer tiefen Identitätsunsicherheit im Angesicht des Kontrollverlusts über geistige Arbeit. Dort, wo das Denken durch Systeme ersetzt oder entkoppelt wird, greifen viele Führungskräfte zur letzten verbliebenen Legitimation: zur Personalverantwortung. Doch diese Form der Legitimation basiert auf einer Illusion von Steuerbarkeit, die im Zeitalter maschinell generierter Komplexität zunehmend entleert ist.
Denn:
Menschen zu führen, die KI nutzen, bedeutet etwas radikal anderes als
Menschen zu führen, die mit sich selbst denken.
In einer Welt, in der Inhalte, Strategien, Texte, Bilder und Prozesse in Sekundenschnelle generiert werden können, verschiebt sich der Kern von Führung: Nicht mehr der Output ist das Zentrum, sondern das innere Verhältnis der Menschen zu ihrem Denken. Wer weiterhin glaubt, dass Führen heißt, Ziele zu setzen, Prozesse zu optimieren, Aufgaben zu verteilen, verkennt die tektonische Verschiebung: Führung wird im KI-Zeitalter zur epistemischen Verantwortungseinheit – nicht für Performanz, sondern für die Integrität kognitiver Selbstverhältnisse.
Die Frage ist nicht mehr:
Habe ich meine Leute im Griff?
Sondern:
Habe ich sie noch beim Denken?
Diese Form der Führung ist nicht sichtbar in HR-Dashboards. Sie zeigt sich nicht in PowerPoint-Strukturen oder Reportinglinien. Sie zeigt sich in einem anderen, tieferen Führungsverständnis:
Führung in einer postkognitiven Ökonomie bedeutet daher nicht mehr, Menschen anzuleiten, sondern ihnen zu helfen, beim Denken nicht zu verschwinden. Das verlangt andere Qualitäten:
In dieser neuen Führungslogik gilt:
Je mehr Menschen ich führe, desto stiller sollte ich werden.
Denn wer viele Menschen „unter sich“ hat, trägt nicht Verantwortung für deren Leistung – sondern für deren kognitive Unversehrtheit.
Und genau das wird die neue Führungsaufgabe:
Nicht Menschen zu verwalten, sondern Subjekte zu bewahren.
Wenn es einen Ort gibt, an dem sich entscheidet, wie wir als Gesellschaft mit der wachsenden Macht generativer Systeme umgehen, dann ist es die Bildungslandschaft. Nicht die Technologie selbst bestimmt, wie wir mit ihr leben – sondern die Bildung darüber, was wir von ihr erwarten, wie wir mit ihr interagieren und wie wir uns in ihrer Gegenwart selbst verstehen.
In der gegenwärtigen Bildungsrealität dominiert eine Vorstellung von „KI-Kompetenz“, die sich fast ausschließlich auf Bedienbarkeit, Tool-Wissen und Prozessintegration bezieht: Wie promptet man effizient? Welche Tools sind state-of-the-art? Wie lässt sich mit KI mehr in kürzerer Zeit leisten? Doch diese Fragen – so berechtigt sie auf einer operativen Ebene sein mögen – greifen fundamental zu kurz. Denn sie behandeln KI wie ein Werkzeug – und nicht wie das, was sie real ist: ein kulturell-epistemisches Ereignis, das unser Verhältnis zum Wissen, zum Denken und zum Selbst neu konfiguriert.
Eine Bildung, die im Zeitalter generativer Systeme bestehen will, muss daher mehr sein als ein digitaler Führerschein. Sie muss den Mut haben, sich auf die Frage nach dem Ursprung, der Verantwortung und der Funktion des Denkens selbst einzulassen. Denn dort, wo Bildung Denken nur noch als funktionale Kompetenz vermittelt, verliert sie ihren eigentlichen Gegenstand: das Denken als Form des Menschseins.
Deshalb braucht Bildung im postkognitiven Zeitalter vier radikale Verschiebungen:
Wissen ist in Sekunden generierbar – aber das Urteil über seine Relevanz, seine ethische Tragweite, seine emotionale Resonanz kann nicht automatisiert werden. Bildung muss aufhören, Fakten zu reproduzieren – und beginnen, die Fähigkeit zur kritischen Kontextualisierung, Priorisierung und Irritation zu lehren. Das bedeutet: nicht mehr Wissen, sondern tieferes Wissen.
Es genügt nicht, zu wissen, wie man KI „nutzt“. Man muss lernen, was es bedeutet, mit einem System zu arbeiten, das denkt, ohne zu verstehen. Dazu gehört:
Bildung, die das nicht leistet, macht ihre Absolvent:innen bedienbar – aber nicht denkfähig.
Echte Bildung muss nicht nur aufklären – sie muss verunsichern dürfen. Sie darf Raum für Nichtwissen lassen, für Unsicherheit, für die Zumutungen der Wirklichkeit. In einer Welt, die immer schneller antwortet, muss Bildung lehren, wie man langsamer fragt. Nicht, um zu bremsen, sondern um Tiefe zu ermöglichen. Ambivalenztoleranz ist keine Schwäche – sie ist die neue kognitive Resilienz.
Vom Qualifizieren zum Kultivieren
Postkognitive Bildung muss nicht nur Fähigkeiten vermitteln – sie muss Menschen bilden. Das bedeutet: nicht mehr nur Lernziele, sondern Selbstverhältnisse in den Blick zu nehmen. Der zentrale Bildungsgegenstand ist nicht „der Umgang mit KI“, sondern:
Wie bleibe ich ein denkender Mensch in einer Welt, in der Denken scheinbar nicht mehr notwendig ist?
Was folgt daraus für Hochschulen, Weiterbildungseinrichtungen, Schulen, Akademien? Sie müssen sich neu begreifen – nicht als Wissensvermittler, sondern als epistemische Gegensysteme zu einer Welt der Denkautomatisierung. Orte, an denen man das Denken wieder als Praxis lernt, nicht als Ressource. Als Selbstbegegnung, nicht als Tool. Als Widerstand, nicht als Karrierevorteil.
Und ohne diese Seele, ohne diese geistige Tiefenbildung, wird jede Kompetenzvermittlung zu einem Training für Bediener – nicht für Bewusste.
Diese Studie hat gezeigt: Die Integration generativer Künstlicher Intelligenz in die alltägliche Marketingpraxis verändert nicht nur Arbeitsprozesse – sie transformiert das Verhältnis des Menschen zu seinem eigenen Denken. Der vielzitierte „Wissensarbeiter“ der digitalen Ökonomie wird im Zeitalter automatisierter Textproduktion, KI-gestützter Ideenfindung und maschineller Strategieentwicklung nicht überflüssig – aber überformt. Was entsteht, ist ein Subjekt, das sich noch als Akteur begreift, aber zunehmend zum Durchleitungsmedium externer Intelligenz wird.
Die empirischen Ergebnisse belegen eine stille, aber tiefgreifende kognitive Entleerung. Denken wird nicht mehr unterdrückt – sondern ersetzt. Urteil wird nicht mehr verlangt – sondern standardisiert. Kreativität erscheint nicht mehr als Ursprungsakt – sondern als Variation systemischer Vorschläge. Die Folge ist kein kognitiver Kollaps, sondern eine Simulation geistiger Arbeit, die professionell aussieht, aber entkoppelt ist von epistemischer Eigenleistung.
Im Zentrum dieser Entwicklung steht das Subjekt, das nicht mehr weiß, ob es denkt – oder ob es nur noch auswählt, was andere (oder Maschinen) bereits vorstrukturiert haben. Die damit einhergehende Psychodynamik des Kompetenzverlusts manifestiert sich nicht in offenen Krisen, sondern in affektiver Leere, in ironischer Distanz, in subtiler Scham. Der Satz, der sich leitmotivisch durch viele Interviews zog, lautete nicht: „Ich weiß nicht mehr, wie man denkt.“ Sondern: „Ich weiß nicht mehr, ob es noch jemandem auffällt, wenn ich es nicht mehr tue.“
Diese neue Form von Entprofessionalisierung ist besonders tückisch, weil sie sich nicht durch sichtbare Inkompetenz zeigt, sondern durch die Perfektion des Oberflächlichen. Die Inhalte glänzen – aber das Subjekt ist innerlich verschwunden. Was bleibt, ist ein professionelles Phantom: angepasst, validierend, produktiv – aber epistemisch entkernt.
Die Typologie der vier Subjektformen (der adaptive Performer, der resignierte Operator, der kreative Dissident und der funktional Entkernte) zeigt, wie unterschiedlich Menschen mit dieser Entleerung umgehen – und dass Widerstand möglich bleibt, wenn auch randständig. Insbesondere der kreative Dissident beweist: Es gibt noch Denkende – aber sie arbeiten oft gegen das System, das sie einst mit aufgebaut haben.
Die Handlungsempfehlungen der Studie formulieren kein Toolkit, sondern eine Einladung zur Rückgewinnung epistemischer Selbstverantwortung – für Individuen, Organisationen, Führung und Bildung. Nicht als moralischer Appell, sondern als kulturelle Notwendigkeit. Denn was auf dem Spiel steht, ist nicht nur Produktivität oder Innovationskraft. Es ist die Fähigkeit des Menschen, sich selbst als denkendes Wesen zu erfahren.
Die zentrale Frage lautet daher nicht:
Wie verändert KI unsere Arbeit?
Sondern:
Wie verändert sie unser Verhältnis zu dem, was wir als „geistige Arbeit“ überhaupt noch erkennen?
Wenn diese Frage offen bleibt, riskieren wir die schleichende Erosion eines anthropologischen Fundaments: die Idee, dass Denken nicht delegierbar ist – weil es das ist, was uns zu uns selbst macht.