KI in Entscheidungen und Aufgabenausführung
Wie künstliche Intelligenz Informationsmacht, Motivation, Führung, Zusammenarbeit, Konflikt und Verhandlung in Organisationen neu verteilt – eine evidenzbasierte Analyse.
Executive Summary lesen
Executive Summary
Der robusteste Gesamtbefund der neueren Literatur lautet: KI verbessert oder verschlechtert organisationale Konstrukte nicht einheitlich – sie verteilt Informationsasymmetrien, Entscheidungsrechte, Transparenzgrade und Interaktionsmuster neu. Genau dadurch verändern sich Macht, Motivation, Führung, Zusammenarbeit, Konflikt und Verhandlung.
Informationsmacht
KI demokratisiert Datenzugang – oder konzentriert Macht dort, wo Modelllogik und Schwellenwerte nur wenigen zugänglich sind.
Motivation
Entlastung von Routinen wirkt positiv; Überwachung, Deskilling und Verantwortung ohne Kontrolle wirken negativ.
Führung
Von personeller Steuerung zur sozio-technischen Orchestrierung: Führung wird stärker zu Design und Governance.
Zusammenarbeit
Human-AI erzeugt im Mittel Augmentation, aber keine Synergie gegenüber dem jeweils besten Einzelsystem.

Die zentrale Managementfrage lautet nicht „ob KI", sondern: Wie viel Automatisierung, wie viel Mitwirkung, für welche Aufgabe, mit welcher Eskalationsarchitektur?
Analytischer Rahmen: Wie KI auf Organisationen wirkt
KI-Merkmale wirken nicht direkt auf organisationale Konstrukte. Sie wirken zunächst über Mediatoren wie Fairnesswahrnehmung, Vertrauen und psychologische Sicherheit – erst daraus entstehen messbare Veränderungen.
Moderatoren wie Aufgabentyp, Risikohöhe, Regulierungsdichte und institutioneller Kontext bestimmen, ob KI-Effekte positiv oder negativ ausfallen.
Sechs KI-Modi und ihre organisationalen Primäreffekte
1
Entscheidungsunterstützung
Empfehlungen, Scores, Prognosen – erhöht Informationsverfügbarkeit; oft akzeptabler als Vollautomation.
2
Automation
Vollständige Ersetzung menschlicher Schritte – senkt Prozessvarianz, gefährdet bei hohen Stakes Fairness und Anfechtbarkeit.
3
Predictive Analytics
Forecasting, Risikoprofile, People Analytics – stärkt vorausschauende Steuerung, verschiebt Macht zu Modellhalter:innen.
4
Recommender-Systeme
Aufgaben- und Handlungsreihungen – beeinflusst Agenda-Setting; kann als manipulative Steuerung wahrgenommen werden.
5
Generative KI
Text, Code, Ideen – wirkt als kognitiver Wissensbroker; verändert Rollen in Teams und Führungsroutinen grundlegend.
6
Autonome Agenten
Selbständige Aushandlung und Ausführung – skaliert Routineentscheidungen, erhöht Mandats- und Haftungsprobleme.
Informationsmacht: Wer sieht, wer interpretiert, wer bestreitet?
Machtverschiebung nach oben
60 % der Manager:innen (OECD) wahrnehmen algorithmisches Management als Qualitätsverbesserung ihrer Entscheidungen – getrieben durch mehr verfügbare Information und höhere Geschwindigkeit.
Wer Dashboards, Modelle und Schwellenwerte kontrolliert, gewinnt strukturell Informationsmacht.
Operative Unsicherheit nach unten
In Studien zu Fahr- und Lieferplattformen beschreiben Beschäftigte undurchschaubare Algorithmen, die Arbeit zuweisen, Leistung bewerten und Sanktionen auslösen.
Die Reaktion: Guessing, Gaming, Widerstand und kollektives Sensemaking – bis hin zu „algorithmic despotism".

Die deutschen Datenschutzbehörden betonen: Viele KI-Anwendungen erfordern verständliche Informationen über involvierte Logik, Tragweite und Auswirkungen – das begrenzt das Informationsmonopol der Systembetreiber.
Motivation: Das Paradox algorithmischer Kontrolle
KI-Systeme wirken motivational doppelseitig – dasselbe System kann sowohl engagierende als auch auszehrende Effekte erzeugen. Die Selbstbestimmungstheorie erklärt dies über die drei Grundbedürfnisse Autonomie, Kompetenz und soziale Eingebundenheit.
✓ Positive Pfade
  • Routineentlastung stärkt Sinnkonstruktion
  • Informationsverfügbarkeit erhöht Kompetenzgefühl
  • Algorithmische Kontrolle wirkt positiv auf Work Engagement, wenn als orientierend erlebt (N = 392, China)
  • Generative KI erzeugt positivere Emotionen (N = 776, Feldexperiment)
✗ Negative Pfade
  • Deskilling und Verantwortung ohne Kontrolle belasten
  • Lückenlose Überwachung beschneidet Autonomie
  • Algorithmisches Management erhöht Burnout (KMU-Studie, N = 2.450, Istanbul)
  • Person-Job-Fit puffert negative Effekte – ist aber nicht immer gewährleistet
Führung: Von personeller Steuerung zu sozio-technischer Orchestrierung
Decision-Rights Design
Wer entscheidet was, wann und mit welcher Begründung? Führung wird zum Architektur-Prozess von Entscheidungsrechten und Eskalationswegen.
Relationale Kompensation
Je mehr ein System standardisiert, desto wichtiger wird menschliches Caring, Konfliktbearbeitung und Sinnvermittlung.
Accountability Orchestration
Wenn Entscheidungsvorbereitung und Umsetzung technisch verteilt sind, muss Verantwortlichkeit explizit designt werden.

Die HRM-Meta-Analyse (73 Studien, N = 24.578) zeigt: Vollautomation in Personalentscheidungen ist im Schnitt negativer als augmentative Nutzung – Fairness, Vertrauen und organisationale Attraktivität leiden messbar.
Zusammenarbeit: Augmentation ja – Synergie nein
Die bisher belastbarste Meta-Analyse (Nature Human Behaviour, 106 Experimente, 370 Effektstärken) quantifiziert zwei klar unterschiedliche Vergleichsbasen.
Was das bedeutet
Human-AI-Kombinationen sind besser als Menschen allein (g = 0,64), aber nicht besser als das jeweils stärkste Einzelsystem (g = −0,23).
Kollaboration ist besonders stark bei kreativen und content-basierten Aufgaben; bei reinen Entscheidungsaufgaben misslingt das Zusammenspiel häufig.
„The Cybernetic Teammate": Generative KI als Teamersatz?
Befund aus dem Feldexperiment
Bei 776 Professionals in einem globalen Konsumgüterunternehmen erreichten Einzelpersonen mit generativer KI das Leistungsniveau von Teams ohne KI. KI produzierte balanciertere Vorschläge über funktionale Silogrenzen hinweg und erzeugte positivere Emotionen.

KI kann teamähnliche Funktionen partiell substituieren: Ideengenerierung, Wissensbrücken und Formulierung – besonders in Wissensarbeit.
Der Vertrauens-Engpass
Gegenüber KI-Teammitgliedern zeigt sich niedrigeres affektives Vertrauen und geringere wahrgenommene Vertrauenswürdigkeit – kognitives Vertrauen und beobachtetes Vertrauensverhalten unterscheiden sich jedoch nicht signifikant.
Neuere Arbeiten sprechen von „commitment deficits" als zentraler Ursache für Underperformance in Human-AI-Teams.
Konflikt: Das Transparenz-Widerstands-Paradox
KI senkt Task Conflict
Gemeinsame Datenbasen, Standardisierung und schnellere Optionengenerierung reduzieren Streit über Fakten und Reihenfolgen.
KI verstärkt Prozess- und Legitimationskonflikte
Wenn Zuteilung, Bewertung oder Sanktion als intransparent und nicht anfechtbar erlebt werden, steigt Widerstand – bis hin zu Gaming und Umgehungsstrategien.
Kurvilinearer Transparenzeffekt
Ein gewisses Maß an Transparenz senkt Widerstand; jenseits eines Schwellenwerts kann mehr Transparenz Fairness wieder senken. Proportionale, handlungsrelevante Transparenz wirkt besser als maximale.
Voice als Konfliktprävention
Bereits die Möglichkeit, die eigene Sicht einzubringen, erhöht Fairnesswahrnehmung, Vertrauen und Zufriedenheit (N = 138, Experiment). Voice ist kein „nice to have" – es ist Konfliktvermeidung.
Verhandlung: Ökonomischer Gewinn vs. Beziehungswert
KI verändert Verhandlungen auf drei Ebenen – vor, während und anstelle von Menschen. Die jüngste Evidenz aus Buyer-Supplier-Kontexten zeigt einen klaren Trade-off.
Kompetitives Prompting
Besser Preisnachlässe, günstigere Zahlungsziele, schnellere Abschlüsse. Menschliche Supplier spiegeln die aggressive Tonalität – Verhandlung wird interaktional ansteckend.
Kollaboratives Prompting
Mehr Vertrauen, höhere Zufriedenheit, stärkere Bereitschaft zur künftigen Zusammenarbeit. Geringere ökonomische Kurzzeitergebnisse, aber höherer Beziehungswert.

Für strategische Partnerbeziehungen, komplexe Trade-offs und hohe Reputationsrisiken bleibt menschliche Steuerung entscheidend. Für standardisierte Routineverhandlungen ist der Automatisierungsspielraum deutlich größer.
Meta-analytische Evidenz: Reaktionen auf ADM im HRM
Die Meta-Analyse zu algorithmischen Entscheidungen im HRM (73 Studien, 365 Effektstärken, N = 24.578) zeigt konsistent negative gewichtete Korrelationen gegenüber menschlichen Entscheidungen.
Interpretation
Negative Werte bedeuten: Algorithmische statt menschlicher Entscheidung wird im Mittel negativer wahrgenommen. Vollautomation ist dabei schlechter als augmentative Nutzung.

„Objektivere" Systeme werden nicht automatisch als legitimer erlebt. Legitimität bleibt sozial produziert.
Vergleich zentraler Studien auf einen Blick
KI-Merkmale und ihre wahrscheinlichen Wirkungen
Legende: ↑ tendenziell verstärkend · ↓ tendenziell schwächend · ± stark kontextabhängig
Governance, Ethik und Recht
EU AI Act: High-Risk-Klassifikation
KI-Systeme im Beschäftigungsbereich gelten als high-risk – für Rekrutierung, Arbeitsverhältnisse, Aufgabenallokation und Monitoring. Genau jene Anwendungen, die Informationsmacht und Motivation am stärksten beeinflussen.
DSGVO Art. 22: Schutz vor Vollautomation
Betroffene haben das Recht, nicht ausschließlich automatisierten Entscheidungen mit rechtlicher Wirkung unterworfen zu werden. Art. 13/14/15 verlangen verständliche Informationen über Logik, Tragweite und Auswirkungen.
BetrVG: Mitbestimmungsrechte als Machtkanal
§ 87 (Überwachungseinrichtungen), § 90 (KI-Nutzung in Arbeitsverfahren), § 95 Abs. 2a (Auswahlrichtlinien mit KI) und §§ 96–97 (Qualifizierung) geben dem Betriebsrat substantielle Gestaltungsrechte – nicht nur Schutzrechte.
Acht Elemente einer belastbaren Governance-Architektur
01
Klare Entscheidungsrechte
Wer entscheidet was, mit welcher Begründung?
02
Human-in-the-Loop / Human-on-the-Loop
Risikoadäquat gestaltete Eingriffsmöglichkeiten je nach Stake-Höhe.
03
Proportionale Transparenz
Handlungsrelevante, nicht maximale Erklärbarkeit.
04
Voice- und Appeal-Prozesse
Institutionalisierte Möglichkeit, Entscheidungen anzufechten.
05
Impact Assessments
Fairness, Gesundheit und Datenschutz systematisch vor Rollout prüfen.
06
Rollen- und Kompetenzaufbau
Datenkompetenz auf allen Ebenen sicherstellen.
07
Laufende Audits und Monitoring
Kontinuierliche Überprüfung der Systemwirkungen.
08
Dokumentierte Eskalations- und Haftungswege
Besonders bei autonomen Agenten in Verhandlungen und Personalprozessen.
Praktische Implikationen für Management und HR
Aufgabenbezogene Einführung
Die wichtigste Unterscheidung: Augmentation vs. Automation, kognitiv vs. emotional, niedriger vs. hoher Stake – nicht GenAI vs. Predictive AI.
Informationsmacht explizit designen
Wer sieht Scores, Entscheidungsregeln, Konfidenzen? Wer darf Schwellenwerte ändern? Ohne klare Regeln entsteht strukturelle Asymmetrie zulasten von Beschäftigten und Betriebsrat.
Motivation als Gestaltungsziel
Work Engagement, Empowerment, Burnout und psychologische Sicherheit sind kausale Vermittler des KI-Erfolgs – keine weichen Begleitvariablen.
Co-Management-Modell
Standardisierung darf technische Entscheidungen effizient machen. Legitimität bleibt aber sozial produziert – durch Erklärung, Fürsorge und Widerspruchsmöglichkeit.
Teams neu designen
KI verschiebt komparative Vorteile von Teams: weniger Informationsaggregation, mehr Urteilskraft, Commitment, Konfliktbearbeitung und strategische Priorisierung.
Stufenweiser Verhandlungseinsatz
KI als Backstage-Coach und Mediator für Routineverhandlungen – bei strategischen Beziehungen nur mit engem Mandat, Log-Führung und Nachverhandelbarkeit.
Forschungsagenda: Zehn prioritäre Lücken
1
Informationsmacht jenseits von Gig Work
Wie verändern LLM-Assistenten und People Analytics die Machtverhältnisse zwischen Linie, HR, IT und Betriebsrat?
2
Langfristige Motivationsdynamiken
Stabilisieren Entlastungseffekte von KI langfristig – oder kippen sie in Deskilling und Verantwortungsstress?
3
Hybrid Leadership Designs
Welche Kombination aus algorithmischer Empfehlung, Human Override und Caring maximiert Leistung und Legitimität?
4
Team-Commitment in Human-AI-Teams
Entsteht Underperformance aus Misstrauen, Rollenkonflikt oder fehlendem moralischen Commitment gegenüber KI-Teammitgliedern?
5
Konfliktformen in wissensintensiver Arbeit
Wie ändern sich Task-, Process- und Relationship-Conflict in Büro- und Professional-Service-Teams mit GenAI?
1
Verhandlungen mit relationalem Kapital
Wie wirken KI-Verhandler auf Vertrauen und spätere Kooperationsbereitschaft in langfristigen Lieferbeziehungen?
2
Rechtswirksamkeit von Voice und Appeals
Welche Appeal-Architekturen reduzieren Konflikte tatsächlich – und welche sind nur symbolische Mitwirkung?
3
Branchenspezifische Unterschiede
Unterscheiden sich Kausalpfade in Verwaltung, Gesundheit, Industrie und öffentlichem Sektor systematisch?
4
DACH-Mitbestimmung und KI-Akzeptanz
Wie beeinflussen Mitbestimmung und Datenschutz-Governance die Akzeptanz und Effektivität von KI-Einführungen in Deutschland und Österreich?
5
Autonome Agenten in internen Prozessen
Welche Aufgaben lassen sich verantwortlich an agentische Systeme delegieren, ohne Accountability-Lücken zu erzeugen?
Grenzen des Evidenzstands
Gut untersucht
  • Gig Work und Plattformarbeit
  • HR-ADM und Fairnessreaktionen
  • Vertrauen in KI-Systeme
  • Algorithmisches Management
  • Generative KI in Wissensarbeit
Untererforscht
  • Klassische Linienorganisationen außerhalb von Plattformen
  • Öffentlicher Sektor und hochregulierte Branchen
  • KMU in Europa und DACH-spezifische Kontexte
  • Langfristwirkungen auf Karriereverläufe
  • Mitbestimmte Governance-Pfade
  • Innerbetriebliche Machtbalancen im Zeitverlauf

Mehrere neuere Studien liegen als Working Papers vor – ihre Ergebnisse sind wertvoll, aber noch nicht durchgehend repliziert. Branche, Unternehmensgröße, KI-Reifegrad und institutioneller Kontext bleiben zentrale Moderatoren, die in vielen Primärstudien unspezifiziert bleiben.
Schlussfolgerung: KI als organisationale Designfrage
KI verändert nicht nur Arbeitsergebnisse, sondern die Verfassung organisationaler Beziehungen. Ob diese Verschiebung produktiv oder dysfunktional ausfällt, hängt weniger von „der KI" ab als von Automationsgrad, Transparenzmaß, Partizipation und institutioneller Governance.
Nicht IT-Einführung
KI ist eine organisationale Designfrage. HR und Management tragen die Verantwortung für menschenzentrierte Gestaltung.
Verteilung entscheidet
Die Schlüsselvariablen sind: Wer ist informiert, wer motiviert, wer führt, wie wird kooperiert, wo entstehen Konflikte, wie wird verhandelt.
Ziel: Leistung + gute Arbeit
Technische Effizienz und soziale Stabilität sind keine Gegensätze – wenn Automationsgrad, Transparenz, Partizipation und Governance bewusst gestaltet werden.