Zum Hauptmenü

Wie führen, wenn ein Teil des Teams nicht mehr führbar ist?

Teams der Zukunft bestehen aus Menschen und KI-Agenten. Letztere sind bekannt dafür, besserwisserisch und unführbar zu sein.

Ein gravierendes Business-Problem

Tom leitet die Besprechung in seiner Abteilung diesmal selbst. Das Thema ist zu wichtig. Einer der wichtigsten Kunden des Industrieausrüsters hat eine massiver Beschwerde an die CEO direkt geschrieben. Das muss geklärt werden. In zwei Stunden möchte Marie einen Vorgehenvorschlag sehen.

Nicola berichtet mit verzweifelter Stimme, dass sie sich nach bestem Wissen und Gewissen abgesichert hatte, bevor sie den fehlerhaften Auftrag an den Vorortservice ausgelöst hat. Sie hat sogar eine intensive Sitzung mit Collab Operaitor geführt, dem zentralen agentischen System für operative Entscheidungen. Der Auftrag wurde dadurch präziser und im wesentlichen bestätigt.

Also ist ein weitere Spieler beteiligt. Tom beschließt, Collab Operaitor aktiv einzubinden und lädt das System in die Konferenz ein. Nach kurzer Schilderung der Situation und noch viel kürzerer Denkzeit – der Monitor zeigt 26 Sekunden – antwortet das System: „Nach eingehender Analyse komme ich zu dem Schluss, dass der von Nicola und mir entwickelte Auftrag vollkommen korrekt ist. Er entspricht exakt den Parametern des Auftrags von vor 6 Monaten und wird über das Upgrade der Maschine den Kunden in die Lage versetzen, um 13,2% produktiver zu arbeiten als zuvor. Mein Vorschlag für ein Vorgehen: Ein aufklärendes Gespräch mit dem Kunden.“

Alle Personen im Raum schütteln den Kopf. Da hat das System einen wichtigen Faktor übersehen, der – zugegeben – auch dem Team vor der Beschwerde nicht bewusst war.

Mensch-KI-Teams führen zu müssen, kommt schleichend, aber wir sollten uns jetzt schon intensiv darauf vorbereiten.

Im letzten Beitrag haben wir uns intensiv mit den Veränderungen befasst, die durch HAITs (Human-AI-Teams) entstehen und dazu die aktuelle Forschungslage durchforstete.

In diesem Artikel dehnen wir den Blick aus auf die Folgen die für die Führung von hybriden Teams entstehen und werden auch hier wieder schauen, was die Forschung dazu sagt.

1. Führung von multimodalen Human-AI-Teams (HAITs)

Wenn das Team aus Menschen und Maschinen besteht

Führung war immer ein menschliches Phänomen: Das Center for Creative Leadership definiert Leadership als „sozialen Prozess, der es Individuen ermöglicht, gemeinsam Ergebnisse zu erzielen, die sie allein niemals erreichen könnten.” Daran ändert sich nichts, wenn KI-Agenten mitspielen. Aber die Bedingungen, unter denen dieser soziale Prozess stattfindet, verändern sich fundamental.

Eine Metaanalyse von 116 Studien aus den Jahren 2022 bis 2025 identifiziert den zentralen Balanceakt für Führungskräfte zwischen technologischer Innovation und menschenzentrierten Praktiken. Die größten Herausforderungen sind nicht technischer Natur – sie sind kulturell und psychologisch (Albannai & Raziq, 2025):

  • Vertrauensaufbau,
  • Umgang mit algorithmischer Verzerrung und
  • die Frage, wer Verantwortung trägt, wenn eine KI entschieden hat.

AI Literacy und Bilingual Leadership: Die neuen Kernkompetenzen

Vegard Kolbjørnsrud von der BI Norwegian Business School hat dafür den Begriff „Bilingual Leadership” geprägt. Führungskräfte in intelligenten Organisationen müssen „zweisprachig“ sein: Sie müssen Menschen verstehen – ihre Emotionen, Motivationen, Widerstände – und gleichzeitig technische Systeme einordnen können: Was kann der Agent, was kann er nicht, wie verlässlich sind seine Outputs, und wo liegt die Grenze seiner Urteilsfähigkeit? (Kolbjørnsrud, 2024). In der Praxis erfordert das nicht nur, die Stärken und Schwächen von Menschen und Systemen genau zu kennen, sondern auch das Design der Organisation und der Arbeit danach auszurichten.

Führung beginnt also nicht erst in der Interaktion mit bestehenden HAITs, sondern bereits vorher, wenn die Grundlagen für Arbeitsprozesse gelegt werden. Aufgabendesign, Teamdesign und Organisationsdesign werden zusätzliche Anforderungen an Führungskräfte – am besten unterstützt durch spezialisierte Profis aus HR.

Dann wird es spannend. Bilinguale Führung ist ein Führungsstil, bei dem Manager und Managerinnen sowohl über ausgeprägte soziale Kompetenzen als auch über technische Kenntnisse verfügen, wodurch sie in der Lage sind, sowohl mit menschlichen als auch mit digitalen Kollegen zu kommunizieren und diese zu verstehen.

Das klingt nach einer enormen Anforderung. Und das ist es, denn es bedeutet:

  • Wechsel von „Befehl“ zu Kontext: Anstelle der traditionellen Befehls- und Kontrollstruktur schaffen Führungskräfte einen organisatorischen Kontext und „Leitplanken“ (Werte und Entscheidungsrechte), die es Teams ermöglichen, KI-Disruptionen erfolgreich zu bewältigen.
  • Rahmenbedingungen und Zielsetzung: Führungskräfte setzen ehrgeizige Ziele und Narrative, die Maschinen nicht entwickeln können. Ihnen hilft, zusätzlich zu harten Fakten die Stimmung im Raum lesen und emotionale Reaktionen interpretieren zu können.
  • Stärkung von Urteilsvermögen und kritischem Denken: KI-generierte Mustererkennung und Vorhersagen müssen mit menschlichem ethischem Urteilsvermögen und ganzheitlichem Denken kombiniert werden, um komplexe „schwierige Entscheidungen“ zu treffen, wenn Werte miteinander in Konflikt stehen.
  • Gegenseitiges Lernen: Führungskräfte fördern Umgebungen, in denen Menschen und Maschinen sich gegenseitig schulen, um die Leistung zu verbessern.
  • Intelligente Befragung: Führungskräfte müssen wissen, wie sie KI-Systeme effektiv befragen – eher  sogar verhören – können, um deren Ergebnisse und Argumentationen zu validieren.

Das  braucht einiges an Voraussetzungen:

  • AI Literacy und technische Kenntnisse: Führungskräfte können Technologie nicht länger ignorieren oder technischen Entscheidungen delegieren. Sie müssen verstehen, was digitale Akteure leisten können und welche Probleme sie am besten lösen können.
  • Kultivierung menschlicher Stärken: Empathie, Weisheit, Vertrauensbildung und ethisches Urteilsvermögen sind von entscheidender Bedeutung, da dies Bereiche sind, in denen Menschen einen unersetzlichen Wettbewerbsvorteil gegenüber KI haben.
  • Growth Mindset: Arbeiten im Bewusstsein, gemeinsam besser werden zu können, ist notwendig, um gemeinsames, exploratives Lernen mit digitalen Akteuren zu ermöglichen.
  • Fusionsfähigkeiten: Dies sind spezifische Fähigkeiten, die dazu dienen, die Stärken von Mensch und Maschine zu kombinieren, z. B. das Wissen, wie man Arbeit effektiv zwischen menschlichen und digitalen Akteuren aufteilt.
  • Selbstreflexion: Führungskräfte müssen Zeit für Reflexion und „innere Arbeit” zum Beispiel in Form von Coaching aufwenden, um zu verstehen, was Erfolg für sie selbst und die langfristige Lebensfähigkeit ihrer Organisation bedeutet.

Die Ergebnisse von Sternfels und Kollegen zeigen: Führungskräfte, die in klassischen Tugenden exzellierten – Entscheidungsstärke, Klarheit, Richtung geben –, haben eine gute Ausgangsbasis. Denn diese Qualitäten werden nicht obsolet. Sie werden wichtiger. Weil KI zwar Daten verdichtet und Szenarien berechnet, aber nicht entscheiden kann, was wirklich zählt.

„CEOs and other C-suite leaders will not always be the smartest people in the room. As a result, traditional command-and-control approaches are likely to fall flat. It will be much more important, instead, for these leaders to create the context in which their teams can successfully navigate AI-informed process changes, role changes, and other internal and external business disruptions ”
Sternfels et al., 2025

Handlungsrahmen verbinden und binden Menschen und Systeme

Rahmenbedingungen und Zielsetzung stellen einen stärker werdenden Faktor im Führungsalltag dar. Uwe Weinreich sieht eine große Möglichkeit genau darin, die Zusammenarbeit von Menschen und KI-Systemen sinnvoll zu gestalten darin, beiden Systemen größtmögliche Freiheiten zu gewähren, ihre Arbeit selbst zu gestalten (Weinreich 2026). Damit können beide ihre ganz spezifischen Fertigkeiten bestmöglich einbringen.

Damit das Ganze in die richtige Richtung und vor allem nicht aus dem Ruder läuft, werden klare Handlungsrahmen definiert. Sie legen die Entwicklungsrichtung fest – also Ziele, messbare Erfolgskriterien, Zeiträume und dergleichen –, aber auch klare Handlungsgrenzen. Erreichen Menschen oder KI-Systeme eine solche Handlungsgrenze, sind sie aufgefordert, das weitere Vorgehen mit der Führungskraft, manchmal sogar der Unternehmensleitung abzustimmen.

Der Vorteil des Handlungsrahmenkonzepts liegt ganz klar darin, dass vergleichbare Regeln für Menschen und Maschinen gelten und Routinen für Grenzfälle definiert sind. Das ermöglicht einen weitgehend reibungsfreien Betrieb, erfordert in der Anfangsphase jedoch einige Anstrengung in der Gestaltung.

Verantwortung bleibt menschlich

Eines der wichtigsten Prinzipien im Umgang mit multimodalen Teams – und eines, das in der Führungsforschung breiten Konsens genießt lautet: Accountability bleibt beim Menschen. KI-Agenten können Entscheidungen vorbereiten, beeinflussen und ausführen. Aber die moralische und organisationale Verantwortung für Ergebnisse liegt beim Menschen.

Das darf keine Rhetorik bleiben, sondern muss eine gelebte strukturelle Notwendigkeit werden. Forschende der Universität Murcia beschreiben, wie Führungskräfte in Human-AI-Teams gezwungen sind, neue Rollen zu entwickeln: als Interpretierer algorithmischer Daten, als empathische Vermittler automatisierter Entscheidungen, als ethische Instanzen in unklaren Situationen (Zárate-Torres et al., 2025). Diese Rollen hat keine KI. Und sie sollte sie auch nicht übernehmen.

2. Was Teams und Organisationen brauchen

KI-Kompetenz als neue Basis-Kompetenz strukturell verankern

Es wurde bereits gesagt für die individuelle Ebene und gilt genauso strukturell: Ohne KI-Kompetenz geht nichts. Multimodale Teams aus Menschen und KI-Agenten funktionieren nicht von allein. Sie brauchen Bedingungen. Die erste und grundlegendste ist KI-Kompetenz (AI Literacy) – nicht im Sinne von Programmierkenntnissen, sondern von Handlungsfähigkeit im Umgang mit KI-Systemen.

Eine Studie zu „AI Literacy” in Human-KI-Teams zeigt: Teams, deren Mitglieder KI-Outputs kritisch bewerten, Grenzen benennen und Vertrauen situativ kalibrieren können, erzielen signifikant bessere Ergebnisse als Teams, die KI entweder unkritisch übernehmen oder pauschal misstrauen (Pan et al., 2025). KI-Kompetenz ist der entscheidende Moderator zwischen dem Versprechen multimodaler Teams und ihrer tatsächlichen Leistung.

Daher sollte KI-Kompetenz als Baustein in der Organisation verankert sein, als immer wiederkehrender Seminarbaustein, als Thema in Besprechungen und in der täglichen Führung.

Der Impuls, hier zu investieren ist da. 77 % der befragten Arbeitgeber im Future of Jobs Report des Weltwirtschaftsforums (2025) gaben an, bis 2030 erhebliche Investitionen in Reskilling und Upskilling zu planen – mit besonderem Fokus auf KI-Kompetenz, kritisches Denken und kollaborative Fähigkeiten. Der Bedarf ist erkannt. Die Umsetzung hinkt nach.

Gefahr der Überautomatisierung

Eine Warnung, die in der Forschungsliteratur immer wieder auftaucht, verdient besondere Aufmerksamkeit: Organisationen riskieren, Kompetenzen zu erodieren, wenn KI zu viel übernimmt. Das menschliche Gehirn lernt Neues und baut alte Strukturen, die nicht mehr benutzt werden, ab.

Ein kleiner Selbsttest:

Wie gut sind Sie selbst noch im Kopfrechnen? Versuchen wir es doch einfach mal mit einer einfachen Aufgabe:

7 * 13 = ?

Wie lange brauchen Sie dafür?

Um Basiskompetenzen zu erhalte ist es sinnvoll monatlich „Übungen ohne KI” durchzuführen, damit Teams sie erhalten und weiterentwickeln können.

Das klingt banal, ist es aber nicht. Wenn der KI-Agent morgen ausfällt, stehen wir vor leeren Händen. Organisationelle Resilienz erfordert, dass Menschen nicht nur mit KI brillieren, sondern auch ohne sie handlungsfähig bleiben.

Kontinuierliche Kalibrierung: KI ist keine Einmalimplementierung

Ein technischer Befund mit erheblichen organisationalen Konsequenzen kommt aus der Industrie-5.0-Forschung: KI-Systeme müssen nicht einmal deployt und dann vergessen werden. Sie müssen kontinuierlich ans Team angepasst werden – an veränderte Aufgaben, neue Mitglieder, andere Kontexte. Was Forschende „Late Shaping” nennen, ist in der Praxis eine dauerhafte Managementaufgabe (Krause et al., 2024).

Besonders relevant: Updates, die die KI-Performance verbessern sollen, können die Team-Performance tatsächlich verschlechtern, wenn die Menschen nicht mitgenommen werden. Das verändert die Relevanz der Zusammenarbeit von IT-Abteilungen und HR grundlegend.

KI ist nicht länger ein Tool, das man einführt und wartet. Es ist ein Teammitglied, das sich weiterentwickelt – und das aktiv geführt werden muss. Mit allen positiven wie negativen Konsequenzen.

Fassen wir zusammen. Es gibt also einige unverzichtbare Elemente, für die Organisationen sorgen müssen:

  • Kultivierung originär menschlicher Stärken – sowohl bei Führungskräften selbst als auch als Führungsaufgabe den Teams gegenüber
  • AI Literacy – tieferes Verstehen und angemessener Umgang mit KI
  • Kritisches Denken – als Sicherungsmaßnahme gegenüber allzu überzeugend wirkender, aber fehlerhafter KI-Ausgaben
  • Verantwortlichkeit – der Mensch als der letztendlich verantwortlich handelnde muss die Rolle auch zugestanden bekommen.
  • Handlungsrahmen – sie setzten die Spielfeldgrenzen für Mensch und Maschine und machen so Komplexität und Verantwortung lebbar.

3. Wie sieht die Zukunft aus?

Die „Frontier Firm” als neues Organisationsmodell

Microsoft hat in seinem Work Trend Index 2025 – basierend auf Daten von 31.000 Arbeitnehmenden in 31 Ländern – ein neues Organisationsmodell beschrieben: die „Frontier Firm”. Ihre wesentlichen Merkmale sind hybride Teams aus Menschen und Agenten, on-demand-Intelligenz statt fester Strukturen und die Fähigkeit, mit KI zu skalieren, ohne proportional Personal aufzustocken. So auch die Erwartung der Befragten: 81 % der Führungskräfte erwarten, dass KI-Agenten mittelfristig moderat bis umfassend in ihre Unternehmensabläufe integriert sein werden (Microsoft, 2025).

Wie sieht es in der Praxis aus? In einem Startup im Microsoft-Sample wurde darauf verzichtet, eine erfahrene Marketing-Person auf den CMO-Posten zu berufen. Stattdessen erhielt eine Junior-Marketingmanagerin KI-Tools, mit denen sie vollständige Kampagnen eigenverantwortlich steuerte.

Ein noch extremeres und hochaktuelles Beispiel ist OpenClaw, ein Agentensystem von enormer Tragweite, dass von einem einzigen österreichischen Entwickler (Peter Steinberger) entwickelt wurde – indem Systeme intelligent miteinander verbunden wurden und die Codierung zu einem Großteil über KI-Systeme stattfand, sogenanntes Vibe Coding. Gerade das hat auch dazu geführt, dass OpenClaw große Sicherheitslücken enthält.

All das bedeutet für Führung:

  • Auch Berufsanfänger werden in Frontier Firms faktisch vom ersten Tag an zu Managerinnen, weil sie KI-Agenten führen.
  • Das Arbeitsfeld von Mitarbeitenden wandelt sich von Team-Mitgliedern zu individuell und CEO-artig arbeitenden Menschen, die ein ganzes Arsenal von Agenten führen.
  • Das beides fordert mehr und mehr Verantwortung und Gestaltung von Ethik, Strategie, Governance und konkreten Handlungsrahmen auf oberster Ebene. Nur so kann Verantwortung tragbar bleiben.

Org-Charts werden Work-Charts

Sowohl Brian Solis als auch Uwe Weinreich beschreiben eine der radikalsten Prognosen für die Unternehmensstruktur: KI designt Organisationen – zumindest zum Teil – mit. Organisationen werden fluide. Statische Organigramme weichen dynamischen „Work-Charts” – ergebnisorientierten Teams aus Menschen und Agenten, die für spezifische Aufgaben zusammenkommen und sich danach wieder auflösen. Mitarbeitende bauen nicht mehr lineare Karrierepfade auf, sondern Portfolios von abgeschlossenen Missionen (Solis, 2025; Weinreich, 2026).

Das Weltwirtschaftsforum untermauert diese Richtung: „Die organisationale Einbettung einer agentischen Belegschaft wird den Managementhorizont erweitern – die zu erledigenden Aufgaben werden von einer hybriden Belegschaft aus Maschinen und Menschen ausgeführt, während die Führungsverantwortung für Ergebnisse, Risiken und Belohnungen beim Menschen verbleibt” (WEF, 2026).

Führen heißt (auch) die richtigen Rahmen setzen

Schauen wir noch einmal auf das Eingangsszenario und die hybride Menschen-KI-Entscheidung, die den wichtigen Kunden so verärgert hat.

Tom erinnert die versammelte Mannschaft, dass jetzt das Wichtigste ist, nicht nach Schuldigen zu suchen, sondern nach Lösungen, die im Rahmen der Werte des Unternehmens liegen. Nicola fällt ein Stein vom Herzen. Elif meldet sich zu Wort: „Ich glaube, wir sind hier auf ein Problem im Handlungsrahmen gestoßen, dass wir lösen müssen. Die menschliche Seite unserer Kunden ist in den Systemen zu wenig abgebildet oder berücksichtigt.

Große Zustimmung. Es beginnt eine kreative Diskussion darüber, wie die Definitionen überarbeitet werden können. Eine Leistung, die nur Menschen erbringen können.

Top-Führungskräfte tragen eine hohe Verantwortung. Die Komplexität der möglichen Lösungen, die aus multimodalen Teams stammen, ist so groß, dass Kontrolle nicht mehr das angemessene Verfahren für Risikominimierung ist. Ethik, Governance, Organisationsdesign, Handlungsrahmen für Menschen und Systeme und eine Investition in die Kultivierung menschlicher Kernkompetenzen und Selbstverantwortung sind essentiell.

Führung wird noch anspruchsvoller – und gerade weil sie jetzt auch technische KI-Agenten einbeziehen muss, ist es notwendiger denn je, dass Führungskräfte die Chance bekommen, ihre eigenen und die menschlichen Stärken ihres Teams zu entwickeln.

Quellenangaben und weiterführende Literatur

Albannai, N. A. A., & Raziq, M. M. (2025). Navigating ethical, human-centric leadership in AI-driven organizations: a thematic literature review. The Service Industries Journal, 1–28. https://doi.org/10.1080/02642069.2025.2534360

Kolbjørnsrud, V. (2024). Designing the Intelligent Organization: Six Principles for Human-AI Collaboration. California Management Review / SAGE. https://doi.org/10.1177/00081256231211020

Krause, F. et al. (2024). Managing human-AI collaborations within Industry 5.0 scenarios via knowledge graphs. Frontiers in Artificial Intelligence, 7. https://doi.org/10.3389/frai.2024.1247712

Microsoft (2025). 2025: The Year the Frontier Firm is Born. Work Trend Index. https://www.microsoft.com/en-us/worklab/work-trend-index/2025-the-year-the-frontier-firm-is-born

Pan Z. et al. (2025). AI literacy and trust: A multi-method study of Human-GAI team collaboration, Computers in Human Behavior: Artificial Humans, Volume 4, 2025, 100162, https://doi.org/10.1016/j.chbah.2025.100162.

Solis, B. (2025). 7 Ways AI Will Change the Future of Work by 2030. ServiceNow / briansolis.com.

Sternfels B. et al (2026). Developing human leadership in the age of AI. https://www.mckinsey.com/capabilities/strategy-and-corporate-finance/our-insights/building-leaders-in-the-age-of-ai. McKinsey & Company

Weinreich, U. (2026). Menschen. Unternehmen. KI. Zukunft gestalten in einer Wirtschaft im Umbruch. Stuttgart. Schäffer Poeschel.

World Economic Forum (2025/2026). Future of Jobs Report 2025; Future of Work Decision-Maker Perspectives. https://www.weforum.org

Zárate-Torres, R. et al. (2025). Influence of Leadership on Human–Artificial Intelligence Collaboration. https://pmc.ncbi.nlm.nih.gov/articles/PMC12292626/


© ETB - Empowerment Team Berlin