AI-Effizientere Mitarbeiter machen eine Firma nicht wertvoller

22. April 2026

1984 startete General Motors das teuerste Automatisierungsprogramm seiner Geschichte. Roboter von FANUC, Kameras, Sensorik, alles, was es gab. Maschinen rein, Menschen raus, Produktivität rauf. Es funktionierte nicht. Die Qualität wurde schlechter, die Kosten stiegen. Dreizehn Fabriken, kein messbarer Fortschritt.

Dann kam NUMMI. Ein Joint Venture zwischen GM und Toyota in einer stillgelegten GM-Fabrik in Fremont, Kalifornien. Gleiche Halle, teilweise dieselben Arbeiter, die GM zwei Jahre vorher gefeuert hatte, kein neues Equipment. Toyota brachte keine bessere Technologie mit, sondern ein anderes System. Andere Rollen, andere Entscheidungswege, andere Qualitätszyklen. Innerhalb eines Jahres produzierte NUMMI die Autos mit der höchsten Qualität im gesamten GM-Netzwerk.

Nicht die Technologie machte den Unterschied, sondern die Organisation.

Vierzig Jahre später wiederholt sich dieses Muster mit AI. George Sivulka, Gründer von Hebbia, hat die Frage gestellt, die jeder CEO beantworten müsste. AI hat jeden Einzelnen um das Zehnfache produktiver gemacht, aber keine Firma ist deshalb zehnmal wertvoller geworden. Wo ist die Produktivität hin?

Es geht nicht um produktivere Mitarbeiter. Es geht um die Architektur, in der sie arbeiten. Die Produktivität verschwindet an mehreren Stellen gleichzeitig.

Mehr Output ist nicht mehr Wert

In meinem Dealflow hat sich etwas verschoben. Vor einem Jahr kamen zwanzig Teaser pro Quartal auf den Tisch. Heute sind es fünfzig bis achtzig, jedes einzelne AI-poliert, mit sauberen Formatierungen und gut geschriebenen Marktanalysen. Die Substanz dahinter ist nicht mitgewachsen. Es dauert länger, die drei relevanten Opportunities aus dem Stapel zu ziehen, weil der Stapel besser aussieht, als er ist.

Alexandre Cervoni beschreibt dasselbe Muster in der Softwareentwicklung. AI-generierte Pull Requests entstehen in Minuten. Ein Mensch braucht eine Stunde, um einen zu prüfen. Die Asymmetrie zwischen Erzeugung und Qualitätssicherung wächst mit jeder neuen Modellgeneration. Open-Source-Projekte wie Jazzband, mit 150 Millionen Downloads pro Monat, haben sich aufgelöst, nicht wegen Geldmangel, sondern weil die Maintainer den AI-generierten Einreichungen nicht mehr hinterherkamen.

AI senkt die Kosten der Produktion auf nahe null. Die Kosten der Bewertung bleiben gleich oder steigen. Wer das nicht versteht, verwechselt Beschäftigung mit Fortschritt.

Copilots machen die falschen Leute lauter

Sivulka sieht etwas, das in den meisten AI-Diskussionen fehlt. AI-Modelle werden systematisch darauf trainiert, dem Nutzer zuzustimmen. Claude, ChatGPT, Gemini sagen „You’re absolutely right!“ zu praktisch allem. Für den einzelnen Nutzer ist das nervig, für Organisationen ist es gefährlich.

Die historisch schwächsten Mitarbeiter einer Firma werden die enthusiastischsten AI-Nutzer. Menschen, die selten positives Feedback von Kollegen bekommen haben, hören plötzlich von einem System, das sich anfühlt wie eine Superintelligenz, dass ihre Ideen brillant sind. Was dabei entsteht, ist nicht Produktivität, sondern Lärm, der eloquent klingt.

Organisationen scheitern selten an mangelndem Selbstvertrauen ihrer Mitarbeiter. Sie scheitern daran, dass niemand Nein sagt. Copilots verschärfen genau dieses Problem. Sie produzieren mehr von dem, was Organisationen ohnehin zu viel haben: gut formulierte Mittelmäßigkeit.

Die Fabrik steht noch

Sangeet Paul Choudary vom Kyndryl Institute bringt das auf eine Formel: Der CEO-Job im AI-Zeitalter ist Fähigkeiten-Allokation, nicht Mitarbeiterführung. Wer AI-Agents als „digitale Mitarbeiter“ denkt, denkt in Headcount statt in Architektur. Das ist GM 1984, neue Motoren in die alte Fabrik.

Die historische Parallele ist die Elektrifizierung. In den 1890er Jahren ersetzten Textilfabriken in New England ihre Dampfmaschinen durch Elektromotoren. Der Motor war besser, die Fabrik blieb gleich: dieselben Transmissionsriemen, dasselbe Layout, dieselbe Arbeitsteilung. Dreißig Jahre lang kein messbarer Produktivitätsgewinn. Erst als eine neue Generation die Anlage um den Elektromotor herum neu baute, explodierte die Produktivität.

Zwei Firmen zeigen, wie weit das heute auseinandergeht. McKinsey betreibt laut Bob Sternfels 20.000 AI-Agents neben 40.000 Beratern, bis Ende 2026 soll Parität erreicht sein. Juniorberater prüfen Agent-Output, statt Slides zu bauen. Die Rollen sind verändert, nicht nur die Werkzeuge. Klarna dagegen ließ AI 70 % aller Kundeninteraktionen übernehmen, baute 700 Servicestellen ab und ruderte Anfang 2026 zurück. Man sei zu weit gegangen, die Servicequalität war eingebrochen, das Unternehmen stellt wieder Menschen ein. Auch Fabrikumbau, nur ohne tragende Wände.

Die meisten Mittelständler sind noch nicht einmal bei McKinsey oder Klarna. Sie kaufen Lizenzen, schulen Mitarbeiter, messen Nutzungsquoten. Sie tauschen den Motor.

Ein Gegenmodell

Block, das Unternehmen hinter Square und Cash App, plant den bisher konsequentesten Organisationsumbau in der Tech-Branche. Jack Dorseys Team argumentiert, dass Hierarchie 2.000 Jahre lang die einzige Lösung für Koordination war, weil ein Mensch drei bis acht Leute führen kann. Mehr Menschen bedeuten mehr Schichten, mehr Schichten bedeuten langsameren Informationsfluss. AI hebt diese Begrenzung zum ersten Mal auf.

Blocks Gegenmodell hat kein permanentes Middle Management. Stattdessen drei Rollen: Einzelne Entwickler, die bauen, temporäre Projektverantwortliche, die ein konkretes Problem besitzen, bis es gelöst ist, und Führungskräfte, die selbst mitbauen und gleichzeitig Menschen entwickeln. Darüber zwei „World Models“, eines, das die Firma versteht, und eines, das den Kunden versteht, die zusammen die Roadmap generieren. Kein Produktmanager entscheidet, was gebaut wird. Wenn der Intelligence Layer an einer fehlenden Fähigkeit scheitert, generiert das Scheitern selbst den nächsten Auftrag.

Die interessante Stelle ist nicht das Modell, sondern wer es baut. Ein börsennotiertes Unternehmen mit 50 Milliarden Dollar Bewertung riskiert sein laufendes Geschäft, um die Organisation von Grund auf umzubauen. Keine Pilotabteilung, keine Arbeitsgruppe, keine McKinsey-Empfehlung. Teile davon werden brechen, bevor sie funktionieren, das schreibt Block selbst. Und dieser Versuch kommt von jemandem, der eigenes Geld riskiert.

Die Fragen, die in Boards nicht gestellt werden

Eine KPMG-Studie von Anfang 2026 hat 1,4 Millionen AI-Prompts in Unternehmen ausgewertet. 90 % der Mitarbeiter nutzen AI. Bei weniger als 5 % verändert es die Arbeit wirklich. Frequenz ist nicht Wirkung. Adoption ist nicht Transformation.

In meinen Portfoliogesprächen sehe ich Geschäftsführer AI-Budgets freigeben und gleichzeitig keine Rolle im Unternehmen verändern. Das ist keine Transformation, das ist Softwarekauf.

In den meisten Boards wird gefragt, ob die Mitarbeiter AI nutzen.

Natürlich nutzen sie AI. Die relevanteren Fragen stellt niemand.

Haben die AI-Systeme direkten Zugriff auf die Datenquellen, oder kopieren Mitarbeiter Kontext in Chatfenster? Wer Kontext manuell kopiert, verschwendet den Großteil der Arbeitszeit mit dem, was Protokolle wie MCP längst automatisieren. Systeme, die direkt an CRM, ERP oder Wissensdatenbanken angebunden sind, arbeiten auf einem anderen Level als ein Mitarbeiter, der Text zwischen Fenstern hin- und herschiebt.

Wird das Wissen der Organisation mit jeder AI-Interaktion besser, oder fängt jede Anfrage bei null an? Unternehmen, die Prozesse, Entscheidungslogik und Domänenwissen in strukturierten Wissenssystemen ablegen und bei jeder Nutzung anreichern, bauen einen kumulativen Vorteil auf. Der Rest produziert Einmalantworten und wundert sich, warum die AI nach einem Jahr immer noch dieselben Fehler macht.

Wer im Unternehmen ist der größte AI-Fan, und liefert diese Person auch ohne AI gute Arbeit? Die größten AI-Fans sind selten die besten Mitarbeiter, sondern die, deren Leistung durch AI am stärksten angehoben wird. AI hebt den Durchschnitt an, aber sie verstärkt nur dort echte Qualität, wo vorher schon Substanz war.

Wird noch Nutzung von AI-Tools gemessen, oder wird gemessen, welche Entscheidungen mit AI tatsächlich besser geworden sind? Wer Nutzung misst, misst Aktivität. Wer Entscheidungsqualität misst, misst Wirkung.

Wer diese Fragen nicht beantwortet, tauscht den Motor. Wer sie beantwortet, baut die Fabrik neu.

Bild generiert mit ChatGPT
Diesen Artikel teilen

Weitere Artikel

Articel, Podcast
8. April 2026
Es gibt Phasen, in denen sich der Blick weitet. In denen nicht mehr über Quartalsberichte, Zinsentscheidungen oder Wahltermine diskutiert wird, sondern über Zyklen, Imperien…
Articel, Podcast
25. März 2026
Über zwanzig Jahre lang war Software das dominierende Wertschöpfungsmodell der digitalen Wirtschaft. Unternehmen bauten Systeme, Kunden gaben Daten ein, Prozesse wurden sichtbar und steuerbar….
Articel, Podcast
11. März 2026
Wenn über die Studie Agents of Chaos geschrieben wird, dann meist als Warnung vor unkontrollierbarer KI. Vor Sicherheitslücken, Datenverlust, Manipulation. Das ist nicht falsch….
Articel, Podcast
8. April 2026
Es gibt Phasen, in denen sich der Blick weitet. In denen nicht mehr über Quartalsberichte, Zinsentscheidungen oder Wahltermine diskutiert wird, sondern über Zyklen, Imperien…
Articel, Podcast
25. März 2026
Über zwanzig Jahre lang war Software das dominierende Wertschöpfungsmodell der digitalen Wirtschaft. Unternehmen bauten Systeme, Kunden gaben Daten ein, Prozesse wurden sichtbar und steuerbar….