The Economics of Prediction Machines: KI als Wirtschaftsfaktor verstehen
The Economics of Prediction Machines: KI als Wirtschaftsfaktor verstehen
Auf einen Blick
KI ist nicht IT – es ist Forschung und Entwicklung. Das ist die zentrale Erkenntnis, die mich in meinen Beratungsprojekten mit deutschen Industrieunternehmen immer wieder bestätigt. Unternehmen, die verstehen, dass fallende Vorhersagekosten fundamentale Geschäftsmodelle verändern, und die ihre Prediction-Kapazitäten systematisch aufbauen, haben morgen einen entscheidenden Wettbewerbsvorteil. Dieser Artikel zeigt, wie die "Prediction Machines"-Ökonomie funktioniert – und warum die Strategie wichtiger ist als der Code.
KI ist nicht IT – es ist R&D!Diese Erkenntnis aus meinem Vortrag beim Netzwerkforum Smartproduction im ABB Ability™ Customer Experience Center 2020 wurde in den folgenden Jahren durch hunderte Beratungsgespräche mit Vorständen und Technologieleitern bestätigt. Denn in der Praxis beobachte ich immer das gleiche Muster: Unternehmen, die KI als Technologieprojekt angehen, scheitern. Die, die verstehen, dass es um Vorhersagen – und damit um wirtschaftliche Disruption – geht, schaffen systematisch Wert.
Der Kern: Was Prediction Machines wirklich sind
Der Begriff "Prediction Machines" ist präziser als die übliche "KI"-Rhetorik. Wenn ich mit Industrieunternehmen spreche, merke ich schnell, dass sie unter "KI" alles Mögliche verstehen – von Robotik bis Chat-Systemen. Die Realität ist simpler und gleichzeitig mächtiger: KI-Systeme sind Maschinen, die Vorhersagen treffen. Das ist kein Marketing-Spin, das ist die Ökonomie.
Wenn fallende Vorhersagekosten – durch bessere Hardware, billigere Datenspeicherung, Open Source Software, offene Forschung – zum neuen Normal werden, dann entstehen völlig neue Geschäftschancen. Das ist nicht Science Fiction. Das ist das, was in meinen Kundenprojekten täglich passiert.
Und hier liegt die erste strategische Lücke: Viele Unternehmen denken nicht in Vorhersagen. Sie denken in Technologien. Sie denken in IT-Projekten. Sie denken nicht daran, dass billige Vorhersagen ihr Geschäftsmodell verändern.
Der Goldman Sachs Case: Ein Lehrstück
Das klischeebeladene Beispiel Goldman Sachs zeigt trotzdem prägnant, was passiert, wenn Vorhersagekosten fallen. 1999 brauchte die Bank noch etwa 600 Trader, um den amerikanischen Aktienmarkt zu bearbeiten. Heute sind es zwei. Der Rest ist Algorithmen – Prediction Machines, die kontinuierlich Marktmuster vorhersagen und automatisiert reagieren.
Das ist nicht einfach "Automatisierung". Das ist die Neuerfindung eines ganzen Geschäftsmodells. Und ich sehe das exakte gleiche Muster in meinen Kundenprojekten in Deutschland und Europa. In der Feinchemie, im Maschinenbau, in der Automobilzulieferung. Die Unternehmen, die am schnellsten verstehen, dass ihre kritischen Geschäftsprozesse auf bessere Vorhersagen angewiesen sind – statt auf bessere Sensoren oder bessere Maschinen – die gewinnen.
Wo sehe ich diese Blindheit am häufigsten? In zwei Bereichen: Unternehmen, die noch nicht verstanden haben, wo ihre Vorhersagekosten fallen könnten (und das sind die meisten). Und Unternehmen, die denken, dass bessere Vorhersagen eine "IT-Beschaffung" sind – statt einer strategischen, iterativen R&D-Aufgabe.
Wo die realen Opportunities liegen: Was ich in Industrieunternehmen sehe
Wenn ich mit deutschen und europäischen Industrieunternehmen arbeite, höre ich oft: "Wir wollen KI in unsere Maschinen einbauen." Das ist zu kurz gedacht. Die wirklichen Potenziale liegen nicht in smarten Sensoren, sondern in Vorhersagen über das, was drumherum passiert.
Erste Kategorie
Supply Chain und Demand Planning. Ein mittelständischer Maschinenbauer, mit dem ich arbeite, hatte ein klassisches Problem – zu viele Rohstoffe auf Lager in guten Zeiten, zu wenige in schwierigen. Mit besseren Nachfrageprognosen (nicht Deep Learning, sondern klassischen statistischen Methoden) konnte er Lagerbestände um 22 Prozent senken und gleichzeitig Lieferfähigkeit erhöhen. Das ist Prediction Machines in der Praxis.
Zweite Kategorie
Unstrukturierte Informationen. Viele Unternehmen haben Tausende von Verträgen, Prüfberichten, Schriftverkehr mit Lieferanten. Damit lässt sich mit modernem Natural Language Processing systematisch arbeiten – nicht um vollständig zu automatisieren, sondern um Risiken einzuschätzen, Anomalien zu finden, Compliance-Probleme früh zu erkennen.
Dritte Kategorie
Finance und Risk. Bessere Vorhersagen von Cashflow, von Ausfallrisiken bei Lieferanten, von Betrugsmustern in der Buchhaltung.
Was ich dabei immer wieder sehe: Unternehmen unterschätzen massiv, was mit einfachen, klassischen statistischen Verfahren möglich ist. Sie wollen gleich mit neuronalen Netzen starten, weil sie gehört haben, dass "Deep Learning" modern ist. Das ist Orientierungslosigkeit im Hype. Der iterative Weg ist: erst einfache statistische Methoden, dann Bayessche Verfahren, dann nur wenn nötig die großen Modelle.
Warum die meisten Unternehmen trotzdem scheitern
Die Strategielücke ist real. Unternehmen sehen, dass "KI" wichtig ist. Sie starten Projekte. Aber dann scheitern sie an der gleichen Stelle – weil sie nicht verstanden haben, dass KI nicht IT ist, sondern R&D.
Das ist ein fundamentaler Unterschied. IT-Projekte haben klare Anforderungen. Man schreibt einen Pflichtenkatalog, beauftragt einen Anbieter, der liefert ein System, das funktioniert oder nicht. Bei R&D ist das anders. Bei R&D ist Unsicherheit normal. Experimente scheitern. Man muss iterieren. Das erfordert andere Governance, andere Budget-Modelle, andere Kommunikation mit dem Vorstand.
Ich sehe immer wieder Unternehmen, die drei Millionen Euro für ein "KI-Projekt" budgetieren, eine große Task Force aufbauen, und nach sechs Monaten feststellen, dass die größten Blockers nicht technisch, sondern organisatorisch sind. Datenzugang ist schwierig, weil die Daten in verschiedenen Legacy-Systemen verteilt sind. Die Fachabteilung versteht nicht, warum ein Modell nur 75 Prozent Genauigkeit hat. Die IT-Governance erlaubt nicht, Open Source Software in Produktion zu nehmen.
Das sind nicht Technologie-Probleme. Das sind Strategie-Probleme. Und die müssen vom Vorstand gelöst werden.
Best Practice: Wie es funktioniert
Aus meiner Erfahrung mit erfolgreich umgesetzten Prediction Machines in deutschen Unternehmen gibt es ein bewährtes Muster:
Phase 1: Definition (Wochen 1-2)
Nicht mit Code starten. Mit der Geschäftsfrage starten. Welche Vorhersagen sind für unser Geschäft wirklich kritisch? Wo sparen wir heute bereits Kosten durch manuelle "Vorhersagen" (also gut informierte Vermutungen)? Wo verlieren wir Geld, weil unsere Vorhersagen falsch sind?
Phase 2: Exploration (Wochen 3-8)
Mit den verfügbaren Daten experimentieren. Einfache statistische Verfahren. Schnelle Prototypen. Zwei bis drei Experten. Nicht 20 Leute in einer Taskforce. Die Erkenntnis "Das Modell könnte 18 Prozent bessere Ergebnisse liefern, aber wir brauchen mehr Daten" ist erfolgreicher als ein großes Projekt, das scheitert, weil die Anforderungen nicht geklärt waren.
Phase 3: Iteration (Wochen 9-24)
Das funktionierende Modell wird schrittweise in echte Prozesse integriert. Das ist die kritische Phase. Nicht mit 100-Prozent-Genauigkeit starten, sondern mit "Gerade besser als der Status quo". Echte Menschen nutzen das System, geben Feedback. Das Modell wird kontinuierlich nachjustiert.
Der Start ist nicht das Ziel. Die sichere Landung ist das Ziel.
Dahinter steht ein Kernprinzip: Der Start ist nicht das Ziel. Die sichere Landung ist das Ziel. Viele Projekte sind schön im Demo-Stadium, scheitern aber kläglich beim Rollout in Produktion. Erfolg misst sich nicht an Accuracy-Scores, sondern an: Spart das echte Menschen Zeit? Wird die Geschäftsentscheidung durch bessere Vorhersagen tatsächlich besser?
Die strategischen Chancen
Wenn Vorhersagekosten fallen, entstehen Chancen, die es vorher nicht gab. Predictive Maintenance – von reaktiv zu proaktiv – ist ein Beispiel. Bessere Lageroptimierung ein anderes. Mass Customization – das Skalieren von personalisierten Lösungen – wird wirtschaftlich möglich, wenn Vorhersagen über Kundenpräferenzen billig werden.
Aber – und das ist die wichtigste Beobachtung aus meinen Projekten – diese Chancen entstehen nicht automatisch, nur weil die Technologie günstiger wird. Sie entstehen, wenn ein Unternehmen diese neue Ökonomie auch strategisch verankert. Sprich: wenn der Vorstand nicht nur die Technologie funded, sondern die organisatorischen Rahmenbedingungen schafft, damit R&D funktioniert.
Das ist Fundament statt Aktionismus. Das ist die Differenzierung. Ein Unternehmen, das mit echter Strategie – "Wir wollen Prediction-Leader in unserem Markt sein, und das ist ein 3-5-jähriges Programm" – anfängt, wird in fünf Jahren gegen Konkurrenten gewinnen, die heute noch schneller KI-Projekte starten.
Die zentrale Frage für jeden Entscheider
Welche Vorhersagen sind kritisch für mein Geschäftsmodell? Und: Bin ich schneller darin, bessere Vorhersagen zu treffen als meine Konkurrenz? Das ist die Frage. Nicht: "Haben wir einen ChatGPT-Chatbot?" oder "Können wir Maschinen mit Sensoren ausstatten?"
Die besten Prediction-Systeme entstehen, wenn Domain-Expertise und datengetriebenes Denken zusammenkommen. Der Chief Data Officer und der Chief Operating Officer müssen zusammen arbeiten, nicht nebeneinander. Der Vorstand muss verstehen, dass bessere Vorhersagen bedeuten, dass Geschäftsmodelle neu überlegt werden müssen.
Zusammenfassung: Die Ökonomie hat sich verschoben
Die "Prediction Machines"-Ökonomie ist real. Die fallenden Vorhersagekosten verändern tatsächlich Geschäftsmodelle. Das ist kein Marketing. Das sehe ich in meinen Projekten täglich.
Aber – und das ist der Punkt – nicht alle Unternehmen nutzen diese Chance gleich erfolgreich. Die Strategielücke ist riesig. Viele Vorstände verstehen nicht, dass KI nicht IT ist. Viele Technologieleiter denken, dass es um bessere Algorithmen geht, statt um bessere Daten und schnellere Iteration. Viele Unternehmen werden von Hype getrieben statt von echter strategischer Überlegung.
Das ist Orientierungslosigkeit im klassischen Sinne. Und das ist auch die Chance für Unternehmen, die souverän bleiben.
Die besten Vorhersagen entstehen nicht durch die teuersten Modelle, sondern durch:
1. Klare Geschäftsfragen statt Tools-erste-Mentalität 2. Empirische, iterative Prozesse statt großer Waterfalls 3. Kreuzfunktionale Teams, die Domain-Expertise mit Datenkompetenz verbinden 4. Echte R&D-Budgets, nicht IT-Budgets 5. Strategie vom Vorstand, nicht vom Technologie-Team
Dass dies so selten ist, ist genau das, was die starken Unternehmen morgen von den schwachen trennt.
Strategische KI-Einführung: AI & Umsetzungsstrategie oder C-Level Sparring.
Lassen Sie uns sprechen