EN
← Alle Artikel

KI für Entscheider: Warum Sie AI nicht kaufen können, sondern bauen müssen

ai-for-managersdata-literacyenterprise-aimanagementmisconceptionsteam-culture

at WHU Artificial Intelligence for Managers

"Ich muss AI kaufen." Diese Aussage einer Top-Managerin am Bahnhof fasst das größte Missverständnis im Management zusammen: Künstliche Intelligenz ist kein Produkt, das man einfach von der Stange kauft. Nach Jahren der Beratung von Führungskräften und Data Scientists sind die fundamentalen Herausforderungen klar — und sie haben weniger mit Technologie zu tun, als die meisten denken.

Rückblick aus 2026: Dieser Beitrag entstand 2020 und bleibt bewusst unverändert. Die Kernthesen — KI ist kein Produkt zum Kaufen, Datenqualität entscheidet, der menschliche Faktor ist die eigentliche Herausforderung — haben sechs Jahre und einen LLM-Schub getragen. Einzelne Zahlen und Beispiele sind erkennbar Vor-LLM-Welt; ich aktualisiere sie nicht, weil der Erkenntniswert in der Logik liegt, nicht in den Vergleichsgrößen. Wer mich nach langjähriger Erfahrung im Thema fragt: hier ist eine Spur in die Zeit, in der AI im deutschen Mittelstand noch buchstabiert werden musste.

Auf einen Blick

Das AI-Paradoxon im Management

Wenn Sie "AI für Manager" googeln, sehen Sie immer denselben weißen Roboter. Googeln Sie "Replacing Managers", finden Sie Artikel darüber, wie AI Führungskräfte ersetzen wird. Aber googeln Sie "Replacing Data Scientists" – da ist die Diskussion noch offen. Für Data Engineers gibt es diese Diskussion gar nicht erst. Das zeigt: Die größte Bedrohung durch AI ist nicht die Technologie selbst, sondern das Missverständnis darüber.

Die Realität erfolgreicher Manager

Harvard Business Review-Studien zeigen: Manager verbringen 70% ihrer Zeit mit Administration und Problemlösung. Nur 10% entfallen auf Strategie und Innovation, 7% auf Personalentwicklung. Gleichzeitig glauben sie, dass digitale Technologien und Datenanalyse zu den wichtigsten Zukunftskompetenzen gehören – unterschätzen aber massiv die Bedeutung von People Skills.

Der entscheidende Punkt: Die größte Herausforderung bei AI-Projekten ist menschliche Kommunikation, nicht Technologie.

AI ist nicht neu – die Probleme auch nicht

Artificial Intelligence ist älter als relationale Datenbanken. AI wurde in den 1940ern erfunden, relationale Datenbanken erst in den 1970ern. Das MIT Technology Review, das Magazin einer der weltweit führenden Technologie-Universitäten, diskutierte bereits in den 1980ern und 1990ern die gleichen Themen: "Will artificial intelligence ever fulfill its promise?" (1986, nach 25 Jahren!), "Automation" (1985), "How to keep mature industries innovative" (1987) und "Can computers create literature?" (1998).

Die Erkenntnis: Was Sie heute als revolutionär erleben, sind oft Wellen von Entwicklungen, die seit Jahrzehnten laufen. Das verstehen hilft, Signal von Rauschen zu trennen.

Warum AI jetzt funktioniert

Drei Faktoren haben AI aus dem "Winter" geholt: Rechenpower (Moore's Law, GPU-Computing, spezialisierte AI-Chips), Daten (Internet-Zeitalter, günstige Speicherung, globale Datensammlung) und Software (Open Source, globaler Wissensaustausch, Python-Ökosystem). Diese Kombination war vor zwei Jahrzehnten schlicht nicht vorhanden.

Data Literacy für Entscheider: Vom Vorstand bis zum Code verstehen

Als Führungskraft müssen Sie nicht programmieren können, aber Sie brauchen Data Literacy – die Fähigkeit, Daten zu bewerten und darauf basierende Entscheidungen zu treffen. Das ist der Kern Ihrer Aufgabe als Entscheider.

Die Arbeit mit Daten hat vier Ebenen. Bei den ersten beiden – Datensammlung und Datenmanagement – müssen Sie nur wissen, dass professionelle Systeme diese Aufgaben handhaben. Hier wird es für Sie relevant: Bei der Datenevaluation verstehen Sie, was die Daten bedeuten, wie Erkenntnisse präsentiert werden und vor allem, ob datengetriebene Entscheidungen sinnvoll sind. Das ist Ihre Kernkompetenz.

Die vierte Ebene – Datenanwendung – ist Ihre Hauptdomäne. Hier entscheidend: Datenethik (unverzichtbar für Führungskräfte), Critical Thinking (das delegieren Sie an Experten) und Entscheidungsevaluation (Ihre Kernkompetenz).

Mein Faustwert nach Jahren in der Beratung: Von allem, was Ihre Data Scientists tun, müssen Sie vielleicht 20 Prozent technisch verstehen. Die anderen 80 Prozent sind Change Management, Geschäftsverständnis und Menschenführung.

Die 5 größten AI-Missverständnisse im Management

1. "Bigger is Better" – Der Hadoop-Fehler

Klassisches Beispiel: Unternehmen kaufen Hadoop-Cluster, bevor sie den ersten Data Scientist einstellen. Resultat: "Wir brauchen das Hadoop-Cluster gar nicht, wir haben nur ein paar Gigabyte Daten." Die Regel: Nicht Ressourcen vorauseilend kaufen, sondern erst den Bedarf verstehen.

2. "Data Lakes sind saubere Seen"

Data Lakes sind kein klarer Gebirgssee, aus dem man saubere Daten schöpft. Sie sind komplexe Systeme aus vielen Komponenten — mehr Konzept als Technologie. Datenqualität kommt aus Unternehmenskultur und Governance, nicht aus Technologie.

3. "Es ist ein IT-Projekt"

Falsch. Data Science und AI sind Research & Development. Sie brauchen experimentelle Kultur statt starrer Prozesse, offenes Budget für Versuche, die scheitern können, interdisziplinäre Teams und die Bereitschaft, auf dem Weg andere Probleme zu lösen als geplant.

4. "Daten sind objektiv und unvoreingenommen"

Daten sind immer voreingenommen. Beispiel: Ein AI-System der US-Polizei diskriminiert systematisch gegen bestimmte Gruppen, weil es auf historischen, voreingenommenen Daten trainiert wurde. Die Lösung: Diverse Teams, ethische Guidelines, transparente Prozesse.

5. "Deep Learning löst alles"

Häufig können Sie Probleme mit klassischen statistischen Methoden besser lösen. Die sind stabiler und beweisbar, erklärbar (bei Deep Learning oft nicht möglich), weniger datenintensiv und schneller implementierbar.

Das Garry Kasparov-Prinzip

1997 besiegte IBMs Deep Blue den Schachweltmeister Kasparov. Viele Theoretiker hatten vorhergesagt: "Wenn eine Maschine Menschen im Schach besiegt, haben sie uns überholt."

Was passierte wirklich? Kasparov wurde nicht arbeitslos. Er sagt heute: "Computer sind großartige Werkzeuge." Er entwickelte neue Konzepte, wie Menschen und Computer zusammenarbeiten können. Schach ist heute populärer denn je. Kasparovs Zitat von Pablo Picasso: "Computer sind nutzlos. Sie können uns nur Antworten geben." Die Lehre: AI löst nicht Probleme, sondern beantwortet Fragen. Die richtigen Fragen zu stellen, bleibt menschliche Aufgabe.

Praktische Umsetzung: Wie AI wirklich funktioniert

Das Titanic-Beispiel

Das berühmte Titanic-Datensample ist für Data Scientists langweilig, aber für Führungskräfte perfekt lehrreich:

Erkenntnis: Oft sind einfache Lösungen besser als komplexe AI.

Style Transfer als Erklärwerkzeug

Nehmen Sie ein Van Gogh-Gemälde, lernen Sie den Stil, wenden Sie ihn auf ein Foto an – fertig ist das Kunstwerk im Van Gogh-Stil.

Aber Achtung: Bei Gegenlicht-Fotos funktioniert es nicht. Warum? Vermutlich sind keine Gegenlicht-Bilder in den Trainingsdaten. Die Lehre: AI funktioniert nur so gut wie die Daten, mit denen sie trainiert wurde.

Speech Synthesis – Realistisches Beispiel

Mit einem MacBook und 9 Tagen Training kann man ein System bauen, das jeden englischen Text vorliest. Kostenaufwand: unter 1000 Euro.

Aber: 95% der Forschungsergebnisse schaffen es nicht in die Produktion. Seien Sie realistisch bei Erwartungen.

Unternehmenskultur als Erfolgsfaktor

Das Kühlhaus-Experiment

Psychologe Dietrich Dörner ließ Menschen ein komplexes System (Temperaturregelung) steuern. Resultat: Unter Stress fallen Menschen in erratisches Verhalten und Maximalreaktionen.

Im Unternehmen heißt das: Ohne die richtige Kultur scheitern selbst die besten AI-Projekte. Menschen fallen unter Druck in alte Hierarchien und Silos zurück — und genau das passiert, wenn ein KI-Programm vom Erwartungsdruck überholt wird.

Sechs wiederkehrende Haltungen in AI-Teams

In jedem AI-Team begegnen mir wiederkehrende Muster, die sich gut personifizieren lassen. Sechs Archetypen aus der Beratungspraxis — keiner per se falsch, keiner für sich allein ausreichend:

Die Aufgabe der Führungskraft ist nicht, diese Haltungen zu bewerten, sondern die Energien zu kanalisieren. Show-off Sarahs Enthusiasmus ist ein Asset, wenn er auf ein Problem trifft, das wirklich existiert. Anodyne Andy braucht Klarheit über das Geschäftsproblem, bevor Tools überhaupt Thema werden. Prepared Pam ist der seltene Goldstandard — und das Profil, das ein Programm trägt, wenn man es einstellen kann.

Das Kommunikationsprinzip

In der Python-Community können Astronomen mit Web-Entwicklern produktiv zusammenarbeiten — getragen von einer offenen, respektvollen Kommunikationskultur. Diese Erfahrung gehört zu den Gründen, warum Open Source für mich nicht eine Option unter vielen ist, sondern struktureller Vorteil.

Übertragen auf Ihr Unternehmen: Schaffen Sie Räume, in denen alle Beteiligten ehrlich sagen können "Das habe ich nicht verstanden", ohne Statusverlust befürchten zu müssen. Das ist die Voraussetzung dafür, dass interdisziplinäre Teams funktionieren.

Was Entscheider anders machen müssen

Über Industrien hinausdenken: Innovation passiert an unerwarteten Schnittstellen. Welche Probleme lösen andere Branchen ähnlich wie Ihre? Wo finden Sie unkonventionelle Partner? Was können Sie von völlig anderen Domänen lernen? Team-Komposition überdenken: Sie brauchen keine "AI-Superhelden". Sie brauchen diverse Teams mit Data Engineers (Daten zugänglich machen), Data Scientists (Modelle und Erkenntnisse), Domain-Experten (Kontext und Business-Verständnis) und Change Managern (Menschen mitnehmen). Experimentierkultur etablieren: Google bringt nur 5% ihrer AI-Modelle in Produktion. Bereiten Sie sich auf diese Erfolgsquote vor. Das bedeutet: Budget für Experimente, die scheitern können, Lernkultur statt Erfolgsgarantien, iterative Entwicklung statt Big Bang-Projekte. Realistische Zeitpläne: AI ist ein Marathon, kein Sprint. Nach meiner Erfahrung brauchen Sie 3–6 Monate für einen Proof of Concept, 1–2 Jahre für Produktionsreife und 2–5 Jahre für Skalierung. ROI zeigt sich nicht in Quartalen, sondern in Jahren.

AI in 10 Jahren: Die realistische Vision

Vergessen Sie Science-Fiction. AI wird Teil des Alltags werden, ohne dass wir es als "AI" wahrnehmen:

Praktische Anwendungen

Business-Modelle

Wenn Sie ein AI-Modell haben, das funktioniert, können Sie es horizontal skalieren. Das ist das Google-Geschäftsmodell: Einmal entwickeln, millionenfach nutzen.

Die Entscheidung: Wollen Sie nur AI-Services kaufen oder eigene skalierbare AI-Systeme entwickeln?

Konkrete Handlungsempfehlungen

Sofort: Entwickeln Sie eine Datenstrategie (Wo sind Ihre Daten? Wer hat Zugang? Welche Qualität?). Kartieren Sie Domain-Expertise – Ihre besten AI-Anwendungen entstehen dort, wo Sie das tiefste Geschäftsverständnis haben. Schaffen Sie regelmäßige Formate, in denen technische und Business-Stakeholder zusammenkommen. Mittelfristig (6–12 Monate): Definieren Sie ein Experimentierbudget (5–10% der IT-Ausgaben für AI-Experimente ohne Erfolgsgarantie). Starten Sie mit einem Pilot-Projekt: kleiner Scope, klarer Business Value, messbare Ergebnisse. Implementieren Sie AI-Literacy-Programme für Führungskräfte – Grundverständnis, keine Programmier-Skills. Langfristig (1–3 Jahre): Machen Sie AI-Strategie zu Teil Ihrer Unternehmensstrategie, nicht zu einem isolierten IT-Thema. Bauen Sie Partnerschaften mit Universitäten, Open Source Communities und unkonventionellen Branchen auf. Etablieren Sie Ethik und Governance, bevor Sie skalieren.

Fazit: Der menschliche Faktor entscheidet

Die wichtigste Erkenntnis nach Jahren der AI-Beratung: Technologie ist nur die halbe Miete. Der Erfolg hängt davon ab, ob Sie die menschlichen Herausforderungen lösen:

Sie können AI nicht kaufen – Sie müssen AI bauen. Und das ist eine zutiefst menschliche Aufgabe. Der entscheidende Unterschied: Unternehmen, die das verstehen, nutzen AI als strategischen Vorteil. Die anderen bleiben Kunden von Google, Microsoft und Amazon.

KI für Entscheider verstehen — ohne Buzzword-Bingo.

Lassen Sie uns sprechen

Links zum Thema

  1. ▶ Explaining AI to Managers2019-09
  2. ▶ Machine Learning, Artificial Intelligence (AI) and Big Data2019-12
  3. ▶ Data Literacy for Managers2019-12
  4. ▶ Artificial Intelligence for Managers2020-03
Dieser Beitrag fasst mehrere Vorträge und meine Gastvorlesung an der WHU – Otto Beisheim School of Management aus den Jahren 2019 und 2020 zusammen. Sechs Jahre später halte ich die Kernlinie für stabiler, nicht obsoleter — was 2020 noch Aufklärung verlangte, ist heute Common Sense im Vorstand. Die schwere Arbeit liegt unverändert in der Umsetzung.