EN
← Alle Artikel

Overfitted Promises: KI in der Coding-Forschung – Hype vs. Evolution

AI CodingHype vs RealityNewtonAlchemieEntwicklungstools
Title slide: Overfitted Promises: Underestimated Futures - AI in Coding Research

Overfitted Promises: KI in der Coding-Forschung – Hype vs. Evolution

Wem können Sie als Technologie-Führungskraft wirklich trauen? Was funktioniert mit KI-Coding-Tools, was nicht – und was bedeutet das für Ihre Entwicklungsorganisation?

Auf einen Blick


Zur Einordnung: Dieser Beitrag ist ein opinionated vision piece, kein Playbook. Die Technologie bewegt sich so schnell, dass es nicht ehrlich wäre, hier endgültige Best Practices zu formulieren. Was Sie lesen, ist eine Hypothese — und vor allem ein Plädoyer dafür, frische Bewertungsrahmen zu entwickeln, statt bestehende Software-Engineering-Routinen einfach mit "und jetzt mit KI" zu umetikettieren. Die Tools, die Sprache, die Anwendungsfälle und die Erwartungshaltung in den Vorständen sind neu — die Brille, mit der wir das beurteilen, sollte es auch sein. Wer das kritisch liest und mitdenkt, ist hier richtig. Wer eine fertige Roadmap erwartet, wird unzufrieden bleiben — das ist Absicht.

Bei neurons&neckar 2025 habe ich diese provokante These aufgestellt: Die aktuellen KI-Coding-Tools ähneln der Alchemie mehr als der modernen Wissenschaft. Aber das ist weder reine Kritik noch Hype. Es ist eine nüchterne Bestandsaufnahme – und ein Blick darauf, wie Ihre Entwicklungsorganisation damit umgehen sollte.

Newton: Zwischen Alchemie und Revolution

Isaac Newton schrieb über eine Million Worte über Alchemie – größtenteils zu seinen Lebzeiten unveröffentlicht. Er suchte den Stein der Weisen, um Metalle zu verwandeln und Unsterblichkeit zu erlangen. Er experimentierte mit "Diana's Tree" und glaubte, dass Metalle "wachsen" könnten und lebensähnliche Eigenschaften hätten.

Sein Fazit: Das Ziel verfehlte er. Die Folgen aber waren enorm. Seine alchemistischen Experimente waren methodisch und detailliert dokumentiert. Sie führten zu wissenschaftlichen Durchbrüchen in Chemie, Optik und Thermodynamik. Newton brauchte die Alchemie, um die Wissenschaft zu erfinden.

Das ist das Muster, das ich heute bei KI-Coding-Tools sehe: Trial and Error mit unsichtbarem Mechanismus – aber nicht ohne Wert.

Die Parallele: AI-Coding heute

Title slide: Overfitted Promises: Underestimated Futures - AI in Coding Research Title slide: Overfitted Promises: Underestimated Futures - AI in Coding Research

Das Problem, das ich in Unternehmen beobachte: Man führt GitHub Copilot oder Cursor ein, erwartet einen 30%-Produktivitätssprung und ist dann verwirrt, wenn die Realität komplexer ist.

Aktuelle KI-Coding-Tools funktionieren wie Alchemie, nicht wie etablierte Wissenschaft:

Das ist nicht böse gemeint. Es beschreibt die heutige Realität: KI-Coding-Tools sind noch nicht wissenschaftlich vorhersehbar genug, um blind in kritische Systeme zu integrieren. Wir vertrauen auch Compilern (Programmcode -> Maschinencode) - nur diese sind streng deterministisch.
AI Coding ist ein neuer Layer mit dem wir noch lernen müssen umzugehen, ihn einzuhegen.

Aber es gibt ein Muster. Und sobald wir das Muster verstehen – sobald wir wissen, wo diese Tools funktionieren und wo nicht – können wir sie gezielt einsetzen.

Wo KI-Coding-Tools wirklich funktionieren – und wo nicht

Die gute Nachricht: Es gibt ein Muster. Nicht alle Aufgaben sind gleich.

Was funktioniert konsistent:

Hier wird es alchemistisch – und Sie müssen aufpassen

Das ist kein Fehler der Tools. Es ist ihre Grenze. Die Frage für Sie als Technologie-Führer ist: Welche dieser Aufgaben dominieren in meinem Team?

Ein strategisches Beispiel: Das Problem der agentic AI

Ein weiteres Muster zeigt sich bei KI-Agenten (ausführliche Diskussion siehe Post "Agentic AI"). Automatisierte Systeme, die eigenständig handeln sollen, brauchen klare Guardrails. Das ist dasselbe Problem: Menschen müssen die Grenzen definieren, wo die KI handeln darf und wo nicht. Die KI selbst wird das nicht richtig entscheiden, ohne menschliche Vorgaben.

Das gilt auch für Code-Generierung: Eine KI kann nicht selbst entscheiden, ob generierter Code "gut genug" ist für Production. Sie kann schnell iterieren, aber die letzte Entscheidung – die kritische Entscheidung – bleibt bei Menschen.

Die Evolution: Von Alchemie zur Wissenschaft

Newton brauchte 50 Jahre, um von Alchemie zur Wissenschaft zu gelangen. Wir werden schneller sein. Aber wir sind noch nicht da.

Die Richtung ist klar:

Diese Transition ist Ihre Verantwortung als Führungskraft, nicht die der Tool-Anbieter. Sie müssen heute schon planen, wann und wie Sie diese Tools einführen – und wo nicht.

Was das strategisch bedeutet: Vier Heuristiken für die Übergangszeit

Diese vier Punkte sind keine Best Practices — die Technologie ist zu jung, das Material, um Best Practices zu destillieren, ist nicht da. Sie sind Heuristiken, die in der heutigen Phase belastbar sind und in zwölf Monaten neu bewertet gehören.

1. Kartographieren, nicht evangelisieren

Bevor Sie KI-Coding-Tools einführen, müssen Sie wissen: Welche Aufgaben dominieren bei uns? Sind das 70% Boilerplate (große Chancen) oder 70% komplexe Domänenlogik (begrenzte Chancen)? Keine Einheitslösung – unterschiedliche Teams brauchen unterschiedliche Strategien.

2. Mit kleinen Piloten beginnen

Starten Sie mit einem Team, das viel mit Boilerplate und Bug Fixes arbeitet. Messen Sie: Was wird schneller, was nicht? Welche Bugs entstehen? Wo braucht es mehr Reviews? Dann skalieren Sie nur wenn die Bilanz positiv ist.

3. Quality Gates sind nicht optional

Code von KI braucht genauso gute Reviews wie jeder andere Code – nur anders. Nicht "funktioniert es?", sondern "ist der Ansatz sicher?" und "haben wir das so schon mal gemacht, oder ist das neu?". Diese Reviews müssen Ihre Architekten machen, nicht Junior Developer.

4. Risiken einhegen

Manche Codebases sind zu kritisch für KI-Experimente. Sicherheit, Zahlungsverarbeitung, Kernlogik – da gehört KI-generierter Code nicht hin, bis die Tools reifer sind. Das ist nicht Technophobia, das ist Risikomanagement.

Die unbequeme Wahrheit – und die Chance

Die aktuellen KI-Coding-Tools sind overfitted auf ihre heutigen Anwendungen. Das bedeutet: Sie funktionieren hervorragend in ihrem Trainingskorridor (Boilerplate, APIs, simple Patterns) und weniger gut, je weiter Sie sich entfernen.

Das ist nicht böse. Das ist Physik.

Aber: Newtons Alchemie war auch "overfitted" auf die Transmutation von Metallen. Und doch führte sie zur modernen Chemie, zur Thermodynamik, zur Optik. Nicht weil die ursprüngliche Fragestellung richtig war, sondern weil er systematisch experimentierte und lernte.

Das ist, was mit KI-Coding heute passiert. Wir haben die "alchemistische" Phase. Wir sind mitten in der Entdeckung. Die Unternehmen, die das jetzt verstehen – die ihre Teams ermutigen, systematisch zu experimentieren, die Quality Gates einführen, die lernen, wo diese Tools sind und wo nicht – die werden die Vorteile nutzen, wenn die Wissenschaft auftaucht.

Die anderen werden sich später fragen, warum sie so viel Zeit verloren haben.

Fazit: Unterscheiden Sie Hype von Chance

Ich höre oft in Vorständen: "Wir müssen in KI investieren" oder "Alle nutzen Copilot schon." Das ist Orientierungslosigkeit im Hype. Die richtige Frage ist nicht "Brauchen wir KI-Coding?" sondern "Wo funktioniert KI-Coding wirtschaftlich in unserer Organisation, und wo fügt sie Risiken hinzu?"

Die Antwort unterscheidet sich bei jedem Unternehmen. Und wenn Sie unsicher sind – wenn Sie nicht wissen, wie Sie diese Bewertung machen, welche Tools zu Ihnen passen, wie Sie Ihre Teams einführen ohne Chaos zu erzeugen – dann ist genau das, wofür ich hier bin.

Nicht alle KI-Versprechen sind Versprechen. Manche sind echte Chancen. Der Unterschied ist Strategie — und der Mut, mit frischen Augen hinzusehen, statt das Neue durch die alte Brille zu zwängen.

Sie sind unsicher, welche KI-Coding-Tools tatsächlich wirtschaftlichen Nutzen bringen?

Lassen Sie uns sprechen
Dieser Artikel basiert auf meinem Vortrag bei neurons&neckar 2025 und praktischen Erfahrungen mit AI-Coding-Tools in Open Source-Projekten.