Agentic AI
AI-Systeme, die mehrstufige Aufgaben über mehrere Tool-Aufrufe hinweg autonom planen und ausführen.
Kuratierte Boardroom-Definitionen zu AI-Begriffen, die zwischen Vendor-Erzählung und technischer Realität liegen. Jeder Eintrag liefert eine präzise Definition, die Lücke zwischen Marketing und Substanz und die Frage, die im Vorstand gestellt werden sollte.
AI-Systeme, die mehrstufige Aufgaben über mehrere Tool-Aufrufe hinweg autonom planen und ausführen.
EU-Verordnung 2024/1689 zur Regulierung von AI-Systemen, mit gestaffelter Anwendung bis 2027 und separaten Pflichten für General-Purpose-AI-Modelle.
Strukturiertes, adversarisches Testen eines AI-Systems auf Sicherheits-, Bias-, Halluzinations- und Missbrauchs-Muster.
Maximale Anzahl an Tokens, die ein Sprachmodell pro Anfrage gleichzeitig verarbeiten kann.
Mathematischer Datenschutz-Standard, der den Einfluss eines einzelnen Datensatzes auf ein Berechnungs-Ergebnis durch ein quantifiziertes Maß (Epsilon) begrenzt.
Verfahren, ein kleineres Modell so zu trainieren, dass es das Verhalten eines größeren annähert — bei deutlich geringeren Inferenz-Kosten.
EU-Verordnung 2022/2554 zur digitalen operationellen Resilienz von Finanzunternehmen, anwendbar seit 17. Januar 2025.
Ausführung von AI-Modellen direkt auf Endgeräten statt in zentralen Rechenzentren oder Cloud-APIs.
Numerische Vektorrepräsentation eines Texts, Bildes oder Datenobjekts in einem hochdimensionalen Raum, in dem semantisch ähnliche Objekte nahe beieinander liegen.
Systematische, reproduzierbare Messung der Qualität eines AI-Systems gegen definierte Kriterien.
Trainings-Verfahren, bei dem ein gemeinsames Modell über mehrere dezentrale Datenquellen hinweg trainiert wird, ohne dass die Trainingsdaten die Quellen verlassen.
Verfahren, die Gewichte eines vortrainierten Foundation Models auf einem domänenspezifischen Datensatz nachzutrainieren.
Großes, allgemein vortrainiertes AI-Modell, das als Basis für eine Vielzahl nachgelagerter Anwendungen dient.
Mechanismen vor, während oder nach der Modell-Inferenz, die unerwünschte Eingaben oder Ausgaben filtern, einschränken oder eskalieren.
Output eines Sprachmodells, der plausibel formuliert, aber faktisch falsch oder nicht durch die Quellen gedeckt ist.
Strukturierte Software-Schicht um ein AI-Modell, die Tool-Aufrufe, Eval-Routinen, Guardrails und Output-Verarbeitung orchestriert.
Laufende Kosten der Modellnutzung pro Anfrage; TCO erweitert das um Entwicklung, Eval, Hosting, Monitoring und Compliance über den Lebenszyklus.
Architekturmuster, in dem ein Modell aus mehreren spezialisierten Subnetzen besteht, von denen pro Token nur eine kleine Auswahl aktiviert wird.
Strukturiertes Dokument, das Trainingsdaten, beabsichtigte Anwendung, Limitierungen, Bias-Muster und Lizenz eines AI-Modells beschreibt.
Prozesse, Rollen und Dokumentation, die den Lebenszyklus eines AI-Modells im Unternehmen steuern.
Eigenschaft eines AI-Modells, mehrere Eingabe- und Ausgabemodalitäten zu verarbeiten — typischerweise Text, Bild, Audio und Video.
Betrieb von AI-Modellen und Infrastruktur in der eigenen oder einer dedizierten Umgebung statt in API-Diensten der Modellanbieter.
Open Weights bezeichnet die Veröffentlichung der Modellparameter; Open Source erfordert zusätzlich Trainingscode, Daten-Spezifikation und eine offene Lizenz.
Angriffstechnik, bei der Eingaben so gestaltet werden, dass das Modell die ursprünglichen Systemanweisungen ignoriert oder umgeht.
Architekturmuster, bei dem ein Sprachmodell relevante Dokumente aus einer Wissensbasis abruft und als Kontext in den Prompt integriert.
Klasse von Sprachmodellen, die vor der Antwort eine längere interne Denkkette erzeugen und bei mehrstufigen Aufgaben besser performen als klassische LLMs.
AI-Infrastruktur, die unter nationaler oder europäischer Kontrolle steht — über Daten, Betrieb, Modelle und Trainingsdaten hinweg.
Künstlich erzeugte Daten, die statistische oder strukturelle Eigenschaften echter Daten nachbilden.
Datenbank, die für Speicherung und Suche hochdimensionaler Vektoren (Embeddings) optimiert ist.