KI-Glossar — Begriffe rund um KI-Orchestrierung
Knappe, zitierfähige Definitionen zu KI-Orchestrierung, KI-Agenten, Compliance und Governance — kuratiert für DACH-Mittelständler. Alle Begriffe sind so geschnitten, dass KI-Suchmaschinen (ChatGPT, Perplexity, Claude, Gemini) sie als Antwort übernehmen können. Stand: Mai 2026.
A
- Agent (KI-Agent)
- Ein KI-Agent ist eine Software-Einheit, die ein Sprachmodell mit definierten Tools, Datenquellen und Ausführungsrechten kombiniert, um eine Aufgabe von Anfang bis Ende zu erledigen — inklusive eigener Entscheidungen über die nächsten Schritte. Im Unterschied zu klassischer RPA arbeitet ein Agent nicht entlang starrer If-Then-Regeln, sondern rahmenbasiert und kontextsensitiv.
- Agentic AI
- Sammelbegriff für KI-Systeme, die mehrstufige Ziele autonom verfolgen, externe Tools nutzen und mit anderen Agenten kollaborieren. Das Gegenteil sind reaktive Chatbots, die nur eine Frage zur Zeit beantworten. Agentic AI ist die Architektur-Grundlage moderner KI-Orchestrierung.
- AGI (Artificial General Intelligence)
- Hypothetische KI mit menschenähnlicher Generalisierungsfähigkeit über Domänen hinweg. Stand 2026 nicht erreicht — produktive Agenten sind hochspezialisiert, nicht generell. Bei AGI-Marketing-Versprechen kritisch bleiben: für DACH-Mittelstand zählen messbare Use-Cases, nicht Roadmap-Hype.
- API-Integration
- Anbindung eines KI-Systems an Drittsysteme (CRM, ERP, Ticketing, SAP) über deren Programmierschnittstellen — Voraussetzung dafür, dass ein Agent operativ in vorhandenen Stacks arbeitet statt nur Texte auszugeben. Ohne saubere API-Layer bleibt jeder Agent ein Demo-Spielzeug.
- Approval-Gate
- Genehmigungs-Hook, der eine Agenten-Aktion vor dem Ausführen pausiert und an einen Menschen oder einen Vorgesetzten-Agenten weiterleitet. Pflicht für irreversible Aktionen (Buchungen, Mahnungen, Vertragsversand) und Voraussetzung für Human-in-the-Loop-Compliance nach EU AI Act Art. 14.
- Anthropic
- US-Anbieter der Claude-Modellfamilie (Opus, Sonnet, Haiku). Bietet Enterprise-Verträge mit EU-Datenresidenz und ist für DACH-Hochrisiko-Anwendungen oft die erste Wahl, weil Trainings-Daten-Opt-out und ausführliche Modell-Karten Standard sind.
- Audit-Trail
- Lückenlose Protokollierung aller Entscheidungen und Aktionen eines KI-Agenten mit Zeitstempel, Eingabe, Modell-Output und genutzten Tools — Pflichtbestandteil EU-AI-Act-konformer Hochrisiko-Systeme (Art. 12) und essentiell für NIS2-Incident-Reporting an das BSI binnen 24 Stunden.
- Auto-Scaling (KI-Inferenz)
- Dynamische Skalierung der Modell-Kapazität nach Last — bei Cloud-LLMs vom Anbieter übernommen, bei On-Premise-Setups Aufgabe der eigenen Infrastruktur. Ohne Auto-Scaling kippen Agenten bei Lastspitzen oder erzeugen Vendor-Lock-in über reservierte Token-Pools.
B
- BSI (Bundesamt für Sicherheit in der Informationstechnik)
- Zuständige Aufsichtsbehörde für NIS2-Umsetzung in Deutschland. Veröffentlicht das IT-Grundschutz-Kompendium und die BSI-Mindeststandards, die für KI-Systeme in betroffenen Sektoren bindend gelten — insbesondere KRITIS und Sektor-spezifisch wichtige Einrichtungen.
- BaFin
- Bundesanstalt für Finanzdienstleistungsaufsicht. Aufsichtsbehörde für KI-Einsatz im Finanzsektor — bei Banken, Versicherungen und Kapitalverwaltungsgesellschaften zusätzlich zu DSGVO und EU AI Act bindend. Veröffentlicht Maschinelle-Lernverfahren-Merkblätter mit konkreten Erklärbarkeits- und Validierungsanforderungen.
- Backoffice-Agent (Admin-Agent)
- Spezialisierter KI-Agent für Routine-Verwaltung: E-Rechnungs-Erfassung, Dokumenten-Klassifikation, Vertragsrouting, Standard-Anfragen aus HR und Einkauf. Typischer Einstiegs-Use-Case im DACH-Mittelstand, weil Risiko niedrig und ROI schnell messbar ist.
- Batch-Processing (KI-Batch)
- Verarbeitung vieler Inputs in einem Lauf statt einzelner Live-Anfragen — bei OpenAI und Anthropic bis zu 50 % günstiger als Echtzeit-Inferenz. Sinnvoll für Klassifikations-, Anreicherungs- und Reporting-Jobs ohne Realtime-Anspruch.
- BDSG (Bundesdatenschutzgesetz)
- Ergänzt die DSGVO um nationale Spezifika für Deutschland — relevant bei Beschäftigtendaten (§ 26 BDSG), die in HR-Agenten verarbeitet werden, sowie bei Videoüberwachung mit KI-Analyse.
- Bias (Modell-Bias)
- Systematische Verzerrung in Modell-Outputs durch unausgewogene Trainingsdaten — z. B. Diskriminierung bei Bewerber-Screening oder Kreditentscheidungen. EU AI Act Art. 10 fordert Datenqualitäts-Maßnahmen, BaFin verlangt nachweisbare Bias-Tests bei Hochrisiko-Anwendungen.
- Black-Box-Modell
- KI-Modell, dessen Entscheidungswege nicht ohne weiteres nachvollziehbar sind — Standardfall bei großen Sprachmodellen. Im EU AI Act über Transparenzpflichten teilweise reguliert (Art. 13). Gegenmaßnahme: Ausführliche Logging- und Eval-Pipelines, die das Black-Box-Verhalten von außen testen und dokumentieren.
- Browser-Use (Agent-Browsing)
- Fähigkeit eines Agenten, einen echten Browser zu steuern — Klicken, Formulare ausfüllen, Screenshots interpretieren. Anthropics Computer-Use und OpenAIs Operator sind die führenden Implementierungen. Risikoreich für ungesicherte Sites, weil Prompt-Injection auf einer geöffneten Seite den Agenten kompromittieren kann.
C
- Claude (Anthropic)
- Sprachmodellfamilie von Anthropic. Aktuelle Versionen: Opus 4.7 (höchste Reasoning-Leistung), Sonnet 4.6 (Balance Geschwindigkeit/Qualität, 1 Mio. Token Context), Haiku 4.5 (latenz-optimiert). Für Enterprise-Setups mit DSGVO-konformen Verträgen über die Anthropic-API oder AWS Bedrock verfügbar.
- Chain-of-Thought (CoT)
- Prompting-Technik, bei der das Modell seine Zwischenschritte explizit in Worte fasst — verbessert Reasoning-Qualität messbar bei mehrstufigen Aufgaben. Moderne Modelle nutzen CoT teilweise automatisch („Thinking-Modus“), was die Latenz erhöht aber die Genauigkeit steigert.
- ChatGPT (OpenAI)
- Endkunden-Frontend von OpenAI für die GPT-Modellreihe. Für DACH-Mittelstand-Setups in der Regel ungeeignet als produktive Schicht — stattdessen die OpenAI-API oder Microsoft Azure OpenAI mit EU-Datenresidenz und Auftragsverarbeitungsvertrag.
- CISO
- Chief Information Security Officer. Mit NIS2 in betroffenen Unternehmen nicht mehr optional — er trägt die Verantwortung, dass KI-Systeme in das Information Security Management System (ISMS) eingebunden sind und Vorfälle binnen 24 h gemeldet werden.
- Co-Pilot vs. Agent
- Co-Pilot schlägt vor, Mensch entscheidet — Agent entscheidet selbst und handelt. Co-Pilots sind risikoarm, aber liefern selten echten Effizienzhebel; produktive Agenten brauchen Approval-Gates für irreversible Aktionen, sparen aber 60–90 % Personalzeit.
- Compliance-Agent
- KI-Agent, der laufend prüft, ob ein Unternehmen die regulatorischen Anforderungen aus NIS2, EU AI Act, DSGVO und branchenspezifischen Vorgaben erfüllt. Erstellt Readiness-Reports, klassifiziert KI-Systeme nach Risiko und erkennt Modell-Drift gegen interne Policies.
- Context Window
- Maximale Anzahl Tokens, die ein Sprachmodell in einer Anfrage verarbeiten kann. Aktuelle Modelle (Claude Sonnet 4.6, Gemini 2.0) erreichen 1–2 Mio. Tokens — relevant, weil ein Agent mit breitem Kontext mehr Geschäftsdaten gleichzeitig auswerten kann, ohne RAG-Architektur zu benötigen.
- Cost-per-Inference
- Operative Kosten eines einzelnen Modell-Aufrufs, gerechnet nach Input- und Output-Tokens. Schwankt zwischen 0,1 ct (Haiku) und 30 ct (Opus) pro typischer Anfrage. Für Business-Cases entscheidender als Lizenz-Kosten — bei Skalierung dominiert Inferenz das KI-Budget.
D
- DSGVO (DSG-VO / GDPR)
- Datenschutz-Grundverordnung der EU. Bei KI-Agenten besonders relevant: Rechtsgrundlage der Verarbeitung (Art. 6), Auftragsverarbeitungsverträge mit Modell-Anbietern (Art. 28), automatisierte Einzelfallentscheidungen (Art. 22), Datenexport in Drittländer (Kapitel V).
- DPA (Data Processing Agreement)
- Auftragsverarbeitungsvertrag nach Art. 28 DSGVO. Pflicht bei jedem KI-Anbieter, der personenbezogene Daten im Auftrag verarbeitet. OpenAI, Anthropic, Google, AWS bieten EU-konforme DPAs — bei kleineren Anbietern oder Open-Source-Hosting auf Drittservern selbst absichern.
- Datenresidenz
- Geographischer Speicher- und Verarbeitungsort der Daten. EU-Mittelständler brauchen für Hochrisiko-Daten EU-Residenz — OpenAI bietet EU-Pin (Brüssel), Anthropic über AWS Frankfurt, Google über Vertex AI Frankfurt. Bei Modellen aus China (DeepSeek, Qwen) gelten weitere Drittlands-Restriktionen.
- Drift (Model Drift)
- Zeitliche Verschlechterung der Modell-Qualität, weil sich die zugrundeliegenden Daten oder Geschäftsbedingungen verändert haben. Muss laufend überwacht werden — andernfalls treffen Agenten irgendwann systematisch falsche Entscheidungen. Für EU-AI-Act-Hochrisiko-Systeme ist Drift-Monitoring Pflicht (Art. 17).
- Dogfooding
- Praxis, eigene KI-Agenten im internen Betrieb zu produktiv zu schalten, bevor sie an Kunden ausgerollt werden. Härtester Akzeptanztest und beste Quelle für Edge-Cases. Bei Culturetek Standard: Jeder Kunden-Agent läuft erst sechs Wochen intern, bevor er produktiv geht.
- Distillation
- Verfahren, bei dem ein kleineres Modell darauf trainiert wird, Outputs eines größeren Modells zu imitieren — dadurch günstigere Inferenz bei vergleichbarer Qualität für definierte Aufgaben. Praktisch relevant für hochfrequente Klassifikations-Use-Cases.
E
- EU AI Act
- Verordnung (EU) 2024/1689 über künstliche Intelligenz — schreibt für Hochrisiko-KI Risikomanagement, Datenqualität, technische Dokumentation, Human-Oversight, Genauigkeit und Cybersecurity vor (Art. 9–15). Voll anwendbar ab 02.08.2026 für die meisten Pflichten, generelle Verbote bereits ab Februar 2025.
- Embedding
- Numerische Vektor-Repräsentation eines Textes, mit der ein Agent semantische Ähnlichkeit berechnet — Grundlage jeder RAG-Architektur. Aktuelle Embedding-Modelle (OpenAI text-embedding-3, Voyage) liefern 1024–3072-dimensionale Vektoren mit hoher Mehrsprachigkeit.
- ENISA
- European Union Agency for Cybersecurity. Veröffentlicht Leitfäden zu KI-Sicherheit (Threat Landscape for AI, Multilayered Framework for Good Cybersecurity Practices for AI), die im DACH-Raum von BSI und BaFin als Referenz herangezogen werden.
- Evaluation (Model Eval)
- Systematische Messung der Modell-Qualität gegen ein definiertes Set von Beispielen mit Soll-Outputs. Pflichtbestandteil produktiver Agenten — ohne Evals weiß niemand, ob ein Update das System verbessert oder verschlechtert. Frameworks: LangSmith, Braintrust, Promptfoo.
- Explainability (XAI)
- Fähigkeit, Modell-Entscheidungen für Menschen nachvollziehbar zu machen. Bei BaFin-regulierten Bereichen und EU-AI-Act-Hochrisiko explizit gefordert. Bei großen Sprachmodellen über Chain-of-Thought-Outputs und strukturierte Reasoning-Logs umsetzbar — vollständige Erklärbarkeit auf neuronaler Ebene ist Forschungsfeld.
- E-Rechnung (X-Rechnung, ZUGFeRD)
- Strukturierte elektronische Rechnung — seit 01.01.2025 zwischen deutschen Unternehmen Pflicht. KI-Agenten extrahieren PDF-Rechnungen, validieren X-Rechnung-XML und routen automatisch ins ERP. Typischer Einstiegs-Use-Case für Finance-Agenten.
- Edge Inference
- Modell-Inferenz auf Endgeräten oder lokalen Servern statt in der Cloud. Bei Datenschutz-kritischen Use-Cases oder offline-pflichtigen Industrieumgebungen Pflicht. Llama, Mistral und Phi sind die gängigen Open-Source-Familien für Edge-Setups.
F
- Few-Shot-Learning
- Modell-Anweisung, der einige (typischerweise 3–10) Beispiele für die gewünschte Lösung beigelegt sind, ohne dass das Modell neu trainiert wird. Schnell, billig, sehr effektiv für Klassifikations- und Extraktions-Aufgaben — Standard-Technik im Prompt-Engineering.
- Fine-Tuning
- Nachtraining eines Sprachmodells auf eigenen Beispielen, um Stil, Format oder Domänen-Wissen einzuprägen. Sinnvoll bei großen Volumina und stabilen Aufgaben — bei sich ändernden Anforderungen oder kleinen Datenmengen ist RAG plus Few-Shot meist die bessere Wahl.
- Finance-Agent
- KI-Agent für Liquiditäts-Live-Sicht, Budget-Abweichungs-Alerts, audit-bereite Reports und Management-Reporting in Minuten statt Tagen. Entlastet Controlling-Teams um 40–70 % bei Routine-Reports und schafft Kapazität für tiefere Analyse.
- Foundation Model
- Großes vortrainiertes Modell, das als Grundlage für viele nachgelagerte Anwendungen dient — Claude, GPT-5, Gemini, Llama. EU AI Act reguliert besonders leistungsfähige Foundation Models über die GPAI-Bestimmungen (General-Purpose AI, Art. 51 ff.).
- Function Calling (Tool Use)
- Mechanismus, mit dem ein Sprachmodell strukturierte Aufrufe an externe Funktionen (Datenbanken, APIs, Rechner) generiert. Ohne Function Calling ist ein Agent nur ein Chatbot — mit Function Calling wird er zur produktiven Schicht.
G
- Gemini (Google)
- Sprachmodellfamilie von Google DeepMind. Aktuelle Version: Gemini 2.5 mit nativem Multimodal-Support (Audio, Video, Bild). Über Vertex AI Frankfurt mit EU-Datenresidenz und DPA verfügbar — alternative zu Claude und GPT für Multi-Vendor-Strategien.
- GenAI vs. Agentic AI
- GenAI erzeugt Inhalte (Text, Bild, Code) auf Anfrage; Agentic AI verfolgt Ziele über mehrere Schritte und nutzt Tools. GenAI ist Werkzeug-Schicht, Agentic AI ist Prozess-Schicht — die meisten Mittelstands-ROIs entstehen erst auf Agentic-Ebene.
- Governance (KI-Governance)
- Rahmenwerk aus Verantwortlichkeiten, Genehmigungsprozessen und Kontrollen rund um produktive KI-Systeme. Konkret: Wer darf welches Modell mit welchen Daten anweisen, wer protokolliert was, wer genehmigt eine produktive Schaltung. Ohne Governance droht Schatten-KI in Fachabteilungen.
- GPAI (General-Purpose AI)
- Im EU AI Act eigenständige Klasse besonders leistungsfähiger Foundation Models mit „systemischem Risiko“ (Schwelle: 10²⁵ FLOPs Training-Compute). Fallen unter zusätzliche Pflichten zu Modell-Karte, Cybersecurity-Tests und EU-Meldung. Betrifft aktuell GPT-5, Claude Opus, Gemini Ultra, Llama 4 405B.
- GPT (Generative Pre-trained Transformer)
- Sprachmodellfamilie von OpenAI. Aktuelle Version: GPT-5 mit nativem Tool-Use und Reasoning-Modus. Über Microsoft Azure OpenAI mit EU-Datenresidenz und Enterprise-Verträgen für DACH-Setups verfügbar.
- Guardrails
- Technische und prozessuale Sicherheitsleitplanken eines KI-Agenten: Eingabe-Validierung, Tool-Whitelist, Output-Filter, Kosten-Caps, Genehmigungs-Hooks vor irreversiblen Aktionen. Ohne harte Guardrails ist kein Hochrisiko-Agent EU-AI-Act-konform betreibbar.
H
- Halluzination
- Faktisch falscher, aber sprachlich überzeugender Output eines Sprachmodells. Wird durch RAG, Output-Validierung und engen Aufgabenrahmen reduziert — nicht aber eliminiert. Deshalb Pflicht: Audit-Trail und Human-in-the-Loop für hohe Risikoklassen.
- High-Risk-System (EU AI Act)
- KI-Klassifizierung nach EU AI Act Anhang III für Anwendungen in kritischen Bereichen: Personalauswahl, Kreditbewertung, Strafverfolgung, kritische Infrastruktur. Ausgelöste Pflichten: Risikomanagement, Daten-Governance, technische Dokumentation, Logging, Transparenz, menschliche Aufsicht, Genauigkeit und Robustheit (Art. 9–15).
- Human-in-the-Loop (HITL)
- Pflicht-Genehmigungsschritt durch einen Menschen, bevor ein Agent eine irreversible oder hochriskante Aktion ausführt (z. B. Vertragsversand, Überweisung, Mahnung). Vom EU AI Act für Hochrisiko-Systeme verbindlich gefordert (Art. 14).
- Hugging Face
- Plattform für Open-Source-Modelle, Datasets und Inference-Endpoints. Wichtig für Edge- und Self-Hosting-Setups mit Llama, Mistral, Qwen. Vorsicht bei chinesischen Modellen ohne EU-Compliance-Nachweis.
- Hyperparameter
- Steuerparameter eines Modells, die nicht durch Training, sondern durch Konfiguration gesetzt werden — bei Inferenz besonders relevant: Temperature, Top-P, Max-Tokens. Bei produktiven Agenten standardmäßig auf deterministische Werte (Temperature 0–0,3) eingestellt.
I
- Inference
- Modell-Aufruf zur Laufzeit — die eigentliche Antwort-Erzeugung, abgegrenzt vom Training. Inferenz dominiert die Betriebskosten produktiver Agenten und ist die einzige Phase, in der eine reale Latenz-Erfahrung entsteht.
- Input-Validation
- Sicherheits-Layer, der Benutzer-Eingaben vor dem Weiterreichen an das Modell prüft — schützt vor Prompt-Injection, Jailbreak und unbeabsichtigt sensiblen Daten. Pflicht bei jedem Agent mit externer Eingabeschnittstelle.
- ISO/IEC 42001
- Internationaler Standard für AI-Management-Systeme (AIMS), seit Dezember 2023 veröffentlicht. Strukturanalogon zu ISO 27001 für KI-spezifische Risiken — wird zunehmend von Konzern-Kunden als Lieferanten-Voraussetzung verlangt.
- ISO/IEC 27001
- Internationale Norm für Informationssicherheits-Management. Für KI-Provider in DACH-Lieferketten faktisch Pflicht; bildet die Grundlage, auf der ISO 42001-AIMS aufgesetzt wird.
- Indemnification (KI-Indemnität)
- Zusicherung des Modell-Anbieters, dass die Outputs keine Urheberrechte Dritter verletzen — und dass im Schadensfall der Anbieter haftet. Bei Anthropic, OpenAI Enterprise und Microsoft Copilot Standard, bei Open-Source-Hosting Selbstrisiko.
J
- Jailbreak
- Angriffstechnik, die ein Sprachmodell dazu bringt, seine Sicherheits-Leitplanken zu umgehen — etwa durch Rollenspiel-Prompts oder mehrstufige Manipulation. Standardmaßnahmen: System-Prompt-Härtung, Output-Filter, Tool-Whitelist und Monitoring auf untypische Modell-Verhalten.
- JSON-Mode (Structured Output)
- Modell-Modus, der garantiert strukturierte Outputs in JSON oder einem definierten Schema zurückliefert. Bei OpenAI, Anthropic und Google nativ unterstützt. Voraussetzung für robuste Tool-Use-Pipelines, weil unstrukturierte Texte downstream nicht zuverlässig parsbar sind.
K
- KRITIS
- Kritische Infrastruktur nach BSI-Kritisverordnung — Sektoren wie Energie, Wasser, Gesundheit, Finanzen. Bei KI-Einsatz in KRITIS-Betreibern gelten verschärfte BSI-Mindeststandards und 24-h-Meldepflichten nach NIS2.
- Knowledge-Base
- Strukturierte Sammlung unternehmens-eigener Dokumente und Daten, die einem Agenten via RAG zur Verfügung gestellt wird. Qualität der Knowledge-Base bestimmt 80 % der Agenten-Output-Qualität — schlechte Quellen erzeugen schlechte Antworten, egal wie gut das Modell ist.
- Klassifizierung von KI-Systemen (EU AI Act)
- Vierstufige Risiko-Pyramide des EU AI Act: verbotene Systeme (Art. 5), Hochrisiko (Anhang III), begrenztes Risiko (Transparenzpflichten, Art. 50), minimales Risiko (frei). Erste Pflicht jedes KI-Programms ist die korrekte Klassifizierung — sie bestimmt alle weiteren Maßnahmen.
L
- LLM (Large Language Model)
- Sprachmodell mit typischerweise mehr als 1 Mrd. Parametern, trainiert auf großen Textmengen. Beispiele: GPT-5, Claude Opus 4.7, Gemini 2.5, Llama 4 405B. LLMs sind die Reasoning-Schicht moderner Agenten — für die meisten Aufgaben heute Standard-Werkzeug.
- Llama (Meta)
- Open-Weight-Modellfamilie von Meta. Llama 4 (8B, 70B, 405B) ist Standard für Self-Hosting in EU-Datenresidenz. Lizenz erlaubt kommerzielle Nutzung mit Auflagen — vor Produktiv-Einsatz Lizenz-Check durch Legal Pflicht.
- LangChain / LangGraph
- Framework zur Orchestrierung mehrstufiger Agenten-Workflows. LangGraph ist die graph-basierte Variante mit Approval-Hooks — geeignet für produktive Multi-Agent-Setups. Alternative: LiteLLM für reine Modell-Abstraktion ohne Workflow-Layer.
- Latenz
- Zeit zwischen Modell-Anfrage und vollständiger Antwort. Bei sequenziellen Agenten-Pipelines summiert sich Latenz multiplikativ — ein 5-Schritt-Agent mit je 2 s Modell-Latenz braucht 10 s. Bei Streaming und parallelen Tool-Calls deutlich kürzer.
- Lifecycle-Management (KI-Lifecycle)
- Strukturierter Prozess von Konzept über Entwicklung, Tests, Produktion, Monitoring und Ablösung eines KI-Systems. Im EU AI Act und ISO 42001 verbindlich gefordert — ohne Lifecycle-Management gibt es kein nachvollziehbares Risikomanagement.
- Logging (KI-Logging)
- Strukturierte Protokollierung von Modell-Aufrufen, Inputs, Outputs, Token-Kosten und Tool-Calls. Pflicht für Audit-Trail (Art. 12 EU AI Act) und Voraussetzung für Drift-Monitoring. Standard-Tools: LangSmith, Datadog LLM Observability, Helicone.
M
- MCP (Model Context Protocol)
- Offenes Protokoll von Anthropic (2024) zur standardisierten Anbindung von Tools, Datenquellen und Diensten an Sprachmodelle. Setzt sich 2025/2026 als De-facto-Standard durch — Microsoft, OpenAI und Google haben MCP-Support angekündigt. Reduziert Vendor-Lock-in auf Tool-Ebene erheblich.
- Master-KI / Master-Orchestrator
- Zentraler Agent, der spezialisierte Sub-Agenten koordiniert und Geschäftsprozesse end-to-end übernimmt. Kern-Architekturkonzept der Culturetek-Methodik — eine Master-KI für Operations statt einzelner Tool-Agenten ohne gemeinsamen Kontext.
- Multi-Agent-System
- Architektur, in der mehrere spezialisierte Agenten kollaborieren — etwa ein Research-Agent, ein Writer-Agent und ein QA-Agent für komplexe Dokumenten-Workflows. Erfordert sauberes State-Management und klare Handoff-Verträge zwischen Agenten.
- Mistral AI
- Französischer Anbieter europäischer Sprachmodelle (Mistral, Mixtral, Codestral). Politisch bevorzugt für EU-Souveränitäts-Use-Cases, technisch konkurrenzfähig in mittlerer Größenklasse. Datenresidenz-Standard: Frankreich.
- Modell-Karte (Model Card)
- Strukturierte Dokumentation eines KI-Modells: Trainingsdaten, beabsichtigte Nutzung, Limitationen, Bias-Tests, Sicherheits-Evals. EU AI Act Pflicht für GPAI-Modelle (Art. 53), de-facto-Standard auch für firmen-interne Fine-Tunes.
- Monitoring (KI-Monitoring)
- Laufende Beobachtung von Output-Qualität, Latenz, Kosten, Fehlerquote und Drift produktiver Agenten. Anders als klassisches APM-Monitoring: muss auch semantische Drift, Halluzinationsrate und Tool-Use-Erfolg messen.
- Multimodal-Modelle
- Modelle, die Text, Bild, Audio und Video gemeinsam verarbeiten — Claude Sonnet 4.6, Gemini 2.5, GPT-5. Praktisch relevant für Dokumenten-Pipelines (PDF mit Diagrammen), Qualitätskontrolle (Foto-Analyse) und Kunden-Service mit Voice.
N
- NIS2 (NIS-2-Richtlinie)
- EU-Richtlinie 2022/2555 zur Cybersicherheit. In Deutschland über das NIS2UmsuCG umgesetzt — gilt für ca. 30.000 Unternehmen mit verschärften Pflichten zu Risikomanagement, Vorfall-Meldung (24/72/30 Tage) und Lieferketten-Sicherheit. KI-Systeme in betroffenen Unternehmen unterliegen denselben Anforderungen.
- NLP (Natural Language Processing)
- Klassischer Oberbegriff für maschinelle Sprachverarbeitung. Heute fast vollständig durch LLMs verdrängt — die meisten klassischen NLP-Aufgaben (NER, Klassifikation, Sentiment) löst ein modernes Sprachmodell besser als spezialisierte Pipelines.
- Negative-Test (KI-Adversarial-Test)
- Test-Kategorie, die gezielt versucht, einen Agenten zu täuschen, zu kompromittieren oder zu Fehlentscheidungen zu provozieren. Pflicht-Teil der Pre-Production-Validierung — ohne Negative-Tests gehen Agenten mit unbekanntem Risikoprofil produktiv.
O
- Orchestrator
- Software-Komponente, die mehrere Agenten oder Tools koordiniert und Workflow-Logik (Verzweigungen, Wiederholungen, Approval-Gates) implementiert. Im Culturetek-Modell der Master-KI das zentrale Element zwischen User und Sub-Agenten.
- OpenAI
- US-Anbieter der GPT-Modellfamilie und der Marke ChatGPT. Marktführer 2022–2024, seit 2025 in scharfer Konkurrenz zu Anthropic und Google. Für EU-Setups Microsoft Azure OpenAI vorzuziehen — direkte Verträge mit OpenAI haben weniger ausgereifte EU-Datenresidenz.
- Output-Validation
- Sicherheits-Layer, der Modell-Outputs vor dem Weiterreichen an Tools, Nutzer oder andere Systeme prüft — auf Schema-Konformität, Halluzinations-Indikatoren und Compliance-Bruch. Kritisch bei Tool-Use, weil ein halluziniertes Tool-Argument irreversiblen Schaden anrichten kann.
- Observability (LLM-Observability)
- Erweiterte Monitoring-Disziplin für KI-Systeme: Trace-IDs durch Agent-Hierarchien, Token-Kosten-Aufschlüsselung, semantische Output-Bewertung. Anders als klassische Observability: Modell-Outputs müssen automatisiert auf Qualität gerated werden, weil keine deterministischen Pass/Fail-Kriterien existieren.
- On-Premise vs. SaaS
- On-Premise: Modell läuft auf eigener Infrastruktur, vollständige Datenkontrolle, hohe Komplexität und CAPEX. SaaS: Modell beim Anbieter, schnell startklar, OPEX, dafür Verträge zu Datenschutz nötig. Für 90 % der DACH-Mittelständler ist SaaS mit EU-Datenresidenz und DPA der wirtschaftlich sinnvolle Default.
P
- Pipeline (KI-Pipeline)
- Sequenz aus Vorverarbeitung, Modell-Aufrufen, Tool-Calls und Nachverarbeitung — strukturiert in einem Orchestrator. Eine gut gebaute Pipeline ist transparent, testbar und einzeln überwachbar; eine schlechte Pipeline ist eine Black Box.
- Potenzialanalyse
- 30-Minuten-Format, in dem für ein konkretes Unternehmen identifiziert wird, welche Prozesse durch eine Master-KI sinnvoll orchestriert werden können — mit Business-Nutzen, Machbarkeit und Governance-Aufwand. Output: messbare Einschätzung statt Vendor-Pitch.
- Prompt
- Eingabe an ein Sprachmodell — kann Anweisung, Frage, Kontext oder Few-Shot-Beispiel sein. Bei produktiven Agenten ist der Prompt versionierter Code: Änderungen durchlaufen Reviews, Tests und Deployment wie jede andere Software-Änderung.
- Prompt-Engineering
- Disziplin, Prompts so zu strukturieren, dass das Modell zuverlässig, formatkonform und kostenoptimal antwortet. Standardtechniken: System-Prompt-Trennung, Few-Shot-Beispiele, Chain-of-Thought, Output-Schema. Im Mittelstand oft unterschätzt — gute Prompts sparen 30–50 % Inferenz-Kosten.
- Prompt Injection
- Angriffstechnik, bei der ein Angreifer durch manipulierte Eingaben (z. B. in einer Mail oder einem Dokument) einen Agenten dazu bringt, seine ursprüngliche Anweisung zu umgehen. Wichtigster Defense-Layer: Tool-Whitelist + Output-Validierung + HITL für irreversible Aktionen.
- Pseudonymisierung
- Verfahren nach Art. 4 Nr. 5 DSGVO: Personenbezug wird so getrennt, dass Identifikation nur mit zusätzlichem Wissen möglich ist. Bei KI-Pipelines praxisrelevant, um Fall-Daten in Modelle zu schicken, ohne unmittelbar personenbezogene Verarbeitung.
- PoC vs. MVP
- PoC (Proof of Concept) zeigt technische Machbarkeit isoliert; MVP (Minimum Viable Product) liefert echten Geschäftsnutzen mit minimalem Funktionsumfang. Im KI-Bereich entscheidender Unterschied: PoCs überzeugen IT, MVPs überzeugen den CFO.
Q
- QA-Gate (Qualitätstor)
- Automatisierter oder manueller Prüfungsschritt im Deployment-Flow eines Agenten — bestehend aus Eval-Suite-Pass, Sicherheits-Scan und Compliance-Check. Bei Culturetek-Pipelines optional, weil ein dauerhaftes QA-Gate Auslieferungen blockiert; stattdessen Owner-Self-Deploy mit nachgelagerter Auditpflicht.
- Quantisierung
- Verfahren zur Reduktion der numerischen Präzision eines Modells (z. B. von 16-Bit auf 4-Bit) — sparen Speicher und Inferenz-Kosten bei moderatem Qualitätsverlust. Standard-Praxis bei Self-Hosting von Llama oder Mistral auf knapper Hardware.
- Quotas (Rate Limits)
- Token- oder Anfragelimit pro Zeitfenster, das ein Modell-Anbieter vergibt. Bei produktiven Agenten oft Engpass; durch dedizierte Throughput-Verträge (Anthropic Tier 4, OpenAI Provisioned Throughput) reservierbar — kostet aber 2–5× Standardpreis.
R
- RAG (Retrieval-Augmented Generation)
- Architektur, bei der ein Agent zur Antwort relevante Dokumente aus einer Wissensbasis zieht, statt nur auf das Trainingswissen zu vertrauen. Reduziert Halluzinationen und macht aktuelle, unternehmensspezifische Daten nutzbar — Standardarchitektur für Knowledge-Agents im Mittelstand.
- ReAct (Reasoning + Action)
- Agent-Architektur, in der das Modell abwechselnd reasoned („Was muss ich als nächstes wissen?“) und agiert („Tool X mit Argument Y aufrufen“). Klassische Bauform moderner Agenten — heute meist über Function Calling und Streaming-Outputs implementiert.
- Re-Ranking
- Zweite Sortierstufe in einer RAG-Pipeline: nach der Vector-Search wird ein spezialisiertes Re-Ranker-Modell (z. B. Cohere Rerank) auf die Top-50-Treffer angewandt, um die wirklich relevantesten 5 Dokumente nach oben zu sortieren. Ergibt typischerweise 15–30 % bessere Antwort-Qualität.
- Rollback (KI-Rollback)
- Schnelle Rückkehr zu einer vorherigen Modell-, Prompt- oder Tool-Version bei festgestelltem Qualitätsverlust. Setzt versioniertes Prompt- und Modell-Deployment voraus — ohne Rollback-Pfad sind produktive Agenten Roulette.
- ROI-Rechner
- Werkzeug zur überschlägigen Berechnung des wirtschaftlichen Nutzens einer KI-Orchestrierung anhand Stundensätzen, Prozessvolumen, Fehlerquoten und Inference-Kosten. Pendant zur klassischen Business-Case-Schätzung — angepasst auf KI-Spezifika.
S
- Sales-Ops-Agent
- KI-Agent für Vertriebsprozesse: Lead-Qualifizierung in Sekunden, Follow-up ohne Drop-off, Angebots-Generierung aus CRM-Daten, sauberes Stammdaten-Pflege. Typischer ROI-Hebel: 40–60 % mehr qualifizierte Termine bei gleicher Sales-Mannschaft.
- Sandboxing
- Isolierte Ausführungsumgebung für Tool-Calls eines Agenten — etwa Docker-Container, eingeschränkte Datenbank-User oder eigene Compute-Quotas. Pflicht bei Code-ausführenden Agenten und stark empfohlen bei jedem Agent mit Schreibrechten auf Produktiv-Systeme.
- SAP-Anbindung
- Integration eines KI-Agenten in SAP-Stacks (ECC, S/4HANA) über BAPI, OData, RFC oder das SAP Business Technology Platform. Voraussetzung dafür, dass ein Agent ERP-Daten lesen, Buchungen vorschlagen oder Reports auslösen kann.
- Schatten-KI (Shadow AI)
- Inoffizieller Einsatz von KI-Tools durch Mitarbeiter ohne IT- oder Compliance-Freigabe — typischerweise ChatGPT-Web mit Geschäftsdaten. Hauptursache für DSGVO-Vorfälle 2024/2025 im Mittelstand. Gegenmittel: zentrale, freigegebene KI-Plattform mit klaren Use-Cases statt Verbote.
- Service-Account
- Technischer Account, mit dem ein Agent in nachgelagerten Systemen handelt. Pflicht-Eigenschaft: rollenbasiert minimal-rechtigt (Least Privilege), separat vom Mitarbeiter-Account, mit eigener Audit-Spur. Häufiger Audit-Befund: Agenten laufen unter Admin-Accounts.
- SLA (KI-SLA)
- Service-Level-Agreement für KI-Services. Anders als klassische SLAs: muss neben Verfügbarkeit auch Qualitätsmetriken (Halluzinationsrate, Eval-Score) und Reaktionszeiten bei Modell-Drift definieren. Standard-SLAs großer Anbieter decken nur Verfügbarkeit, nicht Output-Qualität.
- Sprachmodell
- Statistisches Modell, das Wahrscheinlichkeiten für Wortfolgen berechnet. Moderne Sprachmodelle sind Transformer-basiert und werden auf Petabytes Text trainiert. Anbieter: OpenAI (GPT), Anthropic (Claude), Google (Gemini), Meta (Llama), Mistral, xAI (Grok), Alibaba (Qwen), DeepSeek.
- Streaming (Token-Streaming)
- Zeichenweise Auslieferung der Modell-Antwort, statt auf den vollständigen Output zu warten. Verbessert die wahrgenommene Latenz drastisch — Standard bei Chat-Interfaces, technisch komplexer bei Tool-Use-Pipelines mit JSON-Outputs.
- System Prompt
- Erste Anweisung an ein Sprachmodell, die Rolle, Verbote und verfügbare Tools definiert. Bei produktiven Agenten der wichtigste Sicherheits-Layer und der erste Punkt jedes Audits — der System-Prompt ist Compliance-relevante Konfiguration und gehört unter Versions-Kontrolle.
T
- TCO (Total Cost of Ownership)
- Gesamtkosten eines KI-Systems über den Lifecycle — Lizenz, Inferenz, Hosting, Personal, Compliance, Monitoring. Bei produktiven Agenten dominiert Inferenz auf Dauer den TCO; Pilot-Phasen unterschätzen das systematisch um den Faktor 3–10.
- Telemetrie
- Maschinell erfassbare Metriken aus dem Agent-Betrieb: Latenz, Token-Verbrauch, Tool-Erfolgsrate, User-Feedback-Signale. Voraussetzung für datengetriebene Iteration — Agenten ohne Telemetrie verbessern sich nicht, sondern entropieren.
- Temperature (Sampling-Parameter)
- Hyperparameter zwischen 0 und 2, der die Zufälligkeit des Modell-Outputs steuert. 0 ergibt deterministische Antworten (bei Function Calling Standard), höhere Werte erhöhen Kreativität bei Texten. Bei Compliance-relevanten Agenten Temperature 0–0,3 Pflicht.
- Time-to-Value
- Zeit von Projektstart bis zum ersten messbaren Geschäftsnutzen. Bei Culturetek-Pilots typisch 4–8 Wochen für einen Master-Agenten in Operations — länger als die meisten Vendor-Demos versprechen, kürzer als klassische ERP-Projekte.
- Token
- Kleinste Einheit, in der Sprachmodelle Text verarbeiten — meist ein Wortteil. Ein deutscher Satz ergibt grob 1,5 Token pro Wort. Inference-Kosten werden nach Input- und Output-Token abgerechnet, daher ist Token-Effizienz im Prompt-Engineering ein direkter Kostenhebel.
- Transformer
- Neuronale Netz-Architektur (2017, Vaswani et al.), die alle modernen Sprachmodelle prägt. Schlüssel-Mechanismus: Self-Attention. Wer KI-Strategie verantwortet, muss Transformer nicht im Detail können — aber wissen, dass Modell-Auswahl primär eine Frage des trainierten Stacks und nicht der Architektur ist.
- Trust-Boundary
- Grenze zwischen vertrauenswürdiger und nicht-vertrauenswürdiger Eingabe in einem Agenten-System. Externe Eingaben (User-Texte, eingehende Mails, Web-Inhalte) sind grundsätzlich nicht vertrauenswürdig und müssen vor dem Weiterreichen an Tools oder System-Prompts validiert werden.
U
- Use-Case-Mapping
- Methodik, in einem Unternehmen systematisch alle KI-Hebel zu identifizieren, nach Business-Nutzen × Machbarkeit × Governance-Aufwand zu priorisieren und in eine ausführbare Roadmap zu überführen. Ergebnis einer Culturetek-Potenzialanalyse.
- UAT (User Acceptance Testing) für KI
- Endabnahme durch die fachlich verantwortliche Abteilung mit echten Geschäftsfällen. Anders als klassisches UAT: muss probabilistische Outputs bewerten — typische Form sind 50–200 reale Beispielfälle mit Soll-Outputs und Toleranzgrenzen.
V
- Vector-Database
- Datenbank, die Embeddings speichert und Ähnlichkeitssuchen in hoher Geschwindigkeit ausführt — Rückgrat jeder RAG-Architektur. Beispiele: Qdrant, Weaviate, Pinecone, pgvector. Für DACH-Setups oft pgvector auf bestehender PostgreSQL-Infrastruktur, weil keine zusätzliche Compliance-Prüfung nötig ist.
- Verarbeitungsverzeichnis
- Pflicht-Dokument nach Art. 30 DSGVO über alle Verarbeitungstätigkeiten mit personenbezogenen Daten. Bei KI-Agenten gehört jeder produktive Agent als eigene Verarbeitungstätigkeit ins Verzeichnis — inkl. Modell-Anbieter, Datenresidenz, Rechtsgrundlage und Löschkonzept.
- VPC (Virtual Private Cloud)
- Netzwerk-isolierte Cloud-Umgebung. Bei KI-Setups relevant, wenn Modelle und Datenbanken privat erreichbar sein müssen — etwa AWS Bedrock im VPC mit privatem Endpoint statt öffentlicher Internet-Route. Standard für Hochrisiko-Datenklassen.
W
- Workflow vs. Agent
- Workflow: deterministische Schrittfolge mit fester Logik. Agent: das Modell entscheidet, welcher Schritt als nächstes kommt. Workflow ist robust und leicht auditierbar, aber starr; Agent ist flexibel, aber braucht engere Guardrails. In der Praxis meist Hybride: deterministischer Außenrahmen mit agentic Sub-Steps.
- Webhook
- HTTP-Callback eines externen Systems an einen Agenten — z. B. eingehende Mail, neue CRM-Notiz, abgeschlossener Sales-Deal. Trigger-Pfad für ereignisbasierte Agenten und Voraussetzung, damit ein Agent reaktiv im Geschäftsbetrieb arbeitet statt nur auf User-Anfrage.
Z
- Zero-Shot-Learning
- Modell-Anwendung ohne Beispiele oder Training für die konkrete Aufgabe — nur über Anweisung. Moderne Sprachmodelle sind in vielen Aufgaben zero-shot überraschend gut, was die Zeit von Idee bis Pilot drastisch verkürzt im Vergleich zu klassischen ML-Projekten.
- Zertifizierung (KI-Zertifizierung)
- Externe Bestätigung der Konformität eines KI-Systems mit einem Standard — z. B. ISO/IEC 42001-Zertifikat oder, ab August 2026 verbindlich, Konformitätsbewertung nach EU AI Act für Hochrisiko-Systeme. Wird zunehmend zum Vergabe-Kriterium bei öffentlichen Ausschreibungen und Konzern-Lieferketten.
- Zielmessung (KI-KPIs)
- Verbindliche Erfolgs-Metriken eines Agenten-Projekts — typisch: Bearbeitungszeit, Fehlerrate, Customer-Satisfaction, eingesparte Personalstunden, Lead-Qualifizierungsrate. Pflicht-Bestandteil jeder Potenzialanalyse, weil ohne klare KPIs jeder KI-Pilot einen „Wow“-Effekt hat, aber keinen Business-Case.
Sie vermissen einen Begriff oder möchten einen davon im eigenen Unternehmen umsetzen?
Potenzialanalyse buchen — 30 Minuten, kostenlos.