
Willkommen im Glossar. Dieser Bereich erklärt zentrale Fachbegriffe, technische Konzepte und wichtige Abkürzungen, die in unseren Lösungen und Dokumentationen verwendet werden.
Das Glossar hilft Ihnen, schnell ein gemeinsames Verständnis aufzubauen und Informationen klarer einzuordnen.
Die Beantwortung häufiger Fragen finden Sie im FAQ. Ausführliche Erläuterungen in der Dokumentation. Bei weiteren Fragen kontaktieren Sie uns gerne.
Maschinelles Lernen
Maschinelles Lernen beschreibt eine Methode, bei der Systeme aus Daten lernen, ohne explizit programmiert zu werden. Modelle erkennen Muster, treffen Vorhersagen und verbessern ihre Leistung mit zunehmender Datenmenge.
Deep Learning
Deep Learning ist ein Teilbereich des maschinellen Lernens, der künstliche neuronale Netze mit vielen Schichten verwendet. Dadurch können komplexe Muster, Bilder, Sprache und Texte besonders präzise verarbeitet werden.
Neuronales Netz
Ein neuronales Netz ist ein mathematisches Modell, das lose an die Funktionsweise des menschlichen Gehirns angelehnt ist. Es besteht aus miteinander verbundenen Knoten, die Informationen weitergeben und verarbeiten, um Aufgaben wie Klassifikation oder Vorhersagen zu lösen.
Large Language Model (LLM)
Ein Large Language Model ist ein KI-Modell, das enorme Mengen an Text verarbeitet hat, um Sprache zu verstehen und zu erzeugen. Es kann Fragen beantworten, Texte schreiben, Zusammenfassungen erstellen und komplexe Inhalte verarbeiten.
Prompt
Ein Prompt ist die Eingabe, mit der ein KI-Modell gesteuert wird. Eine präzise Formulierung führt zu besseren Ergebnissen und definiert, was das Modell erzeugen oder erklären soll.
Prompt Engineering
Prompt Engineering umfasst Techniken, um Eingaben für KI-Modelle so zu gestalten, dass optimale Ergebnisse entstehen. Dazu gehören Struktur, Kontext und Stilvorgaben.
Training Data
Training Data bezeichnet die Datensätze, mit denen ein KI-Modell trainiert wird. Qualität, Größe und Vielfalt dieser Daten bestimmen maßgeblich die Genauigkeit und Robustheit des Modells.
Training
Training ist der Prozess, bei dem ein Modell Muster in Daten lernt und seine Parameter optimiert. Dieser Vorgang ist rechenintensiv und bildet die Grundlage für die spätere Leistungsfähigkeit.
Inferenz
Inferenz beschreibt die Phase, in der ein trainiertes Modell neue Eingaben verarbeitet und Ergebnisse liefert. Bei modernen KI-Modellen erfolgt dies in Echtzeit und ermöglicht vielfältige Anwendungen.
Transformer-Modell
Transformer-Modelle verarbeiten Informationen parallel und besonders effizient. Sie bilden die technologische Grundlage moderner Sprach- und Bildmodelle und ermöglichen hochpräzise Ergebnisse.
Token
Ein Token ist eine kleinste Einheit von Sprache oder Daten, die ein Modell verarbeitet. Bei Texten können Tokens einzelne Wörter, Silben oder Zeichen sein.
Embedding
Ein Embedding übersetzt Wörter oder Objekte in mathematische Vektoren. Dadurch entsteht eine numerische Darstellung, die semantische Beziehungen abbildet und KI-Systemen das Verstehen von Bedeutung ermöglicht.
Fine-Tuning
Fine-Tuning passt ein bestehendes KI-Modell an spezielle Anforderungen an. Das Modell lernt zusätzliche Informationen und wird für einen bestimmten Einsatzbereich optimiert.
Retrieval-Augmented Generation (RAG)
RAG kombiniert KI-Modelle mit externen Wissensquellen. Die KI sucht relevante Informationen und integriert sie in die Ausgabe, was zu präziseren Antworten führt.
Reinforcement Learning
Reinforcement Learning basiert auf Belohnungen für korrektes Verhalten. Ein Modell probiert Strategien aus, lernt aus Erfolg und Fehlern und verbessert schrittweise seine Entscheidungen.
Supervised Learning
Supervised Learning nutzt Daten, die mit Zielwerten versehen sind. Das Modell lernt, korrekte Ergebnisse vorherzusagen, indem es Beispiele mit bekannten Lösungen analysiert.
Unsupervised Learning
Unsupervised Learning verarbeitet Daten ohne Zielvorgaben. Modelle erkennen eigenständig Muster, Gruppen oder Strukturen in großen Datenmengen.
Generative KI
Generative KI erzeugt neue Inhalte wie Texte, Bilder, Videos oder Audio. Sie nutzt erlernte Muster, um kreative oder analytische Ergebnisse zu liefern.
Computer Vision
Computer Vision ermöglicht es Maschinen, Bilder und Videos zu interpretieren. Damit können Objekte erkannt, Szenen analysiert und visuelle Daten automatisch ausgewertet werden.
Natural Language Processing (NLP)
NLP ist die Verarbeitung natürlicher Sprache durch Maschinen. Systeme verstehen, analysieren und erzeugen Texte, wodurch Chatbots und Sprachassistenten möglich werden.
Natural Language Understanding (NLU)
NLU ist ein Teilbereich von NLP und konzentriert sich auf das inhaltliche Verstehen. Modelle erkennen Absichten, Zusammenhänge und Bedeutungen von Sprache.
Natural Language Generation (NLG)
NLG beschreibt die Fähigkeit von KI-Systemen, strukturierten Inhalt oder Rohdaten in menschenähnlichen Text umzuwandeln. Dies wird für Berichte, Zusammenfassungen oder Erklärungen genutzt.
KI-Agent
Ein KI-Agent ist ein autonomer digitaler Assistent, der Aufgaben ausführt, Entscheidungen trifft und Prozesse selbständig steuert. Er kann Workflows automatisieren und auf Ereignisse reagieren.
Automatisierungsmodell
Ein Automatisierungsmodell dient dazu, wiederkehrende Aufgaben ohne manuelle Eingriffe auszuführen. Es verknüpft KI, Regeln und Datenquellen zu einem effizienten Ablauf.
Predictive Analytics
Predictive Analytics nutzt historische Daten, um zukünftige Ereignisse vorherzusagen. Unternehmen treffen damit fundierte Entscheidungen, beispielsweise im Vertrieb oder Risikomanagement.
Data Mining
Data Mining umfasst Methoden, um große Datenbestände nach Mustern, Zusammenhängen und Trends zu durchsuchen. Die Ergebnisse bilden die Basis für prädiktive Modelle und datenbasierte Strategien.
Overfitting
Overfitting tritt auf, wenn ein Modell zu genau an Trainingsdaten angepasst ist und dadurch bei neuen Daten schlechtere Ergebnisse erzielt. Eine gute Balance ist entscheidend für reale Einsatzszenarien.
Bias in der KI
Bias beschreibt Verzerrungen in Modellen, die durch unrepräsentative oder fehlerhafte Daten entstehen. Eine bewusste Kontrolle der Trainingsdaten hilft, faire Ergebnisse sicherzustellen.
KI-Modell
Ein KI-Modell ist das Ergebnis eines Trainingsprozesses. Es besteht aus Parametern und Strukturen, die Muster erkennen und Aufgaben lösen.
Hyperparameter
Hyperparameter legen fest, wie ein Modell trainiert wird. Beispiele sind Lernrate oder Netzwerktopologie. Sie beeinflussen stark die Qualität der Ergebnisse.
Datensatz
Ein Datensatz ist eine strukturierte Sammlung von Informationen, die für das Training oder die Auswertung eines Modells genutzt wird.
Skalierbarkeit
Skalierbarkeit beschreibt die Fähigkeit eines Systems, mit steigender Last oder mehr Nutzern stabil zu arbeiten. Moderne KI-Infrastrukturen werden darauf ausgelegt, schnell zu wachsen.
API
Eine API ist eine Schnittstelle, über die Anwendungen miteinander kommunizieren. KI-Modelle werden häufig über APIs in bestehende Systeme eingebunden.
Latenz
Latenz ist die Zeit, die ein System benötigt, um auf eine Anfrage zu reagieren. Niedrige Latenz ist besonders wichtig für KI-Echtzeitanwendungen.
Modellparameter
Modellparameter sind Variablen innerhalb des Modells, die während des Trainings angepasst werden. Sie bestimmen die Funktionsweise des Modells.
Feature Extraction
Feature Extraction identifiziert wichtige Merkmale eines Datensatzes. Dadurch kann ein Modell relevantere Informationen verarbeiten und präzisere Ergebnisse liefern.
KI-Pipeline
Eine KI-Pipeline umfasst alle Schritte von Datenverarbeitung über Modelltraining bis zur Auslieferung. Sie sorgt für wiederholbare und transparente Abläufe.
Zero-Shot Learning
Zero-Shot Learning ermöglicht es einem Modell, Aufgaben zu lösen, für die es nicht explizit trainiert wurde. Es nutzt sein allgemeines Wissen, um neue Fälle zu verstehen.
Few-Shot Learning
Few-Shot Learning erlaubt es einem Modell, aus sehr wenigen Beispielen zu lernen. Dadurch können neue Aufgaben mit minimalem Aufwand erschlossen werden.
Data Augmentation
Data Augmentation erzeugt aus bestehenden Daten zusätzliche Varianten. Das erhöht die Vielfalt und verbessert die Robustheit des Modells.
KI-Sicherheit
KI-Sicherheit umfasst Schutzmaßnahmen gegen Missbrauch, Manipulation oder Fehlverhalten von Modellen. Dies wird bei zunehmender Automatisierung immer wichtiger.
Modellinterpretierbarkeit
Modellinterpretierbarkeit beschreibt, wie verständlich die Entscheidungen eines Modells sind. Transparenz schafft Vertrauen und erleichtert regulatorische Anforderungen.

