Accuracy
Accuracy beschreibt eine Metrik, die den Anteil der Fälle (sowohl richtig Positive als auch richtig Negative) im Verhältnis zur Gesamtzahl aller Fälle misst. Die Metrik gibt Rückschlüsse auf die Korrektheit des Gesamtmodells, ist insbesondere bei unausgewogene Klassenverteilungen nicht immer repräsentativ.
Anomalieerkennung
Bei der Erkennung von Anomalien geht es um die Identifizierung von Datenpunkten, Ereignissen oder Beobachtungen, die erheblich von dem erwarteten Muster in einem Datensatz abweichen. Diese Ausreißer deuten oft auf Unregelmäßigkeiten, Betrug oder Systemstörungen hin. Mithilfe verschiedener Techniken der Anomalieerkennung sollen verborgene Muster aufgedeckt und mögliche schädliche Vorfälle vorhergesagt werden.
Bestärkendes Lernen
Bezeichnet eine Variante des maschinellen Lernens, bei dem ein Agent lernt, seine Leistung durch Interaktion mit seiner Umgebung zu verbessern. Der Agent lernt anhand von Feedback, dass durch eine Belohnungsfunktion beschrieben wird und beschreibt, wie gut oder schlecht die Aktion des Agenten war. Durch den Prozess des Ausprobierens und Lernens aus Erfahrungen entwickelt der Agent somit Strategien, um komplexe Aufgaben zu lösen oder spezifische Ziele zu erreichen.
Bias
Der Begriff Bias wird allgemein als eine Form der Verzerrung verstanden. In der Psychologie bezieht es sich auf Einstellungen oder Stereotype, die unsere Wahrnehmung der Umwelt, sowie unsere Entscheidungen und Aktionen positiv oder negativ beeinflussen können. Im Kontext von ML bezeichnet Bias einen Fehler, der in den Trainingsdaten vorhanden ist. Diese Verzerrungen können sich auf verschiedene Weisen manifestieren (z. B. durch diskriminierende Sprache, Falschinformationen, etc.) und in jeder Phase des ML-Lebenszyklus entstehen (z B. bei der Datenerhebung, Training und Evaluation).
Big Data
Big Data bezeichnet große und komplexe Datensätze, die von herkömmlichen Datenverarbeitungssystemen nicht effizient verarbeitet werden können. Sie zeichnen sich durch ihr Volumen, ihre Vielfalt, ihre Geschwindigkeit und Wahrhaftigkeit aus und umfassen strukturierte, halbstrukturierte und unstrukturierte Daten. Die Analyse von Big Data liefert Erkenntnisse, Muster und Trends, die die Entscheidungsfindung unterstützen und Innovation vorantreiben können.
Concept Drift
Concept Drift beschreibt die Veränderung der Zuordnung von Eingabevariablen (Merkmalen) und der Zielvariablen (Label). Hierbei kommt es zu Änderungen in der Beziehung, d.h. der Art und Weise, wie sich diese Merkmale darauf beziehen, eine bestimmte Klasse zu beschreiben. Dadurch kann es zu einer Verschlechterung der Leistung und Genauigkeit eines ML-Modells kommen.
Data Drift
Data Drift beschreibt das Problem, wenn es zu einer Veränderung der Verteilung der Eingabevariablen (Merkmale) kommt, jedoch die bedingte Wahrscheinlichkeitsverteilung der Zielvariablen (Label) gleich bleibt (Covariate Shift). Ändern sich die Eingabevariablen (z. B. neue Ausprägungen, längere Texte usw.), kann es sein, dass die Verknüpfung zur ursprünglichen Klasse verschwindet. Ähnliches gilt auch für den Fall, dass sich die Verteilung der Zielvariablen ändert, jedoch für die Eingabevariablen nicht (Label Shift). Entsprechend kann es zu einer Verschlechterung der Leistung und Genauigkeit eines ML-Modells kommen.
Data Leakage
Data Leakage beschreibt ein Konzept, in der ein ML-Modell auf Daten trainiert wird, auf die es eigentlich in der realen Anwendung keinen Zugriff hätte. Das führt dazu, dass das ML-Modell im Rahmen der Evaluation schummelt, indem es etwas vorhersagt, dass bereits im Training schon bekannt war, und somit sehr gut abschneidet. In der praktischen Anwendung jedoch wird es auf neuen, ungesehenen Daten tendenziell schlechter abschneiden.
Deep Learning
Deep Learning ist ein Teilbereich des maschinellen Lernens, bei dem neuronale Netze mit mehreren Schichten verwendet werden. Durch das Training mit großen Datenmengen sind Deep-Learning-Modelle in der Lage, automatisch komplexe Merkmale und Darstellungen aus Rohdaten zu erlernen und zu extrahieren, wodurch eine bemerkenswerte Genauigkeit insbesondere bei der Bearbeitung komplexer Aufgaben wie der Bild- und Spracherkennung und Verarbeitung natürlicher Sprache erreicht werden kann.
Entscheidungsbäume
Entscheidungsbäume (eng. Decision Trees) beschreiben einen nichtparametrischer überwachter Lernalgorithmus, der durch eine hierarchische Aufteilung der Datenpunkte versucht, Entscheidungsregeln zu erlernen, um Daten zu klassifizieren oder kontinuierliche Werte vorherzusagen.
F1-Score
Beschreibt ein Maß für die Genauigkeit eines Modells, das sowohl die Precision als auch den Recall berücksichtigt. Der F1-Score ist definiert als der harmonische Mittelwert, der sowohl die Identifizierung von positiven Fällen als auch die Abdeckungsgrad aller tatsächlichen positiven Fällen ausgleicht. Die Metrik findet häufig in Anwendungsfällen mit unausgewogenen Datensätzen Anwendung.
Fairness
Fairness bezieht sich auf die durch das Training erworbenen Eigenschaften eines KI-Modells und bezeichnet im Kontext der Entscheidungsfindung das Vorhandensein von Vorurteilen oder Bevorzugungen. Ähnlich wie beim Bias ist das Verhalten des ML-Modells auf menschliche Vorurteile und Stereotypisierung durch sensible Datenattribute zurückzuführen. Diese können absichtlich oder unabsichtlich auftreten.
Falsch-Positiv-Rate
Die Falsch-Positiv-Rate (engl. false positive rate) gibt den Anteil der fälschlicherweise als positiv klassifizierten Objekte an der Gesamtheit der tatsächlich negativen Objekte an. Im prüferischen Kontext beschreibt die Metrik somit die Effizienz des zugrundeliegenden Modells.
Halluzination
Large Language Models können dazu neigen, sogenannte „Halluzinationen“ (Falschinformationen) zu erzeugen. Konkret bedeutet das, dass Informationen generiert werden, die überzeugend klingen, aber falsch oder irreführend sind. Dieses Problem entsteht dadurch, dass das Modell Muster in den Trainingsdaten „sieht“, die nicht unbedingt der Realität entsprechen. Entsprechend sind Halluzinationen besonders problematisch für Anwendungsbereiche, in denen der Nutzer auf die Genauigkeit der bereitgestellten Informationen angewiesen ist.
Hyperparameter
Hyperparameter bezeichnen anpassbare Parameter, die Einfluss auf das Verhalten eines maschinellen Lernmodells haben. Bei der Optimierung von Hyperparametern geht es darum, die optimalen Parametereinstellungen zu finden, um die Vorhersagegenauigkeit des Modells zu verbessern und gleichzeitig eine Überanpassung zu verhindern.
Internet der Dinge
Unter dem Internet der Dinge versteht man Technologien, mit denen physische und virtuelle Objekte über das Internet miteinander vernetzt werden. Entsprechende Objekte sind i.d.R. mit Sensoren zur Wahrnehmung der Umgebung sowie mit Aktuatoren zur Ausführung bestimmter Aktionen ausgestattet. Durch diese Vernetzung findet ein stetiger Informationsaustausch statt, wodurch in meist automatisierter Weise verschiedenste Funktionen durch die Objekte erfüllt werden können.
Konfusionsmatrix
Die Konfusionsmatrix (engl. confusion matrix) dient beim ML zur Bewertung der Leistung eines Klassifizierungsmodells. Sie umfasst sämtliche Ergebnisse der Vorhersage eines Modells für einen Datensatz zusammen und vergleicht die Vorhersagen mit den wahren Bezeichnungen in diesen. Die Konfusionsmatrix umfasst insgesamt vier Kennzahlen: True-Positive (TP), False-Positive (FP), True-Negative (TN) und False-Negative (FN). TP gibt die Anzahl der korrekten positiven Klassifizierungen an. Die TN hingegen die Anzahl der korrekten negativen Klassifizierungen (Ablehnungen). FP beschreibt die Anzahl der falschen positiven Klassifizierungen (Fehlalarm) wohingegen FN die positiven Klassifizierungen, die fälschlicherweise als negativ klassifiziert wurden, angibt.
Große Sprachmodelle
Sehr große und umfangreiche neuronale Netze, die in der Regel aus Milliarden von Parametern bestehen und auf einer sehr großen Menge an Datensätzen trainiert werden, um menschenähnlichen Text zu verstehen, zu interpretieren und zu erzeugen. Große Sprachmodelle, insbesondere solche, die auf der Transformer-Architektur basieren, haben mehrere Vorteile gegenüber anderen Netzwerkarchitekturen wie Recurrent Neural Networks (RNN) und Long Short-Term Memory (LSTM) Netzwerke, da Texteingaben parallel verarbeitet und Kontext mitberücksichtigt wird.
LIME
LIME ist ein lokales Verfahren zur Erklärung von Vorhersagen für eine Eingabe. Es benötigt darüber hinaus kein „Wissen“ über Details des zu erklärenden Modells (bspw. dessen Architektur), wodurch dieser Ansatz für unterschiedlichste Modellarten ohne tiefergehende Anpassungen herangezogen werden kann. Die zentrale Vorgehensweise bei diesem Ansatz besteht darin, dass die ursprünglichen Trainingsdaten manipuliert und dadurch bedingte „Verhaltensänderungen“ des zu erklärenden Modells gemessen werden. Konkret wird basierend auf den manipulierten Daten und den neu erhaltenen Vorhersagen ein weiteres erklärbares Modell (z. B. ein lineares Modell) trainiert, um die resultierenden Abweichungen zu erfassen.
Maschinelles Lernen
Maschinelles Lernen (ML) ist ein Teilbereich der KI, das sich mit der Entwicklung mathematisch-statistischer Verfahren beschäftigt, um Algorithmen die Fähigkeit zu verleihen, anhand von Daten selbstständig zu "lernen“, ohne dass sie explizit programmiert werden müssen. Die Art und Weise, wie Algorithmen lernen, kann in drei Klassen unterschieden werden: Überwachtes Lernen, Unüberwachtes Lernen und Bestärkendes Lernen.
Model Drift
Bezeichnet die Veränderung der Leistung und Genauigkeit eines ML-Modells im Laufe der Zeit aufgrund Veränderungen in den Eingabedaten. Allgemein wird zwischen zwei Arten von Veränderung unterschieden, nämlich Concept Drift und Data Drift.
Natural Language Processing
Teilgebiet der KI, das sich mit der Verarbeitung und dem Verstehen natürlicher Sprache beschäftigt. Dazu kombiniert es Konzepte aus den Bereichen der Computerlinguistik, Kognitionswissenschaft und Informatik., Dadurch lässt sich Sprache (geschrieben, gesprochen, visuell) interpretieren, um Aufgaben wie Übersetzungen, Sentiment Analysen, Textgenerierung und Chatbots zu unterstützen.
Optical Character Recognition (OCR)
Bezeichnet eine Klasse von verschiedenen Technologien zur Übersetzung einer optischen oder auch bildhaften Darstellung eines Schriftzeichens in seine maschinenlesbare Form. Dies kann neben den Symbolen in eingescannten maschinellen Texten auch handschriftlich ausgefüllte Formulare oder ganze schreiben umfassen. OCR umfasst allerding lediglich den Schritt der direkten Umwandelung einzelner Symbole und Symbolketten. Eine Zuordnung der Symbolketten zu einzelnen Kategorien, wie Formularfeldern oder spezifischen Nummern wird durch OCR nicht abgedeckt, sondern nur in Kombination mit der Technologie Informationsextraktion.
Parameter-Efficient Fine-Tuning (PEFT)
Beschreibt Techniken, vortrainierte Modelle mit einer minimalen Anzahl von zusätzlichen oder angepassten Parametern für eine spezifische Aufgabe anzupassen. Ziel ist es, die Leistungsfähigkeit von großen Sprachmodellen zu nutzen, ohne alle Modellparameter anzupassen. Dadurch sind PEFT-Techniken deutlich ressourceneffizienter und schneller umzusetzen, ohne signifikant an Modellperformanz zu verlieren.
Precision
Die Präzision (engl. precision) beschreibt, wie viele richtig vorhergesagte positive Fälle es unter allen vorhergesagten positiven Fällen (richtig und falsch) gibt. Die Metrik gibt einen spezifischen Einblick, wie gut das Modell Transaktionen der positiven Klasse klassifiziert und falsch-positive Fälle vermieden werden.
Retrieval-Augmented Generation (RAG)
Ein RAG-System kombiniert ein großes Sprachmodell mit einem Retrieval-System, um relevante Informationen aus einer großen Datenbank oder einem Dokumentenkorpus als Kontext für die Lösung der zugrundeliegenden Aufgabe nutzen. Diese Methode ermöglicht es, präzise und informierte Antworten zu generieren, indem sie spezifische Informationen zusätzlich bereitstellt, die über das ursprüngliche Trainingsdatenset des großen Sprachmodells hinausgehen.
Recall
Der Recall misst wie viele richtig vorhergesagte positive Fälle es unter allen tatsächlichen positiven Fällen gibt und beschreibt somit den Abdeckungsgrad der Vorhersage, wie viele der tatsächlichen positiven Fälle identifiziert werden (Vermeidung von falsch positiven Fällen).
Richtig-Positiv-Rate
Die Richtig-Positiv-Rate (engl. true positive rate) gibt den Anteil der richtig positiv klassifizierten Objekte an der Gesamtheit der tatsächlich positiven Objekte an. Sie gibt an, wie sensitiv das Modell auf positive Objekte reagiert.
RLHF
Reinforcement Learning from Human Feedback (RLHF) bezeichnet einen Ansatz im maschinellen Lernen, bei dem ein KI-Modell wie bspw. GPT-4 durch menschliches Feedback statt ausschließlich durch vordefinierte Belohnungsfunktionen trainiert werden. Dies ermöglicht es dem Modell, komplexe Aufgabenstellungen zu erfassen und menschliches Verhalten oder Präferenzen besser zu verstehen.
SHAP
SHAP ist ein lokales XAI-Verfahren und basiert auf grundlegenden Konzepten der Spieltheorie. Das Ziel von SHAP ist, den Einfluss einzelner Datenattribute auf die Vorhersagen zu identifizieren. Dies gelingt durch Betrachtung von permutierten Teilmengen von Datenattributen und den dadurch bedingten Auswirkungen auf die Vorhersagen. Konkret werden Teilmengen abgeleitet, in denen ursprüngliche Werte gewisser Attribute durch randomisierte Werte ersetzt werden. Die Idee dahinter ist, dass solche randomisierten Ausprägungen keine Vorhersagekraft besitzen. Bei SHAP wird für jedes Attribut der sog. Shapley Value berechnet, welcher u. a. auf der Differenz zwischen den Vorhersagen mit und ohne Betrachtung des zugrundeliegenden Attributes basiert. Durch diese Differenzen können schlussendlich Einflüsse der einzelnen Attribute erhoben werden.
Transfer Learning
Bezeichnet einen ML-Ansatz, bei dem ML-Modelle die auf eine spezifische Aufgabe trainiert wurden, auf eine artverwandte Aufgabe angewandt werden. Transfer Learning ermöglicht es das Wissen eines Modells zu nutzen, um eine andere Aufgabe besser zu bewältigen. Dies betrifft insbesondere Aufgaben, die ein gewissen “Allgemeinverständnis” benötigen, wie bspw. Die Verarbeitung natürlicher Sprache oder Computer Vision.
Unüberwachtes Lernen
Bezeichnet einen ML-Ansatz, bei dem Algorithmen Muster und Strukturen in Daten erkennen, ohne dass explizite Anweisungen oder gelabelte Daten vorgegeben werden. Diese Technik wird häufig eingesetzt, um verborgene Zusammenhänge in großen und ungelabelten Datensätzen zu entdecken.
Überwachtes Lernen
Bezeichnet einen ML- Ansatz im Machine Learning, bei dem ein Modell anhand von gelabelten Trainingsdaten trainiert werden, um eine Beziehung zwischen Eingabedaten und ihren zugehörigen Ausgaben (Labels) zu erlernen. Das Ziel besteht darin, auf Grundlage der Trainingsdaten Vorhersagen oder Entscheidungen für neue, ungesehene Daten zu treffen.