KI-Jargon-Entschlüssler

Entmystifizieren Sie die Terminologie der künstlichen Intelligenz mit unserem umfassenden Glossar. Von maschinellem Lernen bis hin zu neuronalen Netzen erklären wir komplexe KI-Konzepte in einfachen Worten.

Alignment (Alignment)

Alignment
Der Prozess, sicherzustellen, dass die Ziele, Ausgaben und Verhaltensweisen eines KI-Systems mit menschlichen Zielen und Werten übereinstimmen. Dies ist besonders wichtig bei fortgeschrittenen Systemen, die Verhaltensweisen entwickeln könnten, die nicht explizit beabsichtigt sind.
Beispiel: Sicherstellen, dass ein Chatbot für psychische Gesundheit niemals schädliche Handlungen empfiehlt, unabhängig von den Eingabeaufforderungen.

Application Programming Interface (API) (Application Programming Interface (API))

Application Programming Interface (API)
Eine Reihe definierter Regeln und Protokolle, die es verschiedenen Softwaresystemen ermöglichen, zu kommunizieren und Daten auszutauschen.
Beispiel: Verwendung der OpenAI-API, um eine Eingabeaufforderung zu senden und eine von einem Sprachmodell generierte Antwort in Ihrer Webanwendung zu erhalten.

Artificial General Intelligence (AGI) (Artificial General Intelligence (AGI))

Artificial General Intelligence (AGI)
Eine theoretische Form der KI, die jede intellektuelle Aufgabe ausführen kann, die ein Mensch ausführen kann. Sie generalisiert das Lernen über Domänen hinweg.
Beispiel: Ein AGI-System könnte Musikkomposition lernen, eine Operation durchführen und ein Examen in Philosophie bestehen, ohne aufgabenspezifische Programmierung.

Künstliche Intelligenz (KI) (Artificial Intelligence (AI))

Artificial Intelligence (AI)
Die Simulation menschlicher Intelligenz in Maschinen, die so programmiert sind, dass sie denken, schlussfolgern und autonom handeln.
Beispiel: KI treibt persönliche Assistenten wie Siri und autonome Fahrsysteme wie Tesla Autopilot an.

KI-Ethik (AI Ethics)

AI Ethics
Eine Disziplin, die sich mit den moralischen Implikationen der KI-Entwicklung und -Nutzung befasst, einschließlich Fairness, Datenschutz, Rechenschaftspflicht und Nichtdiskriminierung.
Beispiel: Erstellung von Richtlinien, um zu verhindern, dass Einstellungsalgorithmen aufgrund von Geschlecht oder Ethnie diskriminieren.

Augmented Intelligence (Augmented Intelligence)

Augmented Intelligence
Ein kollaboratives Modell, bei dem KI die menschliche Intelligenz ergänzt und verbessert, anstatt sie zu ersetzen.
Beispiel: KI-gestützte Radiologie-Tools, die Anomalien für Ärzte hervorheben, die die endgültige Diagnose stellen.

Autonomer Agent (Autonomous Agent)

Autonomous Agent
Ein KI-System, das in der Lage ist, eigene Entscheidungen zu treffen und Maßnahmen zu ergreifen, um seine Ziele ohne menschliches Eingreifen zu erreichen.
Beispiel: Ein selbstfahrender Lieferroboter, der selbstständig durch Stadtstraßen navigiert und Hindernissen ausweicht.

Backpropagation (Backpropagation)

Backpropagation
Eine Technik zum Trainieren neuronaler Netze durch Aktualisierung der Gewichte in umgekehrter Richtung von den Ausgabe- zu den Eingabeschichten, wodurch Vorhersagefehler minimiert werden.
Beispiel: Wird beim Trainieren von Bildklassifikatoren verwendet, um die Fehlerrate bei der Erkennung handschriftlicher Ziffern zu reduzieren.

Bias (Algorithmischer Bias) (Bias (Algorithmic Bias))

Bias (Algorithmic Bias)
Unbeabsichtigte und systematische Bevorzugung von KI-Ergebnissen aufgrund unausgewogener oder nicht repräsentativer Trainingsdaten.
Beispiel: Ein Gesichtserkennungssystem, das Personen mit dunkler Hautfarbe aufgrund von Unterrepräsentation in den Trainingsdaten häufiger falsch identifiziert.

Big Data (Big Data)

Big Data
Extrem große Datensätze, die spezielle Werkzeuge zum Speichern, Analysieren und Extrahieren von Werten erfordern und oft zum Trainieren von KI-Modellen verwendet werden.
Beispiel: Verwendung von Millionen von Benutzerinteraktionen zum Trainieren von Empfehlungsmaschinen für E-Commerce-Plattformen.

Black-Box-Modell (Black Box Model)

Black Box Model
Eine Art von KI- oder maschinellem Lernmodell, dessen interne Logik für Menschen nicht leicht interpretierbar ist, was es schwierig macht zu verstehen, wie Entscheidungen getroffen werden.
Beispiel: Ein tiefes neuronales Netz, das zur Genehmigung von Krediten verwendet wird, aber keine klare Erklärung dafür liefert, warum ein Antragsteller akzeptiert und ein anderer abgelehnt wurde.

Kognitive Informatik (Cognitive Computing)

Cognitive Computing
KI-Systeme, die darauf ausgelegt sind, menschliche Denkprozesse wie Schlussfolgern und Lernen mithilfe von Techniken wie NLP und Mustererkennung zu simulieren.
Beispiel: Ein kognitives Computersystem, das Juristen bei der Analyse von Fallrecht und der Vorhersage von Ergebnissen unterstützt.

Computer Vision (Computer Vision)

Computer Vision
Ein Bereich der künstlichen Intelligenz, der es Computern ermöglicht, visuelle Daten wie Bilder und Videos zu interpretieren und zu verarbeiten.
Beispiel: Gesichtserkennungssysteme, die Personen in Überwachungsvideos mithilfe von Computer Vision identifizieren.

Korpus (Corpus)

Corpus
Eine große Sammlung von geschriebenen oder gesprochenen Texten, die zum Trainieren von Sprachmodellen verwendet wird.
Beispiel: Der Common Crawl-Datensatz ist ein öffentlicher Webkorpus, der zum Trainieren großer Sprachmodelle wie GPT verwendet wird.

Daten-Drift (Data Drift)

Data Drift
Das Phänomen, bei dem sich Eingabedaten im Laufe der Zeit ändern, was zu einer Verschlechterung der Modellleistung führt.
Beispiel: Ein Modell für vorausschauende Wartung von Industrieanlagen wird weniger genau, da neue Sensortechnologien eingeführt werden.

Daten-Labeling (Data Labelling)

Data Labelling
Der Prozess der Annotation von Daten mit Tags oder Labels, um sie für das überwachte Lernen geeignet zu machen.
Beispiel: Beschriftung von Tausenden von Tumorbildern als gutartig oder bösartig, um ein Krebsdiagnosemodell zu trainieren.

Data Mining (Data Mining)

Data Mining
Der Prozess der Entdeckung aussagekräftiger Muster, Korrelationen und Anomalien in großen Datensätzen.
Beispiel: Einzelhändler nutzen Data Mining, um festzustellen, dass Personen, die Windeln kaufen, auch Bier kaufen.

Deep Learning (Deep Learning)

Deep Learning
Ein Teilbereich des maschinellen Lernens, der mehrschichtige neuronale Netze verwendet, um komplexe Muster in Daten zu modellieren.
Beispiel: Deep Learning wird in Sprachmodellen wie GPT-4 und Bildgenerierungsmodellen wie Stable Diffusion verwendet.

Diffusionsmodelle (Diffusion Models)

Diffusion Models
Eine Klasse von generativen Modellen, die lernen, Daten zu erzeugen, indem sie zufälliges Rauschen schrittweise in strukturierte Ausgaben umwandeln.
Beispiel: Stable Diffusion erstellt fotorealistische Bilder aus Textaufforderungen mithilfe von Diffusionstechniken.

Embedding (Embedding)

Embedding
Eine numerische Vektorrepräsentation von Daten, die häufig verwendet wird, um die semantische Bedeutung von Wörtern, Bildern oder Sätzen zu erfassen.
Beispiel: In NLP kann das Wort 'Bank' ähnliche Embeddings wie 'Geld' haben, aber je nach Kontext anders als 'Flussufer'.

Epoche (Epoch)

Epoch
Eine vollständige Iteration über den gesamten Trainingsdatensatz während des Trainingsprozesses eines Modells für maschinelles Lernen.
Beispiel: Wenn ein Datensatz 1.000 Beispiele enthält und ein Modell sie alle einmal während des Trainings sieht, ist das eine Epoche.

Ethische KI (Ethical AI)

Ethical AI
Eine Design- und Bereitstellungsphilosophie, die sicherstellt, dass KI-Technologien transparent, gerecht und im Einklang mit gesellschaftlichen Werten arbeiten.
Beispiel: Ein KI-Einstellungstool, das Bias-Prüfungen enthält, um Diskriminierung von Minderheitskandidaten zu verhindern.

Expertensystem (Expert System)

Expert System
Ein KI-System, das die Entscheidungsfähigkeiten eines menschlichen Experten in einem bestimmten Bereich mithilfe von Regeln und Logik nachahmt.
Beispiel: Ein Expertensystem, das in der Landwirtschaft zur Empfehlung von Pflanzenbehandlungen auf der Grundlage von Bodendaten und Schädlingshistorie eingesetzt wird.

Erklärbare KI (XAI) (Explainable AI (XAI))

Explainable AI (XAI)
KI-Systeme, die so konzipiert sind, dass ihre internen Prozesse und Entscheidungen für Menschen verständlich sind, was Vertrauen und Rechenschaftspflicht erhöht.
Beispiel: Eine medizinische Diagnose-KI, die nicht nur eine Empfehlung gibt, sondern auch erklärt, welche Symptome zu dieser Schlussfolgerung geführt haben.

Few-Shot-Learning (Few-shot Learning)

Few-shot Learning
Eine Methode des maschinellen Lernens, bei der ein Modell mit nur einer kleinen Anzahl von beschrifteten Beispielen trainiert oder feinabgestimmt wird.
Beispiel: Anpassung eines LLM zum Schreiben von juristischen E-Mails nach dem Zeigen von nur 10 Beispielen.

Fine-Tuning (Fine-tuning)

Fine-tuning
Der Prozess, ein vortrainiertes Modell zu nehmen und es auf einem neuen, kleineren Datensatz weiter zu trainieren, um es für eine bestimmte Aufgabe zu spezialisieren.
Beispiel: Feinabstimmung eines allgemeinen LLM wie GPT auf interne juristische Dokumente, um einen Assistenten für juristische Entwürfe zu erstellen.

Foundation Model (Foundation Model)

Foundation Model
Ein groß angelegtes Modell, das auf vielfältigen und breiten Daten trainiert wurde und an viele nachgelagerte Aufgaben angepasst werden kann.
Beispiel: GPT-4 und PaLM 2 sind Foundation Models, die Zusammenfassungen, Fragen und Antworten, Übersetzungen und mehr durchführen können.

Fuzzy Logic (Fuzzy Logic)

Fuzzy Logic
Eine Form der Logik, die mit ungefähren Werten anstelle von fester Wahr/Falsch (binärer) Logik umgeht und für die Schlussfolgerung unter Unsicherheit nützlich ist.
Beispiel: Wird in Klimaanlagen verwendet, um die Temperatur basierend auf unscharfen Eingaben wie 'etwas warm' oder 'sehr kalt' anzupassen.

Generative Adversarial Network (GAN) (Generative Adversarial Network (GAN))

Generative Adversarial Network (GAN)
Eine generative Modellarchitektur, bei der zwei Netzwerke – ein Generator und ein Diskriminator – um die Verbesserung der Ausgabequalität konkurrieren.
Beispiel: GANs werden verwendet, um Deepfake-Videos zu erstellen oder realistische Produktfotos aus Skizzen zu generieren.

Generative KI (Generative AI)

Generative AI
Eine Kategorie künstlicher Intelligenz, die neue Inhalte – wie Text, Bilder, Musik oder Video – aus Trainingsdaten erstellen kann.
Beispiel: ChatGPT generiert Blogbeiträge oder Midjourney erstellt digitale Kunstwerke aus Textaufforderungen.

Generative Pre-trained Transformer (GPT) (Generative Pre-trained Transformer (GPT))

Generative Pre-trained Transformer (GPT)
Eine Klasse großer Sprachmodelle, die von OpenAI entwickelt wurden und eine Transformer-Architektur verwenden und auf riesigen Mengen von Textdaten vortrainiert wurden, um eine Vielzahl von Sprachaufgaben auszuführen.
Beispiel: GPT-4 ist in der Lage, Aufsätze zu schreiben, Sprachen zu übersetzen und Dokumente mit minimalen Eingabeaufforderungen zusammenzufassen.

Genetischer Algorithmus (Genetic Algorithm)

Genetic Algorithm
Eine Optimierungstechnik, die von der natürlichen Selektion inspiriert ist, bei der sich Lösungen im Laufe der Zeit durch Mutation, Kreuzung und Selektion entwickeln.
Beispiel: Wird verwendet, um effiziente neuronale Netzwerkarchitekturen zu entwerfen, indem das Überleben des Stärksten simuliert wird.

Halluzination (Hallucination)

Hallucination
Die Erzeugung von plausibel klingenden, aber sachlich falschen oder unsinnigen Inhalten durch ein KI-Modell.
Beispiel: Ein Sprachmodell erfindet eine nicht existierende Zitation oder liefert falsche historische Fakten.

Heuristik (Heuristic)

Heuristic
Ein praktischer Ansatz zur Problemlösung, der keine perfekte Lösung garantiert, aber für unmittelbare Ziele ausreichend ist.
Beispiel: Verwendung einer Faustregel zur Schätzung der Lieferzeit in einem Logistik-KI-System.

Hyperparameter (Hyperparameter)

Hyperparameter
Ein Konfigurationswert, der vor dem Trainieren eines Modells für maschinelles Lernen festgelegt wird, wie z. B. die Lernrate oder die Anzahl der Schichten.
Beispiel: Anpassung der Batch-Größe von 32 auf 128, um die Trainingsgeschwindigkeit und die Modellleistung zu verbessern.

Inferenz (Inference)

Inference
Der Prozess der Verwendung eines trainierten Modells für maschinelles Lernen, um Vorhersagen zu treffen oder Ausgaben aus neuen Daten zu generieren.
Beispiel: Verwendung eines feinabgestimmten GPT-Modells zum Entwerfen von E-Mails für ein Kundensupport-Team.

Intent Detection (Intent Detection)

Intent Detection
Eine Aufgabe im Bereich des natürlichen Sprachverständnisses, bei der das System das Ziel oder die Absicht des Benutzers in einer Nachricht identifiziert.
Beispiel: In einem Chatbot wird 'Ich möchte einen Flug buchen' als Absicht zur Reisebuchung erkannt.

Internet der Dinge (IoT) (Internet of Things (IoT))

Internet of Things (IoT)
Ein Netzwerk miteinander verbundener physischer Geräte, die mit Sensoren, Software und anderen Technologien ausgestattet sind, um Daten zu sammeln und auszutauschen.
Beispiel: Intelligente Thermostate und Kühlschränke, die Nutzungsdaten melden und Einstellungen mithilfe von KI-Analysen anpassen.

Interpretierbarkeit (Interpretability)

Interpretability
Das Ausmaß, in dem ein Mensch die internen Mechanismen eines Modells für maschinelles Lernen und seinen Entscheidungsprozess verstehen kann.
Beispiel: Ein Entscheidungsbaum ist interpretierbarer als ein tiefes neuronales Netz, da seine Entscheidungen nachvollziehbar sind.

Jupyter Notebook (Jupyter Notebook)

Jupyter Notebook
Eine Open-Source-Umgebung für interaktives Rechnen, die es Benutzern ermöglicht, Code zu schreiben, Ausgaben zu visualisieren und Analysen in einer einzigen Oberfläche zu dokumentieren.
Beispiel: Datenwissenschaftler verwenden Jupyter Notebooks, um Modelle für maschinelles Lernen zu prototypisieren und Ergebnisse zu teilen.

K-Nearest Neighbours (KNN) (K-Nearest Neighbours (KNN))

K-Nearest Neighbours (KNN)
Ein einfacher, nicht-parametrischer Algorithmus für maschinelles Lernen, der für Klassifizierung und Regression verwendet wird. Er trifft Entscheidungen basierend auf den nächstgelegenen Trainingsbeispielen im Merkmalsraum.
Beispiel: Um eine neue Frucht als Apfel oder Birne zu klassifizieren, prüft KNN, welche beschrifteten Früchte in Form und Farbe am nächsten liegen.

Wissensgraph (Knowledge Graph)

Knowledge Graph
Eine Datenstruktur, die Knoten und Kanten verwendet, um verknüpfte Beschreibungen von Entitäten und ihren Beziehungen darzustellen und zu speichern.
Beispiel: Googles Wissenspanel wird von einem Wissensgraphen angetrieben, der Entitäten wie Personen, Orte und Ereignisse miteinander verbindet.

Language Learning Model Optimisation (LLMO) (Language Learning Model Optimisation (LLMO))

Language Learning Model Optimisation (LLMO)
Techniken zur Verbesserung der Leistung, Effizienz oder Anpassungsfähigkeit von großen Sprachmodellen für spezifische Aufgaben oder Domänen.
Beispiel: Verwendung von Quantisierung und Instruktions-Tuning zur Optimierung eines LLM für den Unternehmenseinsatz.

Large Language Model (LLM) (Large Language Model (LLM))

Large Language Model (LLM)
Eine Art von Deep-Learning-Modell, das auf riesigen Mengen von Textdaten trainiert wurde und in der Lage ist, menschliche Sprache zu generieren, zu verstehen und damit zu schlussfolgern.
Beispiel: ChatGPT und Claude sind LLMs, die darauf trainiert sind, beim Schreiben, Programmieren und Beantworten von Fragen zu helfen.

Latenter Raum (Latent Space)

Latent Space
Eine hochdimensionale abstrakte Darstellung, in der ähnliche Eingaben nahe beieinander gruppiert sind und die in generativen Modellen und Embeddings verwendet wird.
Beispiel: Bei der Bildgenerierung kann die Manipulation des latenten Raums Merkmale wie Helligkeit oder Emotionen verändern.

Lernrate (Learning Rate)

Learning Rate
Ein wichtiger Hyperparameter beim Training, der steuert, wie stark die Modellgewichte in Bezug auf den Verlustgradienten angepasst werden.
Beispiel: Eine hohe Lernrate kann dazu führen, dass Minima übersprungen werden, während eine zu niedrige Rate den Trainingsfortschritt verlangsamt.

Maschinelles Lernen (ML) (Machine Learning (ML))

Machine Learning (ML)
Ein Zweig der KI, der es Systemen ermöglicht, aus Daten zu lernen und die Leistung zu verbessern, ohne explizit programmiert zu werden.
Beispiel: Spamfilter verwenden maschinelles Lernen, um E-Mails basierend auf früheren Beispielen als Spam oder nicht als Spam zu klassifizieren.

Modell-Drift (Model Drift)

Model Drift
Ein Phänomen, bei dem die Genauigkeit eines Modells im Laufe der Zeit aufgrund von Änderungen in den Daten oder der Umgebung abnimmt.
Beispiel: Ein Betrugserkennungsmodell wird weniger genau, da sich Betrugstaktiken weiterentwickeln.

Modelltraining (Model Training)

Model Training
Der Prozess, Daten an ein Modell für maschinelles Lernen zu übergeben und seine Parameter anzupassen, um den Fehler zu minimieren.
Beispiel: Trainieren einer Empfehlungsmaschine auf der Kaufhistorie von Kunden, um neue Produkte vorzuschlagen.

Multimodale KI (Multimodal AI)

Multimodal AI
KI-Systeme, die in der Lage sind, mehrere Datentypen wie Text, Bilder, Audio und Video zu verarbeiten und zu integrieren.
Beispiel: Ein Modell wie GPT-4 Vision, das Text lesen und Bilder gleichzeitig interpretieren kann.

Natürliche Sprachverarbeitung (NLP) (Natural Language Processing (NLP))

Natural Language Processing (NLP)
Ein Teilbereich der KI, der sich auf die Interaktion zwischen Computern und menschlichen (natürlichen) Sprachen konzentriert. Er ermöglicht es Maschinen, in menschlicher Sprache zu lesen, zu verstehen und zu antworten.
Beispiel: NLP wird in Sprachassistenten, Sprachübersetzungs-Apps und Chatbots verwendet.

Neuronales Netz (Neural Network)

Neural Network
Ein Modell des maschinellen Lernens, das von der Struktur des menschlichen Gehirns inspiriert ist und aus Schichten miteinander verbundener Knoten (Neuronen) besteht.
Beispiel: Neuronale Netze stehen hinter Deep-Learning-Modellen, die in der Bild- und Spracherkennung verwendet werden.

Rauschen (Noise)

Noise
Zufällige oder irrelevante Informationen in Daten, die aussagekräftige Muster verdecken und die Modellleistung negativ beeinflussen können.
Beispiel: Sensorfehler oder mit Tippfehlern gefüllte Dateneinträge können als Rauschen betrachtet werden.

Ontologie (Ontology)

Ontology
Ein strukturierter Rahmen, der Konzepte innerhalb einer Domäne kategorisiert und ihre Beziehungen definiert, der häufig in semantischen KI-Systemen verwendet wird.
Beispiel: Eine Ontologie im Gesundheitswesen könnte definieren, wie Symptome mit Krankheiten und Behandlungen zusammenhängen.

Overfitting (Overfitting)

Overfitting
Ein Modellierungsfehler, bei dem ein Modell für maschinelles Lernen Rauschen in den Trainingsdaten erfasst und bei neuen Daten schlecht abschneidet.
Beispiel: Ein Modell, das Trainingsantworten auswendig lernt, aber keine ungesehenen Testdaten verarbeiten kann, ist überangepasst.

Prädiktive Analytik (Predictive Analytics)

Predictive Analytics
Die Nutzung von Daten, Algorithmen und KI, um die Wahrscheinlichkeit zukünftiger Ergebnisse auf der Grundlage historischer Daten zu identifizieren.
Beispiel: Einzelhändler nutzen prädiktive Analysen, um die Nachfrage nach bestimmten Produkten vorherzusagen.

Pre-Training (Pre-training)

Pre-training
Der Prozess des anfänglichen Trainierens eines Modells auf einem großen, allgemeinen Datensatz, bevor es für spezifische Aufgaben feinabgestimmt wird.
Beispiel: GPT-Modelle werden auf großen Korpora vortrainiert, bevor sie für Kundenservice-Chatbots angepasst werden.

Prompt Engineering (Prompt Engineering)

Prompt Engineering
Die Kunst und Wissenschaft, effektive Eingabeaufforderungen zu erstellen, um die Ausgabe von großen Sprachmodellen zu steuern.
Beispiel: Hinzufügen von Systemanweisungen wie 'Antworte als höflicher Tutor' ist ein Beispiel für Prompt Engineering.

Quantisierung (Quantisation)

Quantisation
Eine Technik zur Modellkomprimierung, die die Anzahl der Bits reduziert, die zur Darstellung von Gewichten und Aktivierungen verwendet werden, und so die Effizienz verbessert.
Beispiel: Die Quantisierung eines Modells von 32-Bit auf 8-Bit verbessert die Leistung auf mobilen Geräten.

Quantencomputing (Quantum Computing)

Quantum Computing
Ein neues Paradigma des Computings, das auf Quantenmechanik basiert und Potenzial für exponentielle Verarbeitungskapazitäten birgt.
Beispiel: Quantencomputing könnte eines Tages das KI-Training über klassische Grenzen hinaus beschleunigen.

Reasoning Engine (Reasoning Engine)

Reasoning Engine
Ein System in der KI, das logische Schlussfolgerungen aus einer Reihe von Fakten oder Daten mithilfe von Regeln oder Inferenzalgorithmen ableitet.
Beispiel: Ein KI-Diagnosewerkzeug verwendet eine Reasoning Engine, um mögliche medizinische Zustände basierend auf Symptomen abzuleiten.

Reinforcement Learning (RL) (Reinforcement Learning (RL))

Reinforcement Learning (RL)
Ein Bereich des maschinellen Lernens, in dem Agenten durch Interaktion mit ihrer Umgebung lernen, um kumulative Belohnungen zu maximieren.
Beispiel: Ein Roboter lernt, mithilfe von RL-Techniken durch Versuch und Irrtum zu laufen.

Reinforcement Learning with Human Feedback (RLHF) (Reinforcement Learning with Human Feedback (RLHF))

Reinforcement Learning with Human Feedback (RLHF)
Eine Lernmethode, bei der menschliche Präferenzen das Belohnungssignal der KI steuern, die häufig beim Feinabstimmen von Sprachmodellen verwendet wird.
Beispiel: ChatGPT wurde mit RLHF trainiert, um hilfreichere und sicherere Antworten zu geben.

Retrieval-Augmented Generation (RAG) (Retrieval-Augmented Generation (RAG))

Retrieval-Augmented Generation (RAG)
Eine Methode, die Informationsabruf mit Generierung kombiniert, bei der ein LLM relevante Dokumente abruft, um seine Antwort zu verbessern.
Beispiel: Ein KI-Assistent ruft Produktspezifikationen ab und zitiert sie, während er eine Antwort auf eine technische Frage generiert.

Self-Supervised Learning (Self-Supervised Learning)

Self-Supervised Learning
Ein Trainingsansatz, bei dem das Modell Muster lernt, indem es seine eigenen Labels aus Rohdaten generiert, wodurch die Abhängigkeit von menschlich annotierten Daten reduziert wird.
Beispiel: BERT wird mit Self-Supervised Learning trainiert, indem fehlende Wörter in Texten vorhergesagt werden.

Semantische Suche (Semantic Search)

Semantic Search
Eine Suchtechnik, die die Absicht des Benutzers und die kontextuelle Bedeutung versteht, nicht nur die Schlüsselwortübereinstimmung.
Beispiel: Die Suche nach 'wie man einen tropfenden Wasserhahn repariert' liefert Anleitungen, auch wenn der Begriff 'tropfender Wasserhahn' nicht im Dokument vorkommt.

Sentimentanalyse (Sentiment Analysis)

Sentiment Analysis
Der Prozess der Identifizierung von Emotionen, Meinungen oder Einstellungen in Texten, oft klassifiziert als positiv, negativ oder neutral.
Beispiel: Analyse von Tweets, um die öffentliche Reaktion auf ein neues Produkt einzuschätzen.

Stochastisch (Stochastic)

Stochastic
Mit Zufälligkeit oder probabilistischem Verhalten verbunden, oft in generativen KI- und Optimierungsalgorithmen verwendet.
Beispiel: Die Ausgabe von GPT-4 variiert für dieselbe Eingabe aufgrund seines stochastischen Dekodierungsprozesses.

Starke KI (Strong AI)

Strong AI
Auch bekannt als Künstliche Allgemeine Intelligenz (KAI), bezieht sich auf Maschinen mit menschlichen kognitiven Fähigkeiten in allen Bereichen.
Beispiel: Eine zukünftige KI, die autonom Romane schreiben, Städte planen und ethische Dilemmata gleichermaßen gut lösen kann.

Super Artificial Intelligence (SAI) (Super Artificial Intelligence (SAI))

Super Artificial Intelligence (SAI)
Eine theoretische KI, die die menschliche Intelligenz in allen Aspekten weit übertrifft – Schlussfolgerung, Kreativität, emotionale Intelligenz usw.
Beispiel: Eine SAI könnte theoretisch neue Wissenschaften und Philosophien unabhängig entwickeln.

Überwachtes Lernen (Supervised Learning)

Supervised Learning
Eine Methode des maschinellen Lernens, bei der Modelle auf beschrifteten Daten trainiert werden, um Eingabe-Ausgabe-Zuordnungen zu lernen.
Beispiel: Ein Modell beibringen, E-Mails basierend auf historischen Beispielen als Spam oder nicht als Spam zu klassifizieren.

Synthetische Daten (Synthetic Data)

Synthetic Data
Künstlich generierte Daten, die reale Daten simulieren und häufig zum Trainieren verwendet werden, wenn reale Daten knapp oder sensibel sind.
Beispiel: Erstellung synthetischer medizinischer Bilder zum Trainieren von Diagnosemodellen, ohne die Privatsphäre der Patienten zu verletzen.

Token (Token)

Token
Eine Texteinheit, die von LLMs verarbeitet wird – typischerweise ein Wort oder ein Wortteil.
Beispiel: Der Satz 'Hallo Welt!' wird in 3 Tokens aufgeteilt: 'Hallo', 'Welt' und '!'.

Tokenisierung (Tokenisation)

Tokenisation
Der Prozess der Zerlegung von Text in Tokens zur Verarbeitung durch ein Modell.
Beispiel: In NLP wird 'ChatGPT ist großartig' zu ['Chat', 'G', 'PT', 'ist', 'großartig'].

Transfer Learning (Transfer Learning)

Transfer Learning
Verwendung von Wissen aus einer Aufgabe zur Verbesserung des Lernens bei einer anderen verwandten Aufgabe, wodurch Trainingszeit und Datenbedarf reduziert werden.
Beispiel: Feinabstimmung eines auf englischem Text trainierten Modells, um die Sentimentanalyse in einer anderen Sprache durchzuführen.

Transformer (Transformer)

Transformer
Eine neuronale Netzwerkarchitektur, die Aufmerksamkeitsmechanismen verwendet, um sequentielle Daten zu modellieren, die in LLMs weit verbreitet sind.
Beispiel: BERT, GPT und T5 sind allesamt Transformer-basierte Modelle.

Underfitting (Underfitting)

Underfitting
Wenn ein Modell zu simpel ist, um die Muster in den Trainingsdaten zu erfassen, was zu schlechter Leistung führt.
Beispiel: Ein lineares Modell, das versucht, komplexe Bildklassifizierungen vorherzusagen, kann unterangepasst sein.

Unüberwachtes Lernen (Unsupervised Learning)

Unsupervised Learning
Ein Lernansatz, bei dem Modelle Muster oder Cluster in unbeschrifteten Daten identifizieren.
Beispiel: Gruppierung von Kunden basierend auf Kaufverhalten ohne vordefinierte Labels.

Benutzerabsicht (User Intent)

User Intent
Das Ziel oder der Zweck hinter der Anfrage oder Interaktion eines Benutzers.
Beispiel: Ein Benutzer, der 'wie man einen Kuchen backt' eingibt, beabsichtigt wahrscheinlich, ein Rezept zu finden.

Validierungsdatensatz (Validation Set)

Validation Set
Ein Teildatensatz, der zur Bewertung der Modellleistung während des Trainings und zur Feinabstimmung von Hyperparametern verwendet wird.
Beispiel: Wird verwendet, um Overfitting vor dem endgültigen Testen zu erkennen.

Vektordatenbank (Vector Database)

Vector Database
Eine Datenbank, die für die Speicherung und Suche von Vektor-Embeddings entwickelt wurde, die in KI-Aufgaben wie Ähnlichkeitssuche und RAG verwendet werden.
Beispiel: Pinecone und Weaviate sind Vektordatenbanken zur Speicherung von Text- oder Bildeinbettungen.

Vektor-Embedding (Vector Embedding)

Vector Embedding
Eine numerische Darstellung von Daten, die die semantische Bedeutung und Beziehungen in einem Vektorraum bewahrt.
Beispiel: Die Wörter 'König' und 'Königin' haben ähnliche Embeddings mit subtilen Geschlechtsunterschieden.

Virtueller Assistent (Virtual Assistant)

Virtual Assistant
Ein KI-gestützter Software-Agent, der Benutzern hilft, Aufgaben durch Konversation oder Sprachbefehle zu erledigen.
Beispiel: Siri, Alexa und Google Assistant sind beliebte virtuelle Assistenten.

Spracherkennung (Voice Recognition)

Voice Recognition
Technologie, die gesprochene Sprache interpretiert und in Text oder Aktionen umwandelt.
Beispiel: Sprachtippen und Sprachbefehle basieren auf Spracherkennungssystemen.

Schwache KI (Weak AI)

Weak AI
KI-Systeme, die darauf ausgelegt sind, eine enge, spezifische Aufgabe ohne allgemeine Intelligenz auszuführen.
Beispiel: Eine Schach-KI, die keine Sprache versteht oder kein Auto fahren kann, ist ein Beispiel für schwache KI.

Web Scraping (Web Scraping)

Web Scraping
Automatisierte Extraktion von Informationen von Websites, häufig zur Sammlung von Trainingsdaten oder zur Überwachung von Inhalten.
Beispiel: Scraping von Immobilienangeboten zum Trainieren eines Immobilienbewertungsmodells.

Gewicht (Weight)

Weight
Ein Parameter in neuronalen Netzen, der die Stärke des Einflusses bestimmt, den ein Knoten auf einen anderen hat.
Beispiel: Gewichte werden während des Trainings angepasst, um den Fehler des Modells zu minimieren.

Whisper (Whisper)

Whisper
Ein von OpenAI entwickeltes Speech-to-Text-Modell, das Audio in mehreren Sprachen transkribieren kann.
Beispiel: Whisper kann Vorlesungen und Podcasts mit hoher Genauigkeit transkribieren.

YAML (YAML)

YAML
Ein menschenlesbares Format für die Daten serialisierung, das häufig für Konfigurationsdateien in Workflows für maschinelles Lernen verwendet wird.
Beispiel: Definieren von Modellparametern in einer YAML-Datei für das Training in PyTorch.

Zero-Shot-Learning (Zero-shot Learning)

Zero-shot Learning
Die Fähigkeit eines Modells, Aufgaben auszuführen, für die es nie explizit trainiert wurde, indem es allgemeines Wissen nutzt.
Beispiel: Ein Modell, das juristische Fragen beantwortet, obwohl es nicht speziell auf juristische Daten trainiert wurde.

Zettabyte (Zettabyte)

Zettabyte
Eine Einheit für digitale Daten, die einem Sextillion (10^21) Bytes entspricht und häufig zur Beschreibung des Umfangs von Internetdaten verwendet wird.
Beispiel: Der globale Internetverkehr überstieg 2016 1 Zettabyte pro Jahr.