Słownik Terminów AI

Rozjaśnij terminologię sztucznej inteligencji dzięki naszemu obszernemu glosariuszowi. Od uczenia maszynowego po sieci neuronowe, rozkładamy złożone koncepcje AI na proste terminy.

Dopasowanie (Alignment)

Alignment
Proces zapewniania, że cele, wyniki i zachowania systemu AI są zgodne z ludzkimi celami i wartościami. Jest to szczególnie ważne w zaawansowanych systemach, które mogą rozwijać zachowania nieprzewidziane.
Przykład: Zapewnienie, że chatbot do wsparcia psychicznego nigdy nie zaleca szkodliwych działań, niezależnie od poleceń.

Interfejs Programowania Aplikacji (API) (Application Programming Interface (API))

Application Programming Interface (API)
Zestaw zdefiniowanych reguł i protokołów, które pozwalają różnym systemom oprogramowania komunikować się i wymieniać dane.
Przykład: Użycie API OpenAI do wysłania zapytania i otrzymania odpowiedzi wygenerowanej przez model językowy w Twojej aplikacji internetowej.

Ogólna Sztuczna Inteligencja (AGI) (Artificial General Intelligence (AGI))

Artificial General Intelligence (AGI)
Teoretyczna forma AI, która może wykonywać każde zadanie intelektualne, które może wykonać człowiek. Uogólnia uczenie w różnych domenach.
Przykład: System AGI mógłby nauczyć się kompozycji muzycznej, przeprowadzać operacje chirurgiczne i zdawać egzamin z filozofii bez programowania specyficznego dla zadania.

Sztuczna Inteligencja (AI) (Artificial Intelligence (AI))

Artificial Intelligence (AI)
Symulacja ludzkiej inteligencji w maszynach, które są zaprogramowane do myślenia, rozumowania i działania autonomicznie.
Przykład: AI zasila asystentów osobistych, takich jak Siri, i systemy autonomicznej jazdy, takie jak Autopilot Tesli.

Etyka AI (AI Ethics)

AI Ethics
Dyscyplina zajmująca się implikacjami moralnymi rozwoju i wykorzystania AI, w tym uczciwością, prywatnością, odpowiedzialnością i niedyskryminacją.
Przykład: Tworzenie wytycznych zapobiegających dyskryminacji przez algorytmy rekrutacyjne ze względu na płeć lub pochodzenie etniczne.

Inteligencja Wzmocniona (Augmented Intelligence)

Augmented Intelligence
Model współpracy, w którym AI uzupełnia i wzmacnia ludzką inteligencję, zamiast ją zastępować.
Przykład: Narzędzia radiologiczne oparte na AI, które podświetlają anomalie dla lekarzy, którzy podejmują ostateczną diagnozę.

Agent Autonomiczny (Autonomous Agent)

Autonomous Agent
System AI zdolny do samodzielnego podejmowania decyzji i działań w celu osiągnięcia swoich celów bez interwencji człowieka.
Przykład: Samojezdny robot dostawczy poruszający się po ulicach miasta i samodzielnie omijający przeszkody.

Propagacja wsteczna (Backpropagation)

Backpropagation
Technika trenowania sieci neuronowych poprzez aktualizację wag w odwrotnej kolejności od warstwy wyjściowej do wejściowej, minimalizując błędy predykcji.
Przykład: Używana do trenowania klasyfikatorów obrazów w celu zmniejszenia wskaźnika błędów w rozpoznawaniu odręcznych cyfr.

Błąd (Błąd Algorytmiczny) (Bias (Algorithmic Bias))

Bias (Algorithmic Bias)
Niezamierzone i systematyczne faworyzowanie wyników AI z powodu niezbalansowanych lub niereprezentatywnych danych treningowych.
Przykład: System rozpoznawania twarzy, który częściej błędnie identyfikuje osoby o ciemniejszej karnacji z powodu niedostatecznej reprezentacji w danych treningowych.

Big Data (Big Data)

Big Data
Niezwykle duże zbiory danych, które wymagają specjalnych narzędzi do przechowywania, analizy i wydobywania wartości, często używane do trenowania modeli AI.
Przykład: Wykorzystanie milionów interakcji użytkowników do trenowania silników rekomendacji dla platform e-commerce.

Model Czarna Skrzynka (Black Box Model)

Black Box Model
Typ modelu AI lub uczenia maszynowego, którego wewnętrzna logika nie jest łatwo interpretowalna przez ludzi, co utrudnia zrozumienie sposobu podejmowania decyzji.
Przykład: Głęboka sieć neuronowa używana do zatwierdzania pożyczek, ale nie oferująca jasnego wyjaśnienia, dlaczego jeden wnioskodawca został zaakceptowany, a inny odrzucony.

Obliczenia Poznawcze (Cognitive Computing)

Cognitive Computing
Systemy AI zaprojektowane do symulowania ludzkich procesów myślowych, takich jak rozumowanie i uczenie się, przy użyciu technik takich jak NLP i rozpoznawanie wzorców.
Przykład: System obliczeń poznawczych, który pomaga prawnikom analizować orzecznictwo i przewidywać wyniki.

Widzenie Komputerowe (Computer Vision)

Computer Vision
Dziedzina sztucznej inteligencji, która umożliwia komputerom interpretowanie i przetwarzanie danych wizualnych, takich jak obrazy i wideo.
Przykład: Systemy rozpoznawania twarzy, które identyfikują osoby na nagraniach z monitoringu za pomocą widzenia komputerowego.

Korpus (Corpus)

Corpus
Duża kolekcja tekstów pisanych lub mówionych używana do trenowania modeli językowych.
Przykład: Zbiór Common Crawl to publiczny korpus internetowy używany do trenowania dużych modeli językowych, takich jak GPT.

Dryf Danych (Data Drift)

Data Drift
Zjawisko, w którym dane wejściowe zmieniają się w czasie, powodując pogorszenie wydajności modelu.
Przykład: Model predykcyjnego utrzymania ruchu dla urządzeń przemysłowych staje się mniej dokładny w miarę wprowadzania nowej technologii czujników.

Etykietowanie Danych (Data Labelling)

Data Labelling
Proces anotowania danych tagami lub etykietami, aby uczynić je odpowiednimi do uczenia nadzorowanego.
Przykład: Etykietowanie tysięcy obrazów guzów jako łagodne lub złośliwe w celu trenowania modelu wykrywania raka.

Wydobywanie Danych (Data Mining)

Data Mining
Proces odkrywania znaczących wzorców, korelacji i anomalii w dużych zbiorach danych.
Przykład: Sprzedawcy detaliczni wykorzystują wydobywanie danych do identyfikacji, że osoby kupujące pieluchy często kupują również piwo.

Głębokie Uczenie (Deep Learning)

Deep Learning
Poddziedzina uczenia maszynowego, która wykorzystuje wielowarstwowe sieci neuronowe do modelowania złożonych wzorców w danych.
Przykład: Głębokie uczenie jest wykorzystywane w modelach językowych, takich jak GPT-4, i modelach generowania obrazów, takich jak Stable Diffusion.

Modele Dyfuzyjne (Diffusion Models)

Diffusion Models
Klasa modeli generatywnych, które uczą się produkować dane poprzez stopniowe przekształcanie losowego szumu w ustrukturyzowane wyniki.
Przykład: Stable Diffusion tworzy fotorealistyczne obrazy z podpowiedzi tekstowych przy użyciu technik dyfuzyjnych.

Osadzenie (Embedding)

Embedding
Numeryczna reprezentacja wektorowa danych, często używana do uchwycenia znaczenia semantycznego słów, obrazów lub zdań.
Przykład: W NLP słowo 'bank' może mieć podobne osadzenia do 'pieniądze', ale inne niż 'brzeg rzeki', w zależności od kontekstu.

Epoka (Epoch)

Epoch
Pełna iteracja przez cały zbiór danych treningowych podczas procesu trenowania modelu uczenia maszynowego.
Przykład: Jeśli zbiór danych zawiera 1000 przykładów, a model widzi je wszystkie raz podczas trenowania, jest to jedna epoka.

Etyczna AI (Ethical AI)

Ethical AI
Filozofia projektowania i wdrażania, która zapewnia, że technologie AI działają w sposób przejrzysty, sprawiedliwy i zgodny z wartościami społecznymi.
Przykład: Narzędzie do rekrutacji AI, które zawiera kontrole błędów, aby zapobiec dyskryminacji kandydatów z mniejszości.

System Ekspertowy (Expert System)

Expert System
System AI, który naśladuje zdolności decyzyjne ludzkiego eksperta w określonej dziedzinie, wykorzystując reguły i logikę.
Przykład: System ekspertowy używany w rolnictwie do rekomendowania zabiegów na uprawy na podstawie danych glebowych i historii szkodników.

Wyjaśnialna AI (XAI) (Explainable AI (XAI))

Explainable AI (XAI)
Systemy AI zaprojektowane tak, aby ich wewnętrzne procesy i decyzje były zrozumiałe dla ludzi, zwiększając zaufanie i odpowiedzialność.
Przykład: AI diagnostyczna, która nie tylko przedstawia rekomendację, ale także wyjaśnia, które objawy doprowadziły do tego wniosku.

Uczenie z niewielką liczbą przykładów (Few-shot Learning)

Few-shot Learning
Metoda uczenia maszynowego, w której model jest trenowany lub dostrajany przy użyciu tylko niewielkiej liczby oznakowanych przykładów.
Przykład: Dostosowanie LLM do pisania e-maili prawniczych po pokazaniu mu zaledwie 10 przykładów.

Dostrajanie (Fine-tuning)

Fine-tuning
Proces pobierania wstępnie wytrenowanego modelu i dalszego trenowania go na nowym, mniejszym zbiorze danych w celu specjalizacji go do konkretnego zadania.
Przykład: Dostrajanie ogólnego LLM, takiego jak GPT, na wewnętrznych dokumentach prawnych w celu stworzenia asystenta do tworzenia dokumentów prawnych.

Model Fundacyjny (Foundation Model)

Foundation Model
Duży model wytrenowany na zróżnicowanych i szerokich danych, który można dostosować do wielu zadań pochodnych.
Przykład: GPT-4 i PaLM 2 to modele fundacyjne zdolne do podsumowywania, odpowiadania na pytania, tłumaczenia i wielu innych.

Logika Rozmyta (Fuzzy Logic)

Fuzzy Logic
Forma logiki, która zajmuje się przybliżonymi wartościami zamiast stałej logiki prawda/fałsz (binarnej), przydatna do rozumowania w warunkach niepewności.
Przykład: Używana w systemach kontroli klimatu do regulacji temperatury na podstawie rozmytych danych wejściowych, takich jak 'trochę gorąco' lub 'bardzo zimno'.

Generatywna Sieć Przeciwstawna (GAN) (Generative Adversarial Network (GAN))

Generative Adversarial Network (GAN)
Architektura modelu generatywnego, w której dwie sieci – generator i dyskryminator – konkurują o poprawę jakości wyników.
Przykład: GANy są używane do tworzenia deepfake'ów wideo lub generowania realistycznych zdjęć produktów z szkiców.

Generatywna AI (Generative AI)

Generative AI
Kategoria sztucznej inteligencji, która może tworzyć nowe treści – takie jak tekst, obrazy, muzyka lub wideo – z danych treningowych.
Przykład: ChatGPT generujący posty na blogach lub Midjourney tworzący cyfrowe dzieła sztuki na podstawie podpowiedzi tekstowych.

Transformator Pre-trenowany Generatywnie (GPT) (Generative Pre-trained Transformer (GPT))

Generative Pre-trained Transformer (GPT)
Klasa dużych modeli językowych opracowanych przez OpenAI, które wykorzystują architekturę transformatora i są wstępnie trenowane na ogromnych ilościach danych tekstowych, aby wykonywać różnorodne zadania językowe.
Przykład: GPT-4 jest zdolny do pisania esejów, tłumaczenia języków i podsumowywania dokumentów przy minimalnym podpowiadaniu.

Algorytm Genetyczny (Genetic Algorithm)

Genetic Algorithm
Technika optymalizacji inspirowana doborem naturalnym, gdzie rozwiązania ewoluują w czasie poprzez mutację, krzyżowanie i selekcję.
Przykład: Używany do projektowania wydajnych architektur sieci neuronowych poprzez symulację przetrwania najsilniejszych.

Halucynacja (Hallucination)

Hallucination
Generowanie przez model AI wiarygodnie brzmiących, ale faktycznie błędnych lub bezsensownych treści.
Przykład: Model językowy wymyśla nieistniejącą cytatę lub podaje fałszywe fakty historyczne.

Heurystyka (Heuristic)

Heuristic
Praktyczne podejście do rozwiązywania problemów, które nie gwarantuje idealnego rozwiązania, ale jest wystarczające dla natychmiastowych celów.
Przykład: Użycie zasady kciuka do oszacowania czasu dostawy w systemie AI logistyki.

Hiperparametr (Hyperparameter)

Hyperparameter
Wartość konfiguracyjna ustawiona przed trenowaniem modelu uczenia maszynowego, taka jak szybkość uczenia lub liczba warstw.
Przykład: Dostosowanie rozmiaru partii z 32 do 128 w celu poprawy szybkości trenowania i wydajności modelu.

Wnioskowanie (Inference)

Inference
Proces wykorzystania wytrenowanego modelu uczenia maszynowego do tworzenia predykcji lub generowania wyników z nowych danych wejściowych.
Przykład: Użycie dostrojonego modelu GPT do tworzenia e-maili dla zespołu obsługi klienta.

Wykrywanie Intencji (Intent Detection)

Intent Detection
Zadanie w rozumieniu języka naturalnego, w którym system identyfikuje cel lub zamiar użytkownika w wiadomości.
Przykład: W chatbocie rozpoznanie 'Chcę zarezerwować lot' jako intencji rezerwacji podróży.

Internet Rzeczy (IoT) (Internet of Things (IoT))

Internet of Things (IoT)
Sieć połączonych urządzeń fizycznych wyposażonych w czujniki, oprogramowanie i inne technologie do zbierania i wymiany danych.
Przykład: Inteligentne termostaty i lodówki, które raportują dane o użytkowaniu i dostosowują ustawienia za pomocą analiz AI.

Interpretowalność (Interpretability)

Interpretability
Stopień, w jakim człowiek może zrozumieć wewnętrzne mechanizmy modelu uczenia maszynowego i jego proces decyzyjny.
Przykład: Drzewo decyzyjne jest bardziej interpretowalne niż głęboka sieć neuronowa, ponieważ jego decyzje są śledzone.

Jupyter Notebook (Jupyter Notebook)

Jupyter Notebook
Interaktywne środowisko obliczeniowe typu open-source, które pozwala użytkownikom pisać kod, wizualizować wyniki i dokumentować analizy w jednym interfejsie.
Przykład: Data scientists używają Jupyter Notebooks do prototypowania modeli uczenia maszynowego i udostępniania wyników.

K-Najbliższych Sąsiadów (KNN) (K-Nearest Neighbours (KNN))

K-Nearest Neighbours (KNN)
Prosty, nieparametryczny algorytm uczenia maszynowego używany do klasyfikacji i regresji. Podejmuje decyzje na podstawie najbliższych przykładów treningowych w przestrzeni cech.
Przykład: Aby sklasyfikować nowy owoc jako jabłko lub gruszkę, KNN sprawdza, które oznakowane owoce są najbliższe pod względem kształtu i koloru.

Graf Wiedzy (Knowledge Graph)

Knowledge Graph
Struktura danych, która wykorzystuje węzły i krawędzie do reprezentowania i przechowywania powiązanych opisów encji i ich relacji.
Przykład: Panel wiedzy Google jest zasilany przez graf wiedzy, który łączy encje, takie jak ludzie, miejsca i wydarzenia.

Optymalizacja Modelu Uczenia Językowego (LLMO) (Language Learning Model Optimisation (LLMO))

Language Learning Model Optimisation (LLMO)
Techniki używane do poprawy wydajności, efektywności lub adaptacyjności dużych modeli językowych do konkretnych zadań lub domen.
Przykład: Użycie kwantyzacji i dostrajania instrukcji do optymalizacji LLM do użytku korporacyjnego.

Duży Model Językowy (LLM) (Large Language Model (LLM))

Large Language Model (LLM)
Typ modelu głębokiego uczenia wytrenowany na ogromnych ilościach danych tekstowych, zdolny do generowania, rozumienia i rozumowania za pomocą ludzkiego języka.
Przykład: ChatGPT i Claude to LLM wytrenowane do pomocy w pisaniu, kodowaniu i odpowiadaniu na pytania.

Przestrzeń Ukryta (Latent Space)

Latent Space
Wysokowymiarowa reprezentacja abstrakcyjna, w której podobne dane wejściowe są grupowane blisko siebie, używana w modelach generatywnych i osadzeniach.
Przykład: W generowaniu obrazów manipulowanie przestrzenią ukrytą może zmieniać cechy, takie jak jasność lub emocje.

Szybkość Uczenia (Learning Rate)

Learning Rate
Kluczowy hiperparametr w trenowaniu, który kontroluje, jak bardzo parametry modelu są dostosowywane w stosunku do gradientu straty.
Przykład: Wysoka szybkość uczenia może prowadzić do przekroczenia minimów, podczas gdy zbyt niska szybkość spowalnia postęp trenowania.

Uczenie Maszynowe (ML) (Machine Learning (ML))

Machine Learning (ML)
Gałąź AI, która umożliwia systemom uczenie się z danych i poprawę wydajności bez jawnego programowania.
Przykład: Filtry spamu wykorzystują uczenie maszynowe do klasyfikowania e-maili jako spam lub nie, na podstawie poprzednich przykładów.

Dryf Modelu (Model Drift)

Model Drift
Zjawisko, w którym dokładność modelu spada w czasie z powodu zmian w danych lub środowisku.
Przykład: Model wykrywania oszustw staje się mniej dokładny w miarę ewolucji taktyk oszustw.

Trenowanie Modelu (Model Training)

Model Training
Proces podawania danych do modelu uczenia maszynowego i dostosowywania jego parametrów w celu minimalizacji błędu.
Przykład: Trenowanie silnika rekomendacji na historii zakupów klientów w celu sugerowania nowych produktów.

Multimodalna AI (Multimodal AI)

Multimodal AI
Systemy AI zdolne do przetwarzania i integrowania wielu typów danych, takich jak tekst, obrazy, dźwięk i wideo.
Przykład: Model taki jak GPT-4 Vision, który potrafi jednocześnie czytać tekst i interpretować obrazy.

Przetwarzanie Języka Naturalnego (NLP) (Natural Language Processing (NLP))

Natural Language Processing (NLP)
Poddziedzina AI skupiająca się na interakcji między komputerami a ludzkimi (naturalnymi) językami. Umożliwia maszynom czytanie, rozumienie i reagowanie w ludzkim języku.
Przykład: NLP jest używane w asystentach głosowych, aplikacjach do tłumaczenia języków i chatbotach.

Sieć Neuronowa (Neural Network)

Neural Network
Model uczenia maszynowego inspirowany strukturą ludzkiego mózgu, składający się z warstw połączonych węzłów (neuronów).
Przykład: Sieci neuronowe stoją za modelami głębokiego uczenia używanymi w rozpoznawaniu obrazów i mowy.

Szum (Noise)

Noise
Losowe lub nieistotne informacje w danych, które mogą zaciemniać znaczące wzorce i negatywnie wpływać na wydajność modelu.
Przykład: Błędy czujników lub dane wejściowe z błędami pisowni można uznać za szum.

Ontologia (Ontology)

Ontology
Strukturalny framework, który kategoryzuje i definiuje relacje między koncepcjami w danej dziedzinie, często używany w systemach AI semantycznych.
Przykład: Ontologia w opiece zdrowotnej może definiować, jak objawy wiążą się z chorobami i leczeniem.

Przetrenowanie (Overfitting)

Overfitting
Błąd modelowania, w którym model uczenia maszynowego przechwytuje szum w danych treningowych i działa słabo na nowych danych.
Przykład: Model, który zapamiętuje odpowiedzi treningowe, ale nie radzi sobie z nieznanymi danymi testowymi, jest przetrenowany.

Analityka Predykcyjna (Predictive Analytics)

Predictive Analytics
Wykorzystanie danych, algorytmów i AI do identyfikacji prawdopodobieństwa przyszłych wyników na podstawie danych historycznych.
Przykład: Sprzedawcy detaliczni wykorzystują analitykę predykcyjną do prognozowania popytu na określone produkty.

Pre-trenowanie (Pre-training)

Pre-training
Proces wstępnego trenowania modelu na dużym, ogólnym zbiorze danych przed jego dostrojeniem do konkretnych zadań.
Przykład: Modele GPT są wstępnie trenowane na dużych korpusach przed dostosowaniem ich do chatbotów obsługi klienta.

Inżynieria Promptów (Prompt Engineering)

Prompt Engineering
Sztuka i nauka tworzenia skutecznych podpowiedzi do kierowania wyników dużych modeli językowych.
Przykład: Dodanie instrukcji systemowych, takich jak 'Odpowiadaj jako uprzejmy korepetytor', jest przykładem inżynierii promptów.

Kwantyzacja (Quantisation)

Quantisation
Technika kompresji modelu, która zmniejsza liczbę bitów używanych do reprezentowania wag i aktywacji, poprawiając wydajność.
Przykład: Kwantyzacja modelu z 32-bitowego do 8-bitowego poprawia wydajność na urządzeniach mobilnych.

Obliczenia Kwantowe (Quantum Computing)

Quantum Computing
Nowy paradygmat obliczeń oparty na mechanice kwantowej, który oferuje potencjał wykładniczych możliwości przetwarzania.
Przykład: Obliczenia kwantowe mogą pewnego dnia przyspieszyć trenowanie AI poza klasyczne granice.

Silnik Rozumowania (Reasoning Engine)

Reasoning Engine
System w AI, który wyciąga logiczne wnioski z zestawu faktów lub danych, używając reguł lub algorytmów wnioskowania.
Przykład: Narzędzie diagnostyczne AI wykorzystuje silnik rozumowania do wnioskowania o możliwych schorzeniach na podstawie objawów.

Uczenie przez Wzmocnienie (RL) (Reinforcement Learning (RL))

Reinforcement Learning (RL)
Obszar uczenia maszynowego, w którym agenci uczą się poprzez interakcję ze swoim środowiskiem, aby zmaksymalizować skumulowane nagrody.
Przykład: Robot uczący się chodzić metodą prób i błędów przy użyciu technik RL.

Uczenie przez Wzmocnienie z Informacją Zwrotną od Człowieka (RLHF) (Reinforcement Learning with Human Feedback (RLHF))

Reinforcement Learning with Human Feedback (RLHF)
Metoda uczenia, w której preferencje ludzkie kierują sygnałem nagrody AI, często używana do dostrajania modeli językowych.
Przykład: ChatGPT został wytrenowany przy użyciu RLHF, aby generować bardziej pomocne i bezpieczne odpowiedzi.

Generowanie Wzmocnione Wyszukiwaniem (RAG) (Retrieval-Augmented Generation (RAG))

Retrieval-Augmented Generation (RAG)
Metoda łącząca wyszukiwanie informacji z generowaniem, gdzie LLM pobiera odpowiednie dokumenty, aby poprawić swoją odpowiedź.
Przykład: Asystent AI pobiera i cytuje specyfikacje produktu podczas generowania odpowiedzi na pytanie techniczne.

Uczenie Samonadzorowane (Self-Supervised Learning)

Self-Supervised Learning
Podejście treningowe, w którym model uczy się wzorców poprzez generowanie własnych etykiet z surowych danych, zmniejszając zależność od danych anotowanych przez człowieka.
Przykład: BERT jest trenowany z użyciem uczenia samonadzorowanego poprzez przewidywanie brakujących słów w tekście.

Wyszukiwanie Semantyczne (Semantic Search)

Semantic Search
Technika wyszukiwania, która rozumie intencję użytkownika i znaczenie kontekstowe, a nie tylko dopasowanie słów kluczowych.
Przykład: Wyszukiwanie 'jak naprawić cieknący kran' zwraca przewodniki, nawet jeśli termin 'cieknący kran' nie występuje w dokumencie.

Analiza Sentymentu (Sentiment Analysis)

Sentiment Analysis
Proces identyfikacji emocji, opinii lub postaw w tekście, często klasyfikując je jako pozytywne, negatywne lub neutralne.
Przykład: Analiza tweetów w celu oceny reakcji publicznej na nowy produkt.

Stochastyczny (Stochastic)

Stochastic
Obejmujący losowość lub zachowanie probabilistyczne, często używany w generatywnej AI i algorytmach optymalizacyjnych.
Przykład: Wynik GPT-4 różni się dla tego samego wejścia ze względu na jego stochastyczny proces dekodowania.

Silna AI (Strong AI)

Strong AI
Znana również jako Ogólna Sztuczna Inteligencja (AGI), odnosi się do maszyn o ludzkich zdolnościach poznawczych we wszystkich domenach.
Przykład: Przyszła AI, która potrafi autonomicznie pisać powieści, planować miasta i rozwiązywać dylematy etyczne z równą biegłością.

Super Sztuczna Inteligencja (SAI) (Super Artificial Intelligence (SAI))

Super Artificial Intelligence (SAI)
Teoretyczna AI znacznie przewyższająca ludzką inteligencję we wszystkich aspektach – rozumowaniu, kreatywności, inteligencji emocjonalnej itp.
Przykład: SAI mogłaby teoretycznie samodzielnie rozwijać nowe nauki i filozofie.

Uczenie Nadzorowane (Supervised Learning)

Supervised Learning
Technika uczenia maszynowego, w której modele są trenowane na oznakowanych danych w celu nauczenia się mapowań wejście-wyjście.
Przykład: Uczenie modelu klasyfikowania e-maili jako spam lub nie, przy użyciu historycznych przykładów.

Dane Syntetyczne (Synthetic Data)

Synthetic Data
Sztucznie generowane dane, które symulują dane z rzeczywistego świata, często używane do trenowania, gdy rzeczywiste dane są rzadkie lub wrażliwe.
Przykład: Tworzenie syntetycznych obrazów medycznych do trenowania modeli diagnostycznych bez naruszania prywatności pacjentów.

Token (Token)

Token
Jednostka tekstu przetwarzana przez LLM – zazwyczaj słowo lub część słowa.
Przykład: Zdanie 'Witaj świecie!' jest podzielone na 3 tokeny: 'Witaj', 'świecie' i '!'.

Tokenizacja (Tokenisation)

Tokenisation
Proces dzielenia tekstu na tokeny do przetwarzania przez model.
Przykład: W NLP 'ChatGPT jest świetny' staje się ['Chat', 'G', 'PT', 'jest', 'świetny'].

Uczenie Transferowe (Transfer Learning)

Transfer Learning
Wykorzystanie wiedzy z jednego zadania do usprawnienia uczenia siÄ™ w innym powiÄ…zanym zadaniu, zmniejszajÄ…c czas trenowania i potrzeby danych.
Przykład: Dostrajanie modelu wytrenowanego na tekście angielskim do wykonywania analizy sentymentu w innym języku.

Transformator (Transformer)

Transformer
Architektura sieci neuronowej, która wykorzystuje mechanizmy uwagi do modelowania danych sekwencyjnych, szeroko stosowana w LLM.
Przykład: BERT, GPT i T5 to modele oparte na transformatorach.

Niedotrenowanie (Underfitting)

Underfitting
Gdy model jest zbyt prosty, aby uchwycić wzorce w danych treningowych, co skutkuje słabą wydajnością.
Przykład: Model liniowy próbujący przewidywać złożone klasyfikacje obrazów może być niedotrenowany.

Uczenie Nienadzorowane (Unsupervised Learning)

Unsupervised Learning
Podejście uczenia, w którym modele identyfikują wzorce lub klastry w nieoznakowanych danych.
Przykład: Grupowanie klientów na podstawie zachowań zakupowych bez predefiniowanych etykiet.

Intencja Użytkownika (User Intent)

User Intent
Cel lub zamiar stojący za zapytaniem lub interakcją użytkownika.
Przykład: Użytkownik wpisujący 'jak upiec ciasto' prawdopodobnie zamierza znaleźć przepis.

Zbiór Walidacyjny (Validation Set)

Validation Set
Podzbiór danych używany do oceny wydajności modelu podczas trenowania i dostrajania hiperparametrów.
Przykład: Używany do wykrywania przetrenowania przed ostatecznym testowaniem.

Baza Danych Wektorowych (Vector Database)

Vector Database
Baza danych zaprojektowana do przechowywania i wyszukiwania osadzeń wektorowych używanych w zadaniach AI, takich jak wyszukiwanie podobieństwa i RAG.
Przykład: Pinecone i Weaviate to bazy danych wektorowych do przechowywania osadzeń tekstu lub obrazów.

Osadzenie Wektorowe (Vector Embedding)

Vector Embedding
Numeryczna reprezentacja danych, która zachowuje znaczenie semantyczne i relacje w przestrzeni wektorowej.
Przykład: Słowa 'król' i 'królowa' mają podobne osadzenia z subtelnymi różnicami płci.

Asystent Wirtualny (Virtual Assistant)

Virtual Assistant
Agent oprogramowania oparty na AI, który pomaga użytkownikom wykonywać zadania za pomocą rozmowy lub poleceń głosowych.
Przykład: Siri, Alexa i Asystent Google to popularni asystenci wirtualni.

Rozpoznawanie Głosu (Voice Recognition)

Voice Recognition
Technologia, która interpretuje i konwertuje mowę na tekst lub akcję.
Przykład: Asystenci głosowi i polecenia głosowe opierają się na systemach rozpoznawania głosu.

Słaba AI (Weak AI)

Weak AI
Systemy AI zaprojektowane do wykonywania wąskiego, specyficznego zadania bez ogólnej inteligencji.
Przykład: AI grająca w szachy, która nie potrafi rozumieć języka ani prowadzić samochodu, jest przykładem słabej AI.

Web Scraping (Web Scraping)

Web Scraping
Zautomatyzowane wydobywanie informacji ze stron internetowych, często używane do zbierania danych treningowych lub monitorowania treści.
Przykład: Scrapowanie ofert nieruchomości w celu trenowania modelu wyceny nieruchomości.

Waga (Weight)

Weight
Parametr w sieciach neuronowych, który określa siłę wpływu jednego węzła na drugi.
Przykład: Wagi są dostosowywane podczas trenowania w celu minimalizacji błędu modelu.

Whisper (Whisper)

Whisper
Model zamiany mowy na tekst opracowany przez OpenAI, zdolny do transkrypcji dźwięku w wielu językach.
Przykład: Whisper potrafi z dużą dokładnością transkrybować wykłady i podcasty.

YAML (YAML)

YAML
Czytelny dla człowieka format serializacji danych, powszechnie używany do plików konfiguracyjnych w przepływach pracy uczenia maszynowego.
Przykład: Definiowanie parametrów modelu w pliku YAML do trenowania w PyTorch.

Uczenie z zerowym strzałem (Zero-shot Learning)

Zero-shot Learning
Zdolność modelu do wykonywania zadań, których nigdy wcześniej nie trenował, poprzez wykorzystanie ogólnej wiedzy.
Przykład: Model odpowiadający na pytania prawne, mimo że nie był specjalnie trenowany na danych prawnych.

Zettabajt (Zettabyte)

Zettabyte
Jednostka danych cyfrowych równa jednemu sekstylionowi (10^21) bajtów, często używana do opisu skali danych internetowych.
Przykład: Globalny ruch internetowy przekroczył 1 zettabajt rocznie w 2016 roku.