СъглаÑуване (Alignment)
Alignment
ПроцеÑÑŠÑ‚ на гарантиране, че целите, изходите и поведението на AI ÑиÑтемата ÑъответÑтват на човешките цели и ценноÑти. Това е оÑобено важно при напреднали ÑиÑтеми, които могат да развиÑÑ‚ поведениÑ, които не Ñа изрично предвидени.
Пример: Гарантиране, че чатбот за пÑихично здраве никога не препоръчва вредни дейÑтвиÑ, незавиÑимо от подканите.
Ð˜Ð½Ñ‚ÐµÑ€Ñ„ÐµÐ¹Ñ Ð·Ð° програмиране на Ð¿Ñ€Ð¸Ð»Ð¾Ð¶ÐµÐ½Ð¸Ñ (API) (Application Programming Interface (API))
Application Programming Interface (API)
Ðабор от дефинирани правила и протоколи, които позволÑват на различни Ñофтуерни ÑиÑтеми да комуникират и обменÑÑ‚ данни.
Пример: Използване на API на OpenAI за изпращане на подкана и получаване на отговор, генериран от езиков модел, във вашето уеб приложение.
ИзкуÑтвен общ интелект (AGI) (Artificial General Intelligence (AGI))
Artificial General Intelligence (AGI)
Теоретична форма на AI, коÑто може да изпълнÑва вÑÑка интелектуална задача, коÑто човек може. Ð¢Ñ Ð¾Ð±Ð¾Ð±Ñ‰Ð°Ð²Ð° ученето в различни домейни.
Пример: AGI ÑиÑтема може да научи музикална композициÑ, да извърши Ð¾Ð¿ÐµÑ€Ð°Ñ†Ð¸Ñ Ð¸ да премине изпит по филоÑÐ¾Ñ„Ð¸Ñ Ð±ÐµÐ· Ñпецифично програмиране за задачата.
ИзкуÑтвен интелект (AI) (Artificial Intelligence (AI))
Artificial Intelligence (AI)
Ð¡Ð¸Ð¼ÑƒÐ»Ð°Ñ†Ð¸Ñ Ð½Ð° Ñ‡Ð¾Ð²ÐµÑˆÐºÐ¸Ñ Ð¸Ð½Ñ‚ÐµÐ»ÐµÐºÑ‚ в машини, които Ñа програмирани да миÑлÑÑ‚, разÑъждават и дейÑтват автономно.
Пример: AI захранва лични аÑиÑтенти като Siri и ÑиÑтеми за автономно шофиране като Tesla Autopilot.
AI Етика (AI Ethics)
AI Ethics
ДиÑциплина, занимаваща Ñе Ñ Ð¼Ð¾Ñ€Ð°Ð»Ð½Ð¸Ñ‚Ðµ поÑледици от разработването и използването на AI, включително ÑправедливоÑÑ‚, поверителноÑÑ‚, отчетноÑÑ‚ и недиÑкриминациÑ.
Пример: Създаване на наÑоки за предотвратÑване на алгоритми за наемане на работа да диÑкриминират въз оÑнова на пол или етничеÑка принадлежноÑÑ‚.
УÑилен интелект (Augmented Intelligence)
Augmented Intelligence
СътрудничеÑки модел, при който AI допълва и подобрÑва Ñ‡Ð¾Ð²ÐµÑˆÐºÐ¸Ñ Ð¸Ð½Ñ‚ÐµÐ»ÐµÐºÑ‚, вмеÑто да го замеÑтва.
Пример: AI инÑтрументи за радиологиÑ, които подчертават аномалии за лекарите, които вземат окончателната диагноза.
Ðвтономен агент (Autonomous Agent)
Autonomous Agent
AI ÑиÑтема, ÑпоÑобна да взема ÑобÑтвени Ñ€ÐµÑˆÐµÐ½Ð¸Ñ Ð¸ да предприема дейÑÑ‚Ð²Ð¸Ñ Ð·Ð° поÑтигане на целите Ñи без човешка намеÑа.
Пример: Ðвтономно доÑтавÑщо робот, навигиращо по градÑки улици и избÑгващо препÑÑ‚ÑÑ‚Ð²Ð¸Ñ ÑамоÑтоÑтелно.
Обратно разпроÑтранение (Backpropagation)
Backpropagation
Техника за обучение на невронни мрежи чрез актуализиране на теглата в обратна поÑока от изходните към входните Ñлоеве, минимизирайки грешките в прогнозирането.
Пример: Използва Ñе при обучение на клаÑификатори на Ð¸Ð·Ð¾Ð±Ñ€Ð°Ð¶ÐµÐ½Ð¸Ñ Ð·Ð° намалÑване на процента грешки при разпознаване на ръкопиÑни цифри.
ПриÑтраÑтие (Ðлгоритмично приÑтраÑтие) (Bias (Algorithmic Bias))
Bias (Algorithmic Bias)
Ðепреднамерено и ÑиÑтематично фаворизиране в AI резултатите поради небаланÑирани или непредÑтавителни данни за обучение.
Пример: СиÑтема за разпознаване на лица, коÑто по-чеÑто погрешно идентифицира хора Ñ Ñ†Ð²ÐµÑ‚Ð½Ð° кожа поради недоÑтатъчното им предÑтавÑне в данните за обучение.
Големи данни (Big Data)
Big Data
Изключително големи набори от данни, които изиÑкват Ñпециални инÑтрументи за Ñъхранение, анализ и извличане на ÑтойноÑÑ‚, чеÑто използвани за обучение на AI модели.
Пример: Използване на милиони потребителÑки взаимодейÑÑ‚Ð²Ð¸Ñ Ð·Ð° обучение на двигатели за препоръки за платформи за електронна търговиÑ.
Модел „черна кутиÑ“ (Black Box Model)
Black Box Model
Тип AI или модел за машинно обучение, чиÑто вътрешна логика не е леÑно разбираема от хората, което затруднÑва разбирането как Ñе вземат решениÑ.
Пример: Дълбока невронна мрежа, използвана за одобрение на заеми, но предлагаща ÑÑно обÑÑнение защо един кандидат е приет, а друг отхвърлен.
Когнитивни изчиÑÐ»ÐµÐ½Ð¸Ñ (Cognitive Computing)
Cognitive Computing
AI ÑиÑтеми, проектирани да Ñимулират човешки миÑловни процеÑи, като разÑъждение и учене, използвайки техники като NLP и разпознаване на модели.
Пример: Когнитивна изчиÑлителна ÑиÑтема, коÑто помага на правни ÑпециалиÑти да анализират Ñъдебна практика и да прогнозират резултати.
Компютърно зрение (Computer Vision)
Computer Vision
ОблаÑÑ‚ на изкуÑÑ‚Ð²ÐµÐ½Ð¸Ñ Ð¸Ð½Ñ‚ÐµÐ»ÐµÐºÑ‚, коÑто позволÑва на компютрите да интерпретират и обработват визуални данни като Ð¸Ð·Ð¾Ð±Ñ€Ð°Ð¶ÐµÐ½Ð¸Ñ Ð¸ видео.
Пример: СиÑтеми за разпознаване на лица, които идентифицират хора във видеозапиÑи за ÑигурноÑÑ‚, използвайки компютърно зрение.
ÐšÐ¾Ñ€Ð¿ÑƒÑ (Corpus)
Corpus
ГолÑма ÐºÐ¾Ð»ÐµÐºÑ†Ð¸Ñ Ð¾Ñ‚ пиÑмени или говорими текÑтове, използвани за обучение на езикови модели.
Пример: Ðаборът от данни Common Crawl е публичен уеб корпуÑ, използван за обучение на големи езикови модели като GPT.
Дрейф на данни (Data Drift)
Data Drift
Феноменът, при който входните данни Ñе променÑÑ‚ Ñ Ñ‚ÐµÑ‡ÐµÐ½Ð¸Ðµ на времето, което води до влошаване на производителноÑтта на модела.
Пример: Модел за прогнозиране на поддръжка на индуÑтриално оборудване Ñтава по-малко точен Ñ Ð²ÑŠÐ²ÐµÐ¶Ð´Ð°Ð½ÐµÑ‚Ð¾ на нова Ñензорна технологиÑ.
Етикетиране на данни (Data Labelling)
Data Labelling
ПроцеÑÑŠÑ‚ на анотиране на данни Ñ ÐµÑ‚Ð¸ÐºÐµÑ‚Ð¸ или маркери, за да ги направи подходÑщи за наблюдавано обучение.
Пример: Етикетиране на хилÑди Ð¸Ð·Ð¾Ð±Ñ€Ð°Ð¶ÐµÐ½Ð¸Ñ Ð½Ð° тумори като доброкачеÑтвени или злокачеÑтвени за обучение на модел за откриване на рак.
Извличане на данни (Data Mining)
Data Mining
ПроцеÑÑŠÑ‚ на откриване на ÑмиÑлени модели, корелации и аномалии в големи набори от данни.
Пример: Търговците на дребно използват извличане на данни, за да уÑтановÑÑ‚, че хората, които купуват пелени, чеÑто купуват и бира.
Дълбоко обучение (Deep Learning)
Deep Learning
Подполе на машинното обучение, което използва многоÑлойни невронни мрежи за моделиране на Ñложни модели в данните.
Пример: Дълбокото обучение Ñе използва в езикови модели като GPT-4 и модели за генериране на Ð¸Ð·Ð¾Ð±Ñ€Ð°Ð¶ÐµÐ½Ð¸Ñ ÐºÐ°Ñ‚Ð¾ Stable Diffusion.
Дифузионни модели (Diffusion Models)
Diffusion Models
ÐšÐ»Ð°Ñ Ð³ÐµÐ½ÐµÑ€Ð°Ñ‚Ð¸Ð²Ð½Ð¸ модели, които Ñе учат да произвеждат данни, като поÑтепенно транÑформират Ñлучаен шум в Ñтруктурирани изходи.
Пример: Stable Diffusion Ñъздава фотореалиÑтични Ð¸Ð·Ð¾Ð±Ñ€Ð°Ð¶ÐµÐ½Ð¸Ñ Ð¾Ñ‚ текÑтови подкани, използвайки дифузионни техники.
Вграждане (Embedding)
Embedding
ЧиÑлено векторно предÑтавÑне на данни, чеÑто използвано за улавÑне на Ñемантичното значение на думи, Ð¸Ð·Ð¾Ð±Ñ€Ð°Ð¶ÐµÐ½Ð¸Ñ Ð¸Ð»Ð¸ изречениÑ.
Пример: Ð’ NLP думата „банка“ може да има Ñходни Ð²Ð³Ñ€Ð°Ð¶Ð´Ð°Ð½Ð¸Ñ Ñ â€žÐ¿Ð°Ñ€Ð¸â€œ, но различни от „брÑг на река“ в завиÑимоÑÑ‚ от контекÑта.
Епоха (Epoch)
Epoch
Пълна Ð¸Ñ‚ÐµÑ€Ð°Ñ†Ð¸Ñ Ð¿Ñ€ÐµÐ· Ñ†ÐµÐ»Ð¸Ñ Ð½Ð°Ð±Ð¾Ñ€ от данни за обучение по време на процеÑа на обучение на модел за машинно обучение.
Пример: Ðко наборът от данни има 1000 примера и моделът ги види вÑички веднъж по време на обучение, това е една епоха.
Етичен AI (Ethical AI)
Ethical AI
ФилоÑÐ¾Ñ„Ð¸Ñ Ð½Ð° проектиране и внедрÑване, коÑто гарантира, че AI технологиите работÑÑ‚ прозрачно, Ñправедливо и в ÑъответÑтвие Ñ Ð¾Ð±Ñ‰ÐµÑтвените ценноÑти.
Пример: AI инÑтрумент за наемане на работа, който включва проверки за приÑтраÑтиÑ, за да Ñе предотврати диÑÐºÑ€Ð¸Ð¼Ð¸Ð½Ð°Ñ†Ð¸Ñ Ñрещу кандидати от малцинÑтва.
ЕкÑпертна ÑиÑтема (Expert System)
Expert System
AI ÑиÑтема, коÑто имитира ÑпоÑобноÑтите за вземане на Ñ€ÐµÑˆÐµÐ½Ð¸Ñ Ð½Ð° човешки екÑперт в Ñпецифичен домейн, използвайки правила и логика.
Пример: ЕкÑпертна ÑиÑтема, използвана в ÑелÑкото ÑтопанÑтво за препоръчване на обработки на култури въз оÑнова на данни за почвата и иÑÑ‚Ð¾Ñ€Ð¸Ñ Ð½Ð° вредителите.
ОбÑÑним AI (XAI) (Explainable AI (XAI))
Explainable AI (XAI)
AI ÑиÑтеми, проектирани да направÑÑ‚ Ñвоите вътрешни процеÑи и Ñ€ÐµÑˆÐµÐ½Ð¸Ñ Ñ€Ð°Ð·Ð±Ð¸Ñ€Ð°ÐµÐ¼Ð¸ за хората, увеличавайки доверието и отчетноÑтта.
Пример: AI диагноÑтичен инÑтрумент, който не Ñамо предоÑÑ‚Ð°Ð²Ñ Ð¿Ñ€ÐµÐ¿Ð¾Ñ€ÑŠÐºÐ°, но и обÑÑнÑва кои Ñимптоми Ñа довели до това заключение.
Обучение Ñ Ð¼Ð°Ð»ÐºÐ¾ примери (Few-shot Learning)
Few-shot Learning
Метод за машинно обучение, при който моделът Ñе обучава или фино наÑтройва, използвайки Ñамо малък брой етикетирани примери.
Пример: ПерÑонализиране на LLM за пиÑане на правни имейли, Ñлед като му бъдат показани Ñамо 10 примера.
Фина наÑтройка (Fine-tuning)
Fine-tuning
ПроцеÑÑŠÑ‚ на вземане на предварително обучен модел и допълнителното му обучение върху нов, по-малък набор от данни, за да Ñе Ñпециализира за конкретна задача.
Пример: Фина наÑтройка на общ LLM като GPT върху вътрешни правни документи за Ñъздаване на аÑиÑтент за изготвÑне на правни документи.
Фундаментален модел (Foundation Model)
Foundation Model
ГолÑм модел, обучен върху разнообразни и широки данни, който може да бъде адаптиран за много поÑледващи задачи.
Пример: GPT-4 и PaLM 2 Ñа фундаментални модели, ÑпоÑобни на обобщаване, въпроÑи и отговори, превод и други.
Размита логика (Fuzzy Logic)
Fuzzy Logic
Форма на логика, коÑто Ñе занимава Ñ Ð¿Ñ€Ð¸Ð±Ð»Ð¸Ð·Ð¸Ñ‚ÐµÐ»Ð½Ð¸ ÑтойноÑти вмеÑто Ñ Ñ„Ð¸ÐºÑирана иÑтина/лъжа (бинарна) логика, полезна за разÑъждение при неÑигурноÑÑ‚.
Пример: Използва Ñе в ÑиÑтеми за контрол на климата за регулиране на температурата въз оÑнова на размити входове като „малко горещо“ или „много Ñтудено“.
Генеративна ÑÑŠÑтезателна мрежа (GAN) (Generative Adversarial Network (GAN))
Generative Adversarial Network (GAN)
Ðрхитектура на генеративен модел, при коÑто две мрежи — генератор и диÑкриминатор — Ñе ÑÑŠÑтезават за подобрÑване на качеÑтвото на изхода.
Пример: GAN Ñе използват за Ñъздаване на deepfake видеоклипове или генериране на реалиÑтични продуктови Ñнимки от Ñкици.
Генеративен AI (Generative AI)
Generative AI
ÐšÐ°Ñ‚ÐµÐ³Ð¾Ñ€Ð¸Ñ Ð¸Ð·ÐºÑƒÑтвен интелект, коÑто може да Ñъздава ново Ñъдържание — като текÑÑ‚, изображениÑ, музика или видео — от данни за обучение.
Пример: ChatGPT генерира блогове или Midjourney Ñъздава дигитално изкуÑтво от текÑтови подкани.
Генеративен предварително обучен транÑформатор (GPT) (Generative Pre-trained Transformer (GPT))
Generative Pre-trained Transformer (GPT)
ÐšÐ»Ð°Ñ Ð³Ð¾Ð»ÐµÐ¼Ð¸ езикови модели, разработени от OpenAI, които използват транÑформаторна архитектура и Ñа предварително обучени върху огромни количеÑтва текÑтови данни, за да изпълнÑват разнообразни езикови задачи.
Пример: GPT-4 е ÑпоÑобен да пише еÑета, да превежда езици и да обобщава документи Ñ Ð¼Ð¸Ð½Ð¸Ð¼Ð°Ð»Ð½Ð¸ подкани.
Генетичен алгоритъм (Genetic Algorithm)
Genetic Algorithm
Оптимизационна техника, вдъхновена от еÑтеÑÑ‚Ð²ÐµÐ½Ð¸Ñ Ð¿Ð¾Ð´Ð±Ð¾Ñ€, при коÑто решениÑта Ñе развиват Ñ Ñ‚ÐµÑ‡ÐµÐ½Ð¸Ðµ на времето чрез мутациÑ, кръÑтоÑване и ÑелекциÑ.
Пример: Използва Ñе за проектиране на ефективни архитектури на невронни мрежи чрез Ñимулиране на оцелÑване на най-приÑпоÑобените.
Ð¥Ð°Ð»ÑŽÑ†Ð¸Ð½Ð°Ñ†Ð¸Ñ (Hallucination)
Hallucination
Генериране на правдоподобно звучащо, но фактичеÑки неправилно или безÑмиÑлено Ñъдържание от AI модел.
Пример: Езиков модел измиÑÐ»Ñ Ð½ÐµÑъщеÑтвуваща цитат или предоÑÑ‚Ð°Ð²Ñ Ð½ÐµÐ²ÐµÑ€Ð½Ð¸ иÑторичеÑки факти.
ЕвриÑтика (Heuristic)
Heuristic
ПрактичеÑки подход за решаване на проблеми, който не гарантира перфектно решение, но е доÑтатъчен за непоÑредÑтвени цели.
Пример: Използване на правило на палеца за оценка на времето за доÑтавка в логиÑтична AI ÑиÑтема.
Хиперпараметър (Hyperparameter)
Hyperparameter
Конфигурационна ÑтойноÑÑ‚, зададена преди обучение на модел за машинно обучение, като ÑкороÑÑ‚ на обучение или брой Ñлоеве.
Пример: Регулиране на размера на партидата от 32 на 128 за подобрÑване на ÑкороÑтта на обучение и производителноÑтта на модела.
Извод (Inference)
Inference
ПроцеÑÑŠÑ‚ на използване на обучен модел за машинно обучение за правене на прогнози или генериране на изходи от нови входни данни.
Пример: Използване на фино наÑтроен GPT модел за изготвÑне на имейли за екип за поддръжка на клиенти.
Разпознаване на намерение (Intent Detection)
Intent Detection
Задача в разбирането на еÑтеÑтвен език, при коÑто ÑиÑтемата идентифицира целта или намерението на Ð¿Ð¾Ñ‚Ñ€ÐµÐ±Ð¸Ñ‚ÐµÐ»Ñ Ð² Ñъобщение.
Пример: Ð’ чатбот, разпознаване на „ИÑкам да резервирам полет“ като намерение за Ñ€ÐµÐ·ÐµÑ€Ð²Ð°Ñ†Ð¸Ñ Ð½Ð° пътуване.
Интернет на нещата (IoT) (Internet of Things (IoT))
Internet of Things (IoT)
Мрежа от взаимоÑвързани физичеÑки уÑтройÑтва, вградени ÑÑŠÑ Ñензори, Ñофтуер и други технологии за Ñъбиране и обмен на данни.
Пример: Умни термоÑтати и хладилници, които докладват данни за използване и регулират наÑтройките, използвайки AI анализи.
ИнтерпретируемоÑÑ‚ (Interpretability)
Interpretability
Степента, до коÑто човек може да разбере вътрешните механизми на модел за машинно обучение и Ð½ÐµÐ³Ð¾Ð²Ð¸Ñ Ð¿Ñ€Ð¾Ñ†ÐµÑ Ð½Ð° вземане на решениÑ.
Пример: Дървото на решениÑта е по-интерпретируемо от дълбока невронна мрежа, тъй като решениÑта му Ñа проÑледими.
Jupyter Notebook (Jupyter Notebook)
Jupyter Notebook
Интерактивна изчиÑлителна Ñреда Ñ Ð¾Ñ‚Ð²Ð¾Ñ€ÐµÐ½ код, коÑто позволÑва на потребителите да пишат код, да визуализират изходи и да документират анализ в един интерфейÑ.
Пример: Data scientists използват Jupyter Notebooks за прототипиране на модели за машинно обучение и ÑподелÑне на резултати.
K-най-близки ÑÑŠÑеди (KNN) (K-Nearest Neighbours (KNN))
K-Nearest Neighbours (KNN)
ПроÑÑ‚, непараметричен алгоритъм за машинно обучение, използван за клаÑÐ¸Ñ„Ð¸ÐºÐ°Ñ†Ð¸Ñ Ð¸ регреÑиÑ. Той взема Ñ€ÐµÑˆÐµÐ½Ð¸Ñ Ð²ÑŠÐ· оÑнова на най-близките примери за обучение в проÑтранÑтвото на характериÑтиките.
Пример: За да клаÑифицира ново плод като Ñбълка или круша, KNN проверÑва кои етикетирани плодове Ñа най-близки по форма и цвÑÑ‚.
Граф на знанието (Knowledge Graph)
Knowledge Graph
Структура от данни, коÑто използва възли и ребра за предÑтавÑне и Ñъхранение на взаимоÑвързани опиÑÐ°Ð½Ð¸Ñ Ð½Ð° обекти и техните връзки.
Пример: Панелът ÑÑŠÑ Ð·Ð½Ð°Ð½Ð¸Ñ Ð½Ð° Google Ñе захранва от граф на знанието, който Ñвързва обекти като хора, меÑта и ÑъбитиÑ.
ÐžÐ¿Ñ‚Ð¸Ð¼Ð¸Ð·Ð°Ñ†Ð¸Ñ Ð½Ð° езикови модели за обучение (LLMO) (Language Learning Model Optimisation (LLMO))
Language Learning Model Optimisation (LLMO)
Техники, използвани за подобрÑване на производителноÑтта, ефективноÑтта или адаптивноÑтта на големи езикови модели за Ñпецифични задачи или домейни.
Пример: Използване на ÐºÐ²Ð°Ð½Ñ‚Ð¸Ð·Ð°Ñ†Ð¸Ñ Ð¸ наÑтройка на инÑтрукции за оптимизиране на LLM за корпоративна употреба.
ГолÑм езиков модел (LLM) (Large Language Model (LLM))
Large Language Model (LLM)
Тип модел за дълбоко обучение, обучен върху огромни количеÑтва текÑтови данни, ÑпоÑобен да генерира, разбира и разÑъждава Ñ Ñ‡Ð¾Ð²ÐµÑˆÐºÐ¸ език.
Пример: ChatGPT и Claude Ñа LLM, обучени да помагат при пиÑане, кодиране и отговарÑне на въпроÑи.
Латентно проÑтранÑтво (Latent Space)
Latent Space
ВиÑокоизмерно абÑтрактно предÑтавÑне, където Ñходни входове Ñа групирани близо един до друг, използвано в генеративни модели и вгражданиÑ.
Пример: При генериране на изображениÑ, манипулирането на латентното проÑтранÑтво може да промени характериÑтики като ÑркоÑÑ‚ или емоциÑ.
СкороÑÑ‚ на обучение (Learning Rate)
Learning Rate
Ключов хиперпараметър при обучение, който контролира колко Ñе актуализират теглата на модела ÑпрÑмо градиента на загубата.
Пример: ВиÑока ÑкороÑÑ‚ на обучение може да доведе до преÑкачане на минимуми, докато твърде ниÑка ÑкороÑÑ‚ Ð·Ð°Ð±Ð°Ð²Ñ Ð½Ð°Ð¿Ñ€ÐµÐ´ÑŠÐºÐ° на обучението.
Машинно обучение (ML) (Machine Learning (ML))
Machine Learning (ML)
Клон на AI, който позволÑва на ÑиÑтемите да Ñе учат от данни и да подобрÑват производителноÑтта Ñи, без да бъдат изрично програмирани.
Пример: Филтрите за Ñпам използват машинно обучение, за да клаÑифицират имейли като Ñпам или не въз оÑнова на минали примери.
Дрейф на модел (Model Drift)
Model Drift
Феномен, при който точноÑтта на модела намалÑва Ñ Ñ‚ÐµÑ‡ÐµÐ½Ð¸Ðµ на времето поради промени в данните или Ñредата.
Пример: Модел за откриване на измами Ñтава по-малко точен, тъй като тактиките за измами Ñе развиват.
Обучение на модел (Model Training)
Model Training
ПроцеÑÑŠÑ‚ на подаване на данни към модел за машинно обучение и наÑтройка на неговите параметри за минимизиране на грешката.
Пример: Обучение на двигател за препоръки върху иÑториÑта на покупките на клиенти за предлагане на нови продукти.
Мултимодален AI (Multimodal AI)
Multimodal AI
AI ÑиÑтеми, ÑпоÑобни да обработват и интегрират множеÑтво типове данни като текÑÑ‚, изображениÑ, аудио и видео.
Пример: Модел като GPT-4 Vision, който може да чете текÑÑ‚ и да интерпретира Ð¸Ð·Ð¾Ð±Ñ€Ð°Ð¶ÐµÐ½Ð¸Ñ ÐµÐ´Ð½Ð¾Ð²Ñ€ÐµÐ¼ÐµÐ½Ð½Ð¾.
Обработка на еÑтеÑтвен език (NLP) (Natural Language Processing (NLP))
Natural Language Processing (NLP)
Подполе на AI, фокуÑирано върху взаимодейÑтвието между компютри и човешки (еÑтеÑтвен) езици. То позволÑва на машините да четат, разбират и отговарÑÑ‚ на човешки език.
Пример: NLP Ñе използва във глаÑови аÑиÑтенти, Ð¿Ñ€Ð¸Ð»Ð¾Ð¶ÐµÐ½Ð¸Ñ Ð·Ð° езиков превод и чатботове.
Ðевронна мрежа (Neural Network)
Neural Network
Модел за машинно обучение, вдъхновен от Ñтруктурата на Ñ‡Ð¾Ð²ÐµÑˆÐºÐ¸Ñ Ð¼Ð¾Ð·ÑŠÐº, ÑÑŠÑтоÑщ Ñе от Ñлоеве от взаимоÑвързани възли (неврони).
Пример: Ðевронните мрежи ÑтоÑÑ‚ зад моделите за дълбоко обучение, използвани при разпознаване на Ð¸Ð·Ð¾Ð±Ñ€Ð°Ð¶ÐµÐ½Ð¸Ñ Ð¸ глаÑ.
Шум (Noise)
Noise
Случайна или нерелевантна Ð¸Ð½Ñ„Ð¾Ñ€Ð¼Ð°Ñ†Ð¸Ñ Ð² данните, коÑто може да замъгли ÑмиÑлени модели и да повлиÑе негативно на производителноÑтта на модела.
Пример: Грешки в Ñензорите или въведени данни Ñ Ð¿Ñ€Ð°Ð²Ð¾Ð¿Ð¸Ñни грешки могат да Ñе Ñчитат за шум.
ÐžÐ½Ñ‚Ð¾Ð»Ð¾Ð³Ð¸Ñ (Ontology)
Ontology
Структурирана рамка, коÑто категоризира и дефинира връзките между концепциите в даден домейн, чеÑто използвана в Ñемантични AI ÑиÑтеми.
Пример: ÐžÐ½Ñ‚Ð¾Ð»Ð¾Ð³Ð¸Ñ Ð² здравеопазването може да дефинира как Ñимптомите Ñа Ñвързани Ñ Ð±Ð¾Ð»ÐµÑти и лечениÑ.
Преобучаване (Overfitting)
Overfitting
Грешка в моделирането, при коÑто модел за машинно обучение ÑƒÐ»Ð°Ð²Ñ ÑˆÑƒÐ¼Ð° в данните за обучение и Ñе предÑÑ‚Ð°Ð²Ñ Ð·Ð»Ðµ на нови данни.
Пример: Модел, който запаметÑва отговори от обучение, но не може да обработва непознати теÑтови данни, е преобучен.
ПрогноÑтична аналитика (Predictive Analytics)
Predictive Analytics
Използването на данни, алгоритми и AI за идентифициране на вероÑтноÑтта от бъдещи резултати въз оÑнова на иÑторичеÑки данни.
Пример: Търговците на дребно използват прогноÑтична аналитика за прогнозиране на търÑенето на определени продукти.
Предварително обучение (Pre-training)
Pre-training
ПроцеÑÑŠÑ‚ на първоначално обучение на модел върху голÑм, общ набор от данни, преди да бъде фино наÑтроен за Ñпецифични задачи.
Пример: GPT моделите Ñе предварително обучават върху големи корпуÑи, преди да бъдат перÑонализирани за чатботове за поддръжка на клиенти.
Инженеринг на подкани (Prompt Engineering)
Prompt Engineering
ИзкуÑтвото и науката за Ñъздаване на ефективни подкани за наÑочване на изхода на големи езикови модели.
Пример: ДобавÑнето на ÑиÑтемни инÑтрукции като „ОтговарÑй като учтив преподавател“ е пример за инженеринг на подкани.
ÐšÐ²Ð°Ð½Ñ‚Ð¸Ð·Ð°Ñ†Ð¸Ñ (Quantisation)
Quantisation
Техника за компреÑиране на модели, коÑто намалÑва Ð±Ñ€Ð¾Ñ Ð½Ð° битовете, използвани за предÑтавÑне на тегла и активации, подобрÑвайки ефективноÑтта.
Пример: Квантизирането на модел от 32-битов на 8-битов подобрÑва производителноÑтта на мобилни уÑтройÑтва.
Квантови изчиÑÐ»ÐµÐ½Ð¸Ñ (Quantum Computing)
Quantum Computing
Ðова парадигма на изчиÑлениÑта, базирана на квантовата механика, коÑто предлага потенциал за екÑпоненциални възможноÑти за обработка.
Пример: Квантовите изчиÑÐ»ÐµÐ½Ð¸Ñ Ð¼Ð¾Ð¶Ðµ един ден да уÑкорÑÑ‚ AI обучението отвъд клаÑичеÑките граници.
Двигател за разÑъждение (Reasoning Engine)
Reasoning Engine
СиÑтема в AI, коÑто извежда логичеÑки Ð·Ð°ÐºÐ»ÑŽÑ‡ÐµÐ½Ð¸Ñ Ð¾Ñ‚ набор от факти или данни, използвайки правила или алгоритми за извод.
Пример: AI диагноÑтичен инÑтрумент използва двигател за разÑъждение, за да заключи възможни медицинÑки ÑÑŠÑтоÑÐ½Ð¸Ñ Ð²ÑŠÐ· оÑнова на Ñимптоми.
Обучение Ñ Ð¿Ð¾Ð´Ñилване (RL) (Reinforcement Learning (RL))
Reinforcement Learning (RL)
ОблаÑÑ‚ на машинното обучение, където агентите Ñе учат чрез взаимодейÑтвие ÑÑŠÑ ÑвоÑта Ñреда, за да макÑимизират кумулативните награди.
Пример: Робот, който Ñе учи да ходи чрез проба и грешка, използвайки RL техники.
Обучение Ñ Ð¿Ð¾Ð´Ñилване Ñ Ñ‡Ð¾Ð²ÐµÑˆÐºÐ° обратна връзка (RLHF) (Reinforcement Learning with Human Feedback (RLHF))
Reinforcement Learning with Human Feedback (RLHF)
Метод на обучение, при който човешките Ð¿Ñ€ÐµÐ´Ð¿Ð¾Ñ‡Ð¸Ñ‚Ð°Ð½Ð¸Ñ Ð½Ð°Ñочват Ñигнала за награда на AI, чеÑто използван при фина наÑтройка на езикови модели.
Пример: ChatGPT беше обучен Ñ RLHF, за да произвежда по-полезни и безопаÑни отговори.
ГенерациÑ, подÑилена Ñ Ð¸Ð·Ð²Ð»Ð¸Ñ‡Ð°Ð½Ðµ (RAG) (Retrieval-Augmented Generation (RAG))
Retrieval-Augmented Generation (RAG)
Метод, комбиниращ извличане на Ð¸Ð½Ñ„Ð¾Ñ€Ð¼Ð°Ñ†Ð¸Ñ Ñ Ð³ÐµÐ½ÐµÑ€Ð°Ñ†Ð¸Ñ, при който LLM извлича релевантни документи, за да подобри ÑÐ²Ð¾Ñ Ð¾Ñ‚Ð³Ð¾Ð²Ð¾Ñ€.
Пример: AI аÑиÑтент извлича и цитира продуктови Ñпецификации, докато генерира отговор на техничеÑки въпроÑ.
Самообучение (Self-Supervised Learning)
Self-Supervised Learning
Подход за обучение, при който моделът Ñе учи на модели, като генерира ÑобÑтвени етикети от Ñурови данни, намалÑвайки завиÑимоÑтта от данни, анотирани от хора.
Пример: BERT Ñе обучава ÑÑŠÑ Ñамообучение чрез предÑказване на липÑващи думи в текÑÑ‚.
Семантично търÑене (Semantic Search)
Semantic Search
Техника за търÑене, коÑто разбира намерението на Ð¿Ð¾Ñ‚Ñ€ÐµÐ±Ð¸Ñ‚ÐµÐ»Ñ Ð¸ контекÑтуалното значение, а не Ñамо Ñъвпадението на ключови думи.
Пример: ТърÑенето „как да Ð¿Ð¾Ð¿Ñ€Ð°Ð²Ñ Ñ‚ÐµÑ‡Ð°Ñ‰ кран“ връща ръководÑтва, дори ако терминът „течащ кран“ не приÑÑŠÑтва в документа.
Ðнализ на наÑтроениÑта (Sentiment Analysis)
Sentiment Analysis
ПроцеÑÑŠÑ‚ на идентифициране на емоции, Ð¼Ð½ÐµÐ½Ð¸Ñ Ð¸Ð»Ð¸ наглаÑи в текÑÑ‚, чеÑто клаÑифицирайки ги като положителни, отрицателни или неутрални.
Пример: Ðнализиране на туитове за измерване на общеÑтвената Ñ€ÐµÐ°ÐºÑ†Ð¸Ñ ÐºÑŠÐ¼ нов продукт.
СтохаÑтичен (Stochastic)
Stochastic
Включващ ÑлучайноÑÑ‚ или вероÑтноÑтно поведение, чеÑто използван в генеративни AI и оптимизационни алгоритми.
Пример: Изходът на GPT-4 варира за една и Ñъща вход поради Ð½ÐµÐ³Ð¾Ð²Ð¸Ñ ÑтохаÑтичен Ð¿Ñ€Ð¾Ñ†ÐµÑ Ð½Ð° декодиране.
Силен AI (Strong AI)
Strong AI
ИзвеÑтен още като ИзкуÑтвен общ интелект (AGI), Ñе отнаÑÑ Ð´Ð¾ машини Ñ ÐºÐ¾Ð³Ð½Ð¸Ñ‚Ð¸Ð²Ð½Ð¸ ÑпоÑобноÑти на човешко ниво във вÑички домейни.
Пример: Бъдещ AI, който може автономно да пише романи, да планира градове и да решава етични дилеми еднакво добре.
Супер изкуÑтвен интелект (SAI) (Super Artificial Intelligence (SAI))
Super Artificial Intelligence (SAI)
Теоретичен AI, който далеч Ð½Ð°Ð´Ñ…Ð²ÑŠÑ€Ð»Ñ Ñ‡Ð¾Ð²ÐµÑˆÐºÐ¸Ñ Ð¸Ð½Ñ‚ÐµÐ»ÐµÐºÑ‚ във вÑички аÑпекти — разÑъждение, креативноÑÑ‚, емоционална интелигентноÑÑ‚ и Ñ‚.н.
Пример: SAI теоретично може да разработва нови науки и филоÑофии незавиÑимо.
Ðаблюдавано обучение (Supervised Learning)
Supervised Learning
Метод за машинно обучение, при който моделите Ñе обучават върху етикетирани данни, за да научат ÑъответÑтвиÑта вход-изход.
Пример: Обучение на модел да клаÑифицира имейли като Ñпам или не, използвайки иÑторичеÑки примери.
Синтетични данни (Synthetic Data)
Synthetic Data
ИзкуÑтвено генерирани данни, които Ñимулират реални данни, чеÑто използвани за обучение, когато реалните данни Ñа оÑкъдни или чувÑтвителни.
Пример: Създаване на Ñинтетични медицинÑки Ð¸Ð·Ð¾Ð±Ñ€Ð°Ð¶ÐµÐ½Ð¸Ñ Ð·Ð° обучение на диагноÑтични модели, без да Ñе нарушава поверителноÑтта на пациентите.
Токен (Token)
Token
Единица текÑÑ‚, обработвана от LLM — обикновено дума или чаÑÑ‚ от дума.
Пример: Изречението „Здравей ÑвÑÑ‚!“ Ñе Ñ€Ð°Ð·Ð´ÐµÐ»Ñ Ð½Ð° 3 токена: „Здравей“, „ÑвÑт“ и „!“.
Ð¢Ð¾ÐºÐµÐ½Ð¸Ð·Ð°Ñ†Ð¸Ñ (Tokenisation)
Tokenisation
ПроцеÑÑŠÑ‚ на разделÑне на текÑÑ‚ на токени за обработка от модел.
Пример: Ð’ NLP „ChatGPT е Ñтрахотен“ Ñтава [„Chat“, „G“, „PT“, „е“, „Ñтрахотен“].
ТранÑферно обучение (Transfer Learning)
Transfer Learning
Използване на Ð·Ð½Ð°Ð½Ð¸Ñ Ð¾Ñ‚ една задача за подобрÑване на ученето по друга Ñвързана задача, намалÑвайки времето за обучение и нуждите от данни.
Пример: Фина наÑтройка на модел, обучен на английÑки текÑÑ‚, за извършване на анализ на наÑтроениÑта на друг език.
ТранÑформатор (Transformer)
Transformer
Ðрхитектура на невронна мрежа, коÑто използва механизми за внимание за моделиране на поÑледователни данни, широко използвана в LLM.
Пример: BERT, GPT и T5 Ñа вÑички модели, базирани на транÑформатори.
Ðедообучаване (Underfitting)
Underfitting
Когато моделът е твърде опроÑтен, за да улови моделите в данните за обучение, което води до лоша производителноÑÑ‚.
Пример: Линеен модел, който Ñе опитва да прогнозира Ñложни клаÑификации на изображениÑ, може да недообучи.
Ðенаблюдавано обучение (Unsupervised Learning)
Unsupervised Learning
Подход за обучение, при който моделите идентифицират модели или клъÑтери в нетипирани данни.
Пример: Групиране на клиенти въз оÑнова на покупателно поведение без предварително зададени етикети.
ПотребителÑко намерение (User Intent)
User Intent
Целта или намерението зад заÑвката или взаимодейÑтвието на потребителÑ.
Пример: Потребител, който пише „как да изпека торта“, вероÑтно възнамерÑва да намери рецепта.
Валидационен набор (Validation Set)
Validation Set
ПодмножеÑтво от данни, използвано за оценка на производителноÑтта на модела по време на обучение и наÑтройка на хиперпараметри.
Пример: Използва Ñе за откриване на преобучаване преди окончателно теÑтване.
Векторна база данни (Vector Database)
Vector Database
База данни, проектирана за Ñъхранение и търÑене на векторни вгражданиÑ, използвани в AI задачи като търÑене на ÑходÑтво и RAG.
Пример: Pinecone и Weaviate Ñа векторни бази данни за Ñъхранение на текÑтови или образни вгражданиÑ.
Векторно вграждане (Vector Embedding)
Vector Embedding
ЧиÑлено предÑтавÑне на данни, което запазва Ñемантичното значение и връзките във векторно проÑтранÑтво.
Пример: Думите „крал“ и „кралица“ имат Ñходни Ð²Ð³Ñ€Ð°Ð¶Ð´Ð°Ð½Ð¸Ñ Ñ Ñ„Ð¸Ð½Ð¸ полови разлики.
Виртуален аÑиÑтент (Virtual Assistant)
Virtual Assistant
Софтуерен агент, захранван от AI, който помага на потребителите да изпълнÑват задачи чрез разговор или глаÑови команди.
Пример: Siri, Alexa и Google Assistant Ñа популÑрни виртуални аÑиÑтенти.
Разпознаване на Ð³Ð»Ð°Ñ (Voice Recognition)
Voice Recognition
ТехнологиÑ, коÑто интерпретира и преобразува говорим език в текÑÑ‚ или дейÑтвие.
Пример: ГлаÑовото въвеждане и глаÑовите команди разчитат на ÑиÑтеми за разпознаване на глаÑ.
Слабо AI (Weak AI)
Weak AI
AI ÑиÑтеми, проектирани да изпълнÑват Ñ‚ÑÑна, Ñпецифична задача без общ интелект.
Пример: AI за игра на шах, коÑто не може да разбира език или да шофира кола, е пример за Ñлабо AI.
Уеб Ñкрейпинг (Web Scraping)
Web Scraping
Ðвтоматизирано извличане на Ð¸Ð½Ñ„Ð¾Ñ€Ð¼Ð°Ñ†Ð¸Ñ Ð¾Ñ‚ уебÑайтове, чеÑто използвано за Ñъбиране на данни за обучение или наблюдение на Ñъдържание.
Пример: Скрейпинг на обÑви за недвижими имоти за обучение на модел за оценка на имоти.
Тегло (Weight)
Weight
Параметър в невронните мрежи, който Ð¾Ð¿Ñ€ÐµÐ´ÐµÐ»Ñ Ñилата на влиÑние на един възел върху друг.
Пример: Теглата Ñе коригират по време на обучение, за да Ñе минимизира грешката на модела.
Whisper (Whisper)
Whisper
Модел за преобразуване на реч в текÑÑ‚, разработен от OpenAI, ÑпоÑобен да транÑкрибира аудио на множеÑтво езици.
Пример: Whisper може да транÑкрибира лекции и подкаÑти Ñ Ð²Ð¸Ñока точноÑÑ‚.
YAML (YAML)
YAML
Човешки четим формат за ÑÐµÑ€Ð¸Ð°Ð»Ð¸Ð·Ð°Ñ†Ð¸Ñ Ð½Ð° данни, чеÑто използван за конфигурационни файлове в работни процеÑи за машинно обучение.
Пример: Дефиниране на параметри на модела във YAML файл за обучение в PyTorch.
Обучение Ñ Ð½ÑƒÐ»Ð° примери (Zero-shot Learning)
Zero-shot Learning
СпоÑобноÑтта на модел да изпълнÑва задачи, на които никога не е бил изрично обучен, като използва общи знаниÑ.
Пример: Модел, отговарÑщ на правни въпроÑи, въпреки че не е обучен конкретно на правни данни.
Зетабайт (Zettabyte)
Zettabyte
Единица за цифрови данни, равна на един ÑекÑтилион (10^21) байта, чеÑто използвана за опиÑване на мащаба на интернет данните.
Пример: ГлобалниÑÑ‚ интернет трафик надхвърли 1 зетабайт годишно до 2016 г.