AI 용어 해설

포괄적인 용어집으로 인공지능 용어를 명확하게 이해하세요. 머신러닝부터 신경망까지, 복잡한 AI 개념을 간단한 용어로 설명해 드립니다.

ì •ë ¬ (Alignment) (Alignment)

Alignment
AI 시스템의 목표, 출력 및 행동이 인간의 목표 및 가치와 일치하도록 보장하는 프로세스입니다. 특히 의도하지 않은 행동을 개발할 수 있는 고급 시스템에서 중요합니다.
예시: 정신 건강 지원을 위한 챗봇이 어떤 프롬프트에도 해로운 조치를 권장하지 않도록 보장하는 것.

애플리케이션 프로그래밍 인터페이스 (API) (Application Programming Interface (API))

Application Programming Interface (API)
다른 소프트웨어 시스템이 통신하고 데이터를 교환할 수 있도록 하는 정의된 규칙 및 프로토콜 세트입니다.
예시: OpenAI API를 사용하여 프롬프트를 보내고 웹 앱에서 언어 모델이 생성한 응답을 받는 것.

인공 일반 지능 (AGI) (Artificial General Intelligence (AGI))

Artificial General Intelligence (AGI)
인간이 할 수 있는 모든 지적 작업을 수행할 수 있는 이론적인 형태의 AI입니다. 여러 도메인에 걸쳐 학습을 일반화합니다.
예시: AGI 시스템은 작업별 프로그래밍 없이 음악 작곡을 배우고, 수술을 수행하고, 철학 시험을 통과할 수 있습니다.

인공 지능 (AI) (Artificial Intelligence (AI))

Artificial Intelligence (AI)
자율적으로 생각하고, 추론하고, 행동하도록 프로그래밍된 기계에서 인간 지능을 시뮬레이션하는 것입니다.
예시: AI는 Siri와 같은 개인 비서 및 Tesla Autopilot과 같은 자율 주행 시스템을 지원합니다.

AI 윤리 (AI Ethics)

AI Ethics
공정성, 개인 정보 보호, 책임 및 비차별을 포함하여 AI 개발 및 사용의 도덕적 함의에 관한 학문입니다.
예시: 고용 알고리즘이 성별이나 민족에 따른 차별을 방지하기 위한 지침 만들기.

증강 지능 (Augmented Intelligence)

Augmented Intelligence
AI가 인간을 대체하는 것이 아니라 보완하고 향상시키는 협업 모델입니다.
예시: 의사가 최종 진단을 내리도록 돕기 위해 이상 징후를 강조하는 AI 기반 영상의학 도구.

자율 에이전트 (Autonomous Agent)

Autonomous Agent
인간의 개입 없이 목표를 달성하기 위해 자체적으로 결정을 내리고 행동을 취할 수 있는 AI 시스템입니다.
예시: 도시 거리를 탐색하고 장애물을 독립적으로 피하는 자율 주행 배달 로봇.

역전파 (Backpropagation)

Backpropagation
출력에서 입력 계층으로 역으로 가중치를 업데이트하여 예측 오류를 최소화함으로써 신경망을 훈련하는 기술입니다.
예시: 필기 숫자 인식 오류율을 줄이기 위해 이미지 분류기 훈련에 사용됩니다.

편향 (알고리즘 편향) (Bias (Algorithmic Bias))

Bias (Algorithmic Bias)
불균형하거나 대표성이 없는 훈련 데이터로 인해 AI 결과에 의도하지 않은 체계적인 편애가 발생하는 것입니다.
예시: 훈련 데이터에서 과소 표현으로 인해 유색인종을 더 자주 잘못 식별하는 안면 인식 시스템.

빅데이터 (Big Data)

Big Data
저장, 분석 및 가치 추출을 위해 특수 도구가 필요한 매우 큰 데이터 세트로, 종종 AI 모델을 훈련하는 데 사용됩니다.
예시: 전자 상거래 플랫폼의 추천 엔진을 훈련하기 위해 수백만 건의 사용자 상호 작용을 사용하는 것.

블랙박스 모델 (Black Box Model)

Black Box Model
AI 또는 머신러닝 모델의 내부 로직이 인간이 쉽게 해석할 수 없어 의사 결정 방식을 이해하기 어려운 유형입니다.
예시: 대출 승인에 사용되지만 한 지원자가 수락되고 다른 지원자가 거부된 명확한 이유를 제공하지 않는 딥 신경망.

인지 컴퓨팅 (Cognitive Computing)

Cognitive Computing
NLP 및 패턴 인식과 같은 기술을 사용하여 추론 및 학습과 같은 인간의 사고 과정을 시뮬레이션하도록 설계된 AI 시스템입니다.
예시: 법률 전문가가 사례 법률을 분석하고 결과를 예측하는 데 도움이 되는 인지 컴퓨팅 시스템.

컴퓨터 비전 (Computer Vision)

Computer Vision
컴퓨터가 이미지 및 비디오와 같은 시각적 데이터를 해석하고 처리할 수 있도록 하는 인공 지능 분야입니다.
예시: 컴퓨터 비전을 사용하여 보안 영상에서 사람을 식별하는 안면 인식 시스템.

코퍼스 (Corpus)

Corpus
언어 모델을 훈련하는 데 사용되는 대규모의 서면 또는 구두 텍스트 모음입니다.
예시: Common Crawl 데이터셋은 GPT와 같은 대규모 언어 모델을 훈련하는 데 사용되는 공개 웹 코퍼스입니다.

데이터 드리프트 (Data Drift)

Data Drift
입력 데이터가 시간이 지남에 따라 변경되어 모델 성능이 저하되는 현상입니다.
예시: 새로운 센서 기술이 도입됨에 따라 산업 장비의 예측 유지 보수 모델이 덜 정확해지는 것.

데이터 라벨링 (Data Labelling)

Data Labelling
지도 학습에 적합하도록 데이터에 태그 또는 레이블을 지정하는 프로세스입니다.
예시: 암 탐지 모델을 훈련하기 위해 수천 개의 종양 이미지를 양성 또는 악성으로 라벨링하는 것.

데이터 마이닝 (Data Mining)

Data Mining
대규모 데이터 세트에서 의미 있는 패턴, 상관 관계 및 이상을 발견하는 프로세스입니다.
예시: 기저귀를 사는 사람들이 맥주도 사는 경향이 있다는 것을 파악하기 위해 데이터 마이닝을 사용하는 소매업체.

딥러닝 (Deep Learning)

Deep Learning
데이터의 복잡한 패턴을 모델링하기 위해 다층 신경망을 사용하는 머신러닝의 하위 분야입니다.
예시: 딥러닝은 GPT-4와 같은 언어 모델 및 Stable Diffusion과 같은 이미지 생성 모델에 사용됩니다.

확산 모델 (Diffusion Models)

Diffusion Models
점진적으로 무작위 노이즈를 구조화된 출력으로 변환하여 데이터를 생성하는 방법을 학습하는 생성 모델 클래스입니다.
예시: Stable Diffusion은 확산 기술을 사용하여 텍스트 프롬프트에서 사실적인 이미지를 생성합니다.

임베딩 (Embedding)

Embedding
단어, 이미지 또는 문장의 의미론적 의미를 포착하는 데 자주 사용되는 데이터의 숫자 벡터 표현입니다.
예시: NLP에서 '은행'이라는 단어는 맥락에 따라 '강둑'보다 '돈'과 유사한 임베딩을 가질 수 있습니다.

에포크 (Epoch)

Epoch
머신러닝 모델의 훈련 과정 동안 전체 훈련 데이터 세트에 대한 전체 반복입니다.
예시: 데이터 세트에 1,000개의 예가 있고 모델이 훈련 중에 모두 한 번씩 본다면 이는 1 에포크입니다.

윤리적 AI (Ethical AI)

Ethical AI
AI 기술이 투명하고 공정하며 사회적 가치에 부합하도록 운영되도록 하는 설계 및 배포 철학입니다.
예시: 소수 후보자에 대한 차별을 방지하기 위해 편향 검사를 포함하는 AI 채용 도구.

전문가 시스템 (Expert System)

Expert System
규칙과 논리를 사용하여 특정 도메인의 인간 전문가의 의사 결정 능력을 모방하는 AI 시스템입니다.
예시: 토양 데이터와 해충 이력을 기반으로 작물 치료를 권장하는 농업에 사용되는 전문가 시스템.

설명 가능한 AI (XAI) (Explainable AI (XAI))

Explainable AI (XAI)
AI 시스템은 내부 프로세스와 의사 결정 프로세스를 인간이 이해할 수 있도록 설계하여 신뢰와 책임을 높입니다.
예시: 권장 사항을 제공할 뿐만 아니라 어떤 증상이 해당 결론으로 이어졌는지 설명하는 의료 진단 AI.

소수샷 학습 (Few-shot Learning)

Few-shot Learning
모델이 소수의 레이블이 지정된 예제만 사용하여 훈련되거나 미세 조정되는 머신러닝 방법입니다.
예시: 10개의 예제만 보여준 후 LLM을 맞춤 설정하여 법률 이메일을 작성하는 것.

미세 조정 (Fine-tuning)

Fine-tuning
사전 훈련된 모델을 가져와 새로운 소규모 데이터 세트에서 추가로 훈련하여 특정 작업에 전문화하는 프로세스입니다.
예시: 법률 초안 작성 도우미를 만들기 위해 내부 법률 문서에 일반 LLM인 GPT를 미세 조정하는 것.

파운데이션 모델 (Foundation Model)

Foundation Model
다양하고 광범위한 데이터로 훈련된 대규모 모델로, 많은 다운스트림 작업에 적응할 수 있습니다.
예시: GPT-4 및 PaLM 2는 요약, Q&A, 번역 등 다양한 작업을 수행할 수 있는 파운데이션 모델입니다.

퍼지 논리 (Fuzzy Logic)

Fuzzy Logic
고정된 참/거짓(이진) 논리 대신 근사값 값을 처리하는 논리 형태로, 불확실성 하에서의 추론에 유용합니다.
예시: '약간 더움' 또는 '매우 추움'과 같은 퍼지 입력을 기반으로 온도를 조정하는 기후 제어 시스템에 사용됩니다.

생성적 적대 신경망 (GAN) (Generative Adversarial Network (GAN))

Generative Adversarial Network (GAN)
두 개의 네트워크(생성자 및 판별자)가 출력 품질을 개선하기 위해 경쟁하는 생성 모델 아키텍처입니다.
예시: GAN은 딥페이크 비디오를 생성하거나 스케치에서 사실적인 제품 사진을 생성하는 데 사용됩니다.

생성형 AI (Generative AI)

Generative AI
훈련 데이터에서 텍스트, 이미지, 음악 또는 비디오와 같은 새로운 콘텐츠를 생성할 수 있는 인공 지능 범주입니다.
예시: ChatGPT는 블로그 게시물을 생성하고 Midjourney는 텍스트 프롬프트에서 디지털 아트를 생성합니다.

사전 훈련된 생성 트랜스포머 (GPT) (Generative Pre-trained Transformer (GPT))

Generative Pre-trained Transformer (GPT)
OpenAI에서 개발한 대규모 언어 모델 클래스로, 트랜스포머 아키텍처를 사용하고 방대한 양의 텍스트 데이터로 사전 훈련되어 다양한 언어 작업을 수행합니다.
예시: GPT-4는 최소한의 프롬프트로 에세이를 작성하고, 언어를 번역하고, 문서를 요약할 수 있습니다.

유전 알고리즘 (Genetic Algorithm)

Genetic Algorithm
돌연변이, 교차 및 선택을 통해 시간이 지남에 따라 솔루션이 진화하는 자연 선택에서 영감을 받은 최적화 기술입니다.
예시: 적자 생존을 시뮬레이션하여 효율적인 신경망 아키텍처를 설계하는 데 사용됩니다.

환각 (Hallucination)

Hallucination
AI 모델이 그럴듯하게 들리지만 사실이 아니거나 무의미한 콘텐츠를 생성하는 것입니다.
예시: 언어 모델이 존재하지 않는 인용을 만들거나 잘못된 역사적 사실을 제공하는 것.

휴리스틱 (Heuristic)

Heuristic
완벽한 솔루션을 보장하지는 않지만 즉각적인 목표에 충분한 실용적인 문제 해결 접근 방식입니다.
예시: 물류 AI 시스템에서 배송 시간을 추정하기 위해 경험 법칙을 사용하는 것.

하이퍼파라미터 (Hyperparameter)

Hyperparameter
학습률 또는 레이어 수와 같이 머신러닝 모델을 훈련하기 전에 설정되는 구성 값입니다.
예시: 훈련 속도와 모델 성능을 개선하기 위해 배치 크기를 32에서 128로 조정하는 것.

추론 (Inference)

Inference
훈련된 머신러닝 모델을 사용하여 새 입력 데이터에서 예측을 하거나 출력을 생성하는 프로세스입니다.
예시: 고객 지원팀을 위한 이메일 초안 작성을 위해 미세 조정된 GPT 모델을 사용하는 것.

의도 감지 (Intent Detection)

Intent Detection
시스템이 메시지에서 사용자의 목표 또는 목적을 식별하는 자연어 이해 작업입니다.
예시: 챗봇에서 '항공편을 예약하고 싶습니다'를 여행 예약 의도로 인식하는 것.

사물 인터넷 (IoT) (Internet of Things (IoT))

Internet of Things (IoT)
데이터를 수집하고 교환하기 위해 센서, 소프트웨어 및 기타 기술이 내장된 상호 연결된 물리적 장치 네트워크입니다.
예시: 사용량 데이터를 보고하고 AI 분석을 사용하여 설정을 조정하는 스마트 온도 조절 장치 및 냉장고.

해석 가능성 (Interpretability)

Interpretability
인간이 머신러닝 모델의 내부 메커니즘과 의사 결정 프로세스를 이해할 수 있는 정도입니다.
예시: 의사 결정 트리는 의사 결정이 추적 가능하기 때문에 딥 신경망보다 더 해석 가능합니다.

주피터 노트북 (Jupyter Notebook)

Jupyter Notebook
사용자가 단일 인터페이스에서 코드 작성, 출력 시각화 및 분석 문서화를 할 수 있는 오픈 소스 대화형 컴퓨팅 환경입니다.
예시: 데이터 과학자는 주피터 노트북을 사용하여 머신러닝 모델을 프로토타이핑하고 결과를 공유합니다.

K-최근접 이웃 (KNN) (K-Nearest Neighbours (KNN))

K-Nearest Neighbours (KNN)
분류 및 회귀에 사용되는 간단한 비모수 머신러닝 알고리즘입니다. 특징 공간에서 가장 가까운 훈련 예제를 기반으로 결정을 내립니다.
예시: 새로운 과일을 사과 또는 배로 분류하려면 KNN은 모양과 색상에서 가장 가까운 레이블이 지정된 과일을 확인합니다.

지식 그래프 (Knowledge Graph)

Knowledge Graph
개체 및 그 관계에 대한 상호 연결된 설명을 나타내고 저장하는 데이터 구조입니다.
예시: Google의 지식 패널은 사람, 장소, 이벤트와 같은 개체를 연결하는 지식 그래프에 의해 지원됩니다.

언어 학습 모델 최적화 (LLMO) (Language Learning Model Optimisation (LLMO))

Language Learning Model Optimisation (LLMO)
특정 작업 또는 도메인에 대한 대규모 언어 모델의 성능, 효율성 또는 적응성을 개선하는 데 사용되는 기술입니다.
예시: 양자화 및 지침 조정을 사용하여 LLM을 엔터프라이즈 사용에 맞게 최적화하는 것.

대규모 언어 모델 (LLM) (Large Language Model (LLM))

Large Language Model (LLM)
방대한 양의 텍스트 데이터로 훈련된 딥러닝 모델 유형으로, 인간 언어를 생성, 이해 및 추론할 수 있습니다.
예시: ChatGPT 및 Claude는 글쓰기, 코딩 및 질문 답변을 지원하도록 훈련된 LLM입니다.

잠재 공간 (Latent Space)

Latent Space
생성 모델 및 임베딩에 사용되는 유사한 입력이 서로 가깝게 그룹화되는 고차원 추상 표현입니다.
예시: 이미지 생성에서 잠재 공간을 조작하면 밝기 또는 감정과 같은 특징을 변경할 수 있습니다.

학습률 (Learning Rate)

Learning Rate
모델 가중치가 손실 기울기에 대해 얼마나 많이 조정되는지를 제어하는 훈련의 핵심 하이퍼파라미터입니다.
예시: 높은 학습률은 최소값을 지나칠 수 있고, 너무 낮은 학습률은 훈련 진행을 늦출 수 있습니다.

머신러닝 (ML) (Machine Learning (ML))

Machine Learning (ML)
시스템이 데이터에서 학습하고 명시적으로 프로그래밍되지 않고도 성능을 개선할 수 있도록 하는 AI의 한 분야입니다.
예시: 스팸 필터는 과거 예제를 기반으로 이메일을 스팸으로 분류하기 위해 머신러닝을 사용합니다.

모델 드리프트 (Model Drift)

Model Drift
데이터 또는 환경의 변경으로 인해 모델의 정확도가 시간이 지남에 따라 감소하는 현상입니다.
예시: 사기 수법이 진화함에 따라 사기 탐지 모델이 덜 정확해지는 것.

모델 훈련 (Model Training)

Model Training
머신러닝 모델에 데이터를 공급하고 오류를 최소화하기 위해 매개변수를 조정하는 프로세스입니다.
예시: 새로운 제품을 추천하기 위해 고객 구매 기록에 대한 추천 엔진을 훈련하는 것.

멀티모달 AI (Multimodal AI)

Multimodal AI
텍스트, 이미지, 오디오 및 비디오와 같은 여러 유형의 데이터를 처리하고 통합할 수 있는 AI 시스템입니다.
예시: 텍스트를 읽고 이미지를 동시에 해석할 수 있는 GPT-4 Vision과 같은 모델.

자연어 처리 (NLP) (Natural Language Processing (NLP))

Natural Language Processing (NLP)
컴퓨터와 인간(자연) 언어 간의 상호 작용에 초점을 맞춘 AI의 하위 분야입니다. 기계가 인간 언어를 읽고, 이해하고, 응답할 수 있도록 합니다.
예시: NLP는 음성 비서, 언어 번역 앱 및 챗봇에 사용됩니다.

신경망 (Neural Network)

Neural Network
상호 연결된 노드(뉴런)의 계층으로 구성된 인간 뇌의 구조에서 영감을 받은 머신러닝 모델입니다.
예시: 신경망은 이미지 및 음성 인식에 사용되는 딥러닝 모델의 기반입니다.

노이즈 (Noise)

Noise
데이터의 무작위 또는 관련 없는 정보로, 의미 있는 패턴을 가리고 모델 성능에 부정적인 영향을 미칠 수 있습니다.
예시: 센서 오류 또는 오타가 포함된 데이터 항목은 노이즈로 간주될 수 있습니다.

온톨로지 (Ontology)

Ontology
도메인 내의 개념 간의 관계를 분류하고 정의하는 구조화된 프레임워크로, 의미론적 AI 시스템에 자주 사용됩니다.
예시: 의료 분야의 온톨로지는 증상이 질병 및 치료와 어떻게 관련되는지 정의할 수 있습니다.

과적합 (Overfitting)

Overfitting
머신러닝 모델이 훈련 데이터의 노이즈를 포착하여 새 데이터에서 성능이 저하되는 모델링 오류입니다.
예시: 훈련 답변을 암기하지만 보지 못한 테스트 데이터를 처리할 수 없는 모델은 과적합된 것입니다.

예측 분석 (Predictive Analytics)

Predictive Analytics
과거 데이터를 기반으로 미래 결과의 가능성을 식별하기 위한 데이터, 알고리즘 및 AI의 사용입니다.
예시: 소매업체는 예측 분석을 사용하여 특정 제품의 수요를 예측합니다.

사전 훈련 (Pre-training)

Pre-training
특정 작업에 대해 미세 조정하기 전에 대규모 일반 데이터 세트로 모델을 초기 훈련하는 프로세스입니다.
예시: GPT 모델은 고객 서비스 챗봇에 맞춤 설정되기 전에 대규모 코퍼스로 사전 훈련됩니다.

프롬프트 엔지니어링 (Prompt Engineering)

Prompt Engineering
대규모 언어 모델의 출력을 안내하기 위한 효과적인 프롬프트를 만드는 기술과 과학입니다.
예시: '정중한 튜터처럼 답하세요'와 같은 시스템 지침을 추가하는 것은 프롬프트 엔지니어링의 예입니다.

양자화 (Quantisation)

Quantisation
가중치와 활성화 값을 나타내는 데 사용되는 비트 수를 줄여 효율성을 향상시키는 모델 압축 기술입니다.
예시: 모델을 32비트에서 8비트로 양자화하면 모바일 장치에서 성능이 향상됩니다.

양자 컴퓨팅 (Quantum Computing)

Quantum Computing
양자 역학에 기반한 새로운 컴퓨팅 패러다임으로, 기하급수적인 처리 능력을 제공할 잠재력을 가지고 있습니다.
예시: 양자 컴퓨팅은 언젠가 클래식 한계를 넘어 AI 훈련을 가속화할 수 있습니다.

추론 엔진 (Reasoning Engine)

Reasoning Engine
AI에서 규칙 또는 추론 알고리즘을 사용하여 사실 또는 데이터 세트에서 논리적 결론을 도출하는 시스템입니다.
예시: AI 진단 도구는 추론 엔진을 사용하여 증상에 따라 가능한 의학적 상태를 추론합니다.

강화 학습 (RL) (Reinforcement Learning (RL))

Reinforcement Learning (RL)
에이전트가 환경과 상호 작용하여 누적 보상을 최대화하는 방법을 학습하는 머신러닝 영역입니다.
예시: 로봇이 RL 기술을 사용하여 시행착오를 통해 걷는 법을 배우는 것.

인간 피드백을 통한 강화 학습 (RLHF) (Reinforcement Learning with Human Feedback (RLHF))

Reinforcement Learning with Human Feedback (RLHF)
인간의 선호도가 AI의 보상 신호를 안내하는 학습 방법으로, 언어 모델 미세 조정에 자주 사용됩니다.
예시: ChatGPT는 더 유용하고 안전한 응답을 생성하기 위해 RLHF로 훈련되었습니다.

검색 증강 생성 (RAG) (Retrieval-Augmented Generation (RAG))

Retrieval-Augmented Generation (RAG)
정보 검색과 생성을 결합하는 방법으로, LLM이 관련 문서를 가져와 응답을 개선합니다.
예시: AI 어시스턴트가 기술 질문에 대한 답변을 생성하는 동안 제품 사양을 검색하고 인용하는 것.

자기 지도 학습 (Self-Supervised Learning)

Self-Supervised Learning
모델이 원시 데이터에서 자체 레이블을 생성하여 패턴을 학습하는 훈련 접근 방식으로, 인간이 주석을 단 데이터에 대한 의존도를 줄입니다.
예시: BERT는 텍스트에서 누락된 단어를 예측하여 자기 지도 학습으로 훈련됩니다.

의미론적 검색 (Semantic Search)

Semantic Search
키워드 일치뿐만 아니라 사용자 의도와 문맥적 의미를 이해하는 검색 기술입니다.
예시: '누수 수도꼭지 수리 방법'을 검색하면 문서에 '누수 수도꼭지'라는 용어가 없더라도 가이드가 반환됩니다.

감성 분석 (Sentiment Analysis)

Sentiment Analysis
텍스트에서 감정, 의견 또는 태도를 식별하는 프로세스로, 종종 긍정적, 부정적 또는 중립적으로 분류됩니다.
예시: 새로운 제품에 대한 대중의 반응을 측정하기 위해 트윗 분석.

확률적 (Stochastic)

Stochastic
무작위성 또는 확률적 행동을 포함하며, 생성형 AI 및 최적화 알고리즘에 자주 사용됩니다.
예시: GPT-4의 출력은 확률적 디코딩 프로세스로 인해 동일한 입력에 대해 다릅니다.

강인공지능 (Strong AI)

Strong AI
모든 도메인에서 인간 수준의 인지 능력을 갖춘 기계를 의미합니다. (인공 일반 지능(AGI)이라고도 함)
예시: 소설을 자율적으로 쓰고, 도시를 계획하고, 윤리적 딜레마를 똑같이 잘 해결할 수 있는 미래의 AI.

초인공지능 (SAI) (Super Artificial Intelligence (SAI))

Super Artificial Intelligence (SAI)
모든 측면(추론, 창의성, 감성 지능 등)에서 인간 지능을 훨씬 능가하는 이론적인 AI입니다.
예시: SAI는 이론적으로 독립적으로 새로운 과학과 철학을 개발할 수 있습니다.

지도 학습 (Supervised Learning)

Supervised Learning
모델이 레이블이 지정된 데이터를 사용하여 입력-출력 매핑을 학습하는 머신러닝 기술입니다.
예시: 과거 예제를 사용하여 이메일을 스팸으로 분류하도록 모델을 가르치는 것.

합성 데이터 (Synthetic Data)

Synthetic Data
실제 데이터를 시뮬레이션하는 인공적으로 생성된 데이터로, 실제 데이터가 부족하거나 민감할 때 훈련에 자주 사용됩니다.
예시: 환자 개인 정보를 침해하지 않고 진단 모델을 훈련하기 위해 합성 의료 이미지를 생성하는 것.

토큰 (Token)

Token
LLM이 처리하는 텍스트 단위로, 일반적으로 단어 또는 단어 조각입니다.
예시: 'Hello world!'라는 문장은 'Hello', 'world', '!'의 3개 토큰으로 분할됩니다.

토큰화 (Tokenisation)

Tokenisation
모델이 처리하기 위해 텍스트를 토큰으로 분해하는 프로세스입니다.
예시: NLP에서 'ChatGPT is great'는 ['Chat', 'G', 'PT', 'is', 'great']이 됩니다.

전이 학습 (Transfer Learning)

Transfer Learning
한 작업의 지식을 다른 관련 작업의 학습을 향상시키는 데 사용하여 훈련 시간과 데이터 요구 사항을 줄입니다.
예시: 영어 텍스트로 훈련된 모델을 미세 조정하여 다른 언어로 감성 분석을 수행하는 것.

트랜스포머 (Transformer)

Transformer
순차적 데이터를 모델링하기 위해 어텐션 메커니즘을 사용하는 신경망 아키텍처로, LLM에서 널리 사용됩니다.
예시: BERT, GPT 및 T5는 모두 트랜스포머 기반 모델입니다.

과소적합 (Underfitting)

Underfitting
모델이 너무 단순하여 훈련 데이터의 패턴을 포착하지 못하여 성능이 저하되는 경우입니다.
예시: 복잡한 이미지 분류를 예측하기 위해 선형 모델을 사용하는 것은 과소적합될 수 있습니다.

비지도 학습 (Unsupervised Learning)

Unsupervised Learning
모델이 레이블이 지정되지 않은 데이터에서 패턴 또는 클러스터를 식별하는 학습 접근 방식입니다.
예시: 미리 정의된 레이블 없이 구매 행동에 따라 고객을 그룹화하는 것.

사용자 의도 (User Intent)

User Intent
사용자의 쿼리 또는 상호 작용 뒤에 있는 목표 또는 목적입니다.
예시: '케이크 굽는 법'을 입력하는 사용자는 레시피를 찾으려는 의도일 가능성이 높습니다.

검증 세트 (Validation Set)

Validation Set
훈련 중에 모델 성능을 평가하고 하이퍼파라미터를 조정하는 데 사용되는 데이터의 하위 집합입니다.
예시: 최종 테스트 전에 과적합을 감지하는 데 사용됩니다.

벡터 데이터베이스 (Vector Database)

Vector Database
유사성 검색 및 RAG와 같은 AI 작업에 사용되는 벡터 임베딩을 저장하고 검색하도록 설계된 데이터베이스입니다.
예시: Pinecone 및 Weaviate는 텍스트 또는 이미지 임베딩을 저장하기 위한 벡터 데이터베이스입니다.

벡터 임베딩 (Vector Embedding)

Vector Embedding
벡터 공간에서 의미론적 의미와 관계를 보존하는 데이터의 숫자 표현입니다.
예시: '왕'과 '여왕'이라는 단어는 미묘한 성별 차이와 함께 유사한 임베딩을 가집니다.

가상 비서 (Virtual Assistant)

Virtual Assistant
대화 또는 음성 명령을 통해 사용자가 작업을 완료하도록 돕는 AI 기반 소프트웨어 에이전트입니다.
예시: Siri, Alexa 및 Google Assistant는 인기 있는 가상 비서입니다.

음성 인식 (Voice Recognition)

Voice Recognition
말하는 언어를 텍스트 또는 동작으로 해석하고 변환하는 기술입니다.
예시: 음성 입력 및 음성 명령은 음성 인식 시스템에 의존합니다.

약인공지능 (Weak AI)

Weak AI
일반 지능 없이 특정 작업을 수행하도록 설계된 AI 시스템입니다.
예시: 언어를 이해하거나 자동차를 운전할 수 없는 체스 플레이 AI는 약인공지능의 예입니다.

웹 스크래핑 (Web Scraping)

Web Scraping
웹사이트에서 정보를 자동으로 추출하는 것으로, 종종 훈련 데이터를 수집하거나 콘텐츠를 모니터링하는 데 사용됩니다.
예시: 부동산 평가 모델을 훈련하기 위해 부동산 목록을 스크래핑하는 것.

가중치 (Weight)

Weight
신경망의 매개변수로, 한 노드가 다른 노드에 미치는 영향의 강도를 결정합니다.
예시: 가중치는 모델의 오류를 최소화하기 위해 훈련 중에 조정됩니다.

Whisper (Whisper)

Whisper
OpenAI에서 개발한 음성-텍스트 모델로, 여러 언어로 오디오를 전사할 수 있습니다.
예시: Whisper는 강의 및 팟캐스트를 높은 정확도로 전사할 수 있습니다.

YAML (YAML)

YAML
데이터 직렬화를 위한 인간이 읽을 수 있는 형식으로, 머신러닝 워크플로우의 구성 파일에 일반적으로 사용됩니다.
예시: PyTorch에서 훈련을 위해 YAML 파일에 모델 매개변수를 정의하는 것.

제로샷 학습 (Zero-shot Learning)

Zero-shot Learning
모델이 일반 지식을 활용하여 명시적으로 훈련되지 않은 작업을 수행하는 능력입니다.
예시: 법률 데이터에 대해 특별히 훈련되지 않았음에도 불구하고 법률 질문에 답변하는 모델.

제타바이트 (Zettabyte)

Zettabyte
10억(10^21) 바이트와 같은 디지털 데이터 단위로, 종종 인터넷 데이터의 규모를 설명하는 데 사용됩니다.
예시: 2016년까지 전 세계 인터넷 트래픽은 연간 1 제타바이트를 초과했습니다.