AI 用語集バスター

包括的な用語集で人工知能の専門用語を解き明かしましょう。機械学習からニューラルネットワークまで、複雑なAIの概念を簡単な言葉で解説します。

アライメント (Alignment)

Alignment
AIシステムの目標、出力、および動作が人間の目標と価値観に沿うように確保するプロセス。特に、明示的に意図されていない動作を発展させる可能性のある高度なシステムにおいて重要です。
例: プロンプトに関わらず、メンタルヘルスサポートのチャットボットが有害な行動を推奨しないようにする。

アプリケーションプログラミングインターフェース (API) (Application Programming Interface (API))

Application Programming Interface (API)
異なるソフトウェアシステムが通信し、データを交換できるようにする定義済みのルールとプロトコルのセット。
例: OpenAI APIを使用してプロンプトを送信し、Webアプリケーションで言語モデル生成の応答を受け取る。

汎用人工知能 (AGI) (Artificial General Intelligence (AGI))

Artificial General Intelligence (AGI)
人間ができるあらゆる知的タスクを実行できるAIの理論的な形態。ドメインを横断して学習を一般化します。
例: AGIシステムは、タスク固有のプログラミングなしで、音楽作曲を学習し、手術を行い、哲学の試験に合格することができます。

人工知能 (AI) (Artificial Intelligence (AI))

Artificial Intelligence (AI)
自律的に思考、推論、行動するようにプログラムされた機械における人間の知能のシミュレーション。
例: AIは、SiriのようなパーソナルアシスタントやTesla Autopilotのような自動運転システムを支えています。

AI倫理 (AI Ethics)

AI Ethics
公平性、プライバシー、説明責任、非差別など、AIの開発と利用の道徳的影響に関わる分野。
例: 採用アルゴリズムが性別や民族性に基づいて差別することを防ぐためのガイドラインを作成する。

拡張知能 (Augmented Intelligence)

Augmented Intelligence
AIが人間を置き換えるのではなく、人間の知能を補完し強化する協調モデル。
例: 医師が最終的な診断を下すために異常箇所をハイライトするAI搭載の放射線科ツール。

自律エージェント (Autonomous Agent)

Autonomous Agent
人間の介入なしに、自身の目標を達成するために独自の決定を下し、行動を起こすことができるAIシステム。
例: 都市の通りをナビゲートし、障害物を独立して回避する自動運転配達ロボット。

バックプロパゲーション (Backpropagation)

Backpropagation
予測誤差を最小限に抑えるために、出力を逆方向に重みを更新してニューラルネットワークをトレーニングする技術。
例: 手書き数字の認識エラー率を減らすために、画像分類器のトレーニングに使用されます。

バイアス (アルゴリズムバイアス) (Bias (Algorithmic Bias))

Bias (Algorithmic Bias)
不均衡または非代表的なトレーニングデータに起因する、AI結果における意図しない体系的な偏り。
例: トレーニングデータでの過少表現により、有色人種の顔認識システムがより頻繁に誤認識する。

大規模データ (Big Data)

Big Data
保存、分析、価値抽出に特別なツールを必要とする非常に大きなデータセット。AIモデルのトレーニングによく使用されます。
例: Eコマースプラットフォームのレコメンデーションエンジンをトレーニングするために、数百万のユーザーインタラクションを使用する。

ブラックボックスモデル (Black Box Model)

Black Box Model
人間の解釈が容易ではない内部ロジックを持つAIまたは機械学習モデルのタイプ。意思決定の方法を理解するのが困難になります。
例: ローンの承認に使用されるディープニューラルネットワークですが、ある申請者が承認され、別の申請者が拒否された理由を明確に説明しません。

コグニティブコンピューティング (Cognitive Computing)

Cognitive Computing
NLPやパターン認識などの技術を使用して、推論や学習などの人間の思考プロセスをシミュレートするように設計されたAIシステム。
例: 法律専門家が判例を分析し、結果を予測するのを支援するコグニティブコンピューティングシステム。

コンピュータビジョン (Computer Vision)

Computer Vision
コンピューターが画像やビデオなどの視覚データを解釈および処理できるようにする人工知能の分野。
例: コンピュータビジョンを使用してセキュリティ映像の人物を特定する顔認識システム。

コーパス (Corpus)

Corpus
言語モデルのトレーニングに使用される、書き言葉または話し言葉の大きなコレクション。
例: Common Crawlデータセットは、GPTのような大規模言語モデルのトレーニングに使用される公開Webコーパスです。

データドリフト (Data Drift)

Data Drift
入力データが時間とともに変化し、モデルのパフォーマンスが低下する現象。
例: 新しいセンサー技術が導入されるにつれて、産業機器の予測メンテナンスモデルの精度が低下します。

データラベリング (Data Labelling)

Data Labelling
教師あり学習に適したデータにタグまたはラベルを付けるプロセス。
例: がん検出モデルをトレーニングするために、数千の腫瘍画像を良性または悪性とラベル付けする。

データマイニング (Data Mining)

Data Mining
大規模データセット内の意味のあるパターン、相関関係、異常を発見するプロセス。
例: 小売業者がデータマイニングを使用して、おむつを購入する人がビールも購入することが多いことを特定する。

ディープラーニング (Deep Learning)

Deep Learning
多層ニューラルネットワークを使用してデータ内の複雑なパターンをモデル化する機械学習のサブフィールド。
例: ディープラーニングは、GPT-4のような言語モデルやStable Diffusionのような画像生成モデルで使用されています。

拡散モデル (Diffusion Models)

Diffusion Models
ランダムノイズを構造化された出力に段階的に変換することによってデータを生成することを学習する生成モデルのクラス。
例: Stable Diffusionは、拡散技術を使用してテキストプロンプトから写実的な画像を生成します。

エンベディング (Embedding)

Embedding
単語、画像、または文のセマンティックな意味を捉えるために使用される、データの数値ベクトル表現。
例: NLPでは、文脈に応じて「銀行」という単語は「お金」という単語と似たエンベディングを持つが、「川岸」とは異なるエンベディングを持つ場合があります。

エポック (Epoch)

Epoch
機械学習モデルのトレーニングプロセス中に、トレーニングデータセット全体を完全に反復すること。
例: データセットに1,000個の例があり、モデルがトレーニング中にそれらをすべて1回見た場合、それは1エポックです。

倫理的AI (Ethical AI)

Ethical AI
AI技術が透明性、公平性、社会的な価値観に沿って動作することを保証する設計と展開の哲学。
例: 少数派候補者に対する差別を防ぐためにバイアスチェックを含むAI採用ツール。

エキスパートシステム (Expert System)

Expert System
ルールとロジックを使用して、特定のドメインの人間エキスパートの意思決定能力を模倣するように設計されたAIシステム。
例: 土壌データと害虫の履歴に基づいて作物治療を推奨するために農業で使用されるエキスパートシステム。

説明可能なAI (XAI) (Explainable AI (XAI))

Explainable AI (XAI)
AIシステムは、その内部プロセスと意思決定プロセスを人間が理解できるように設計されており、信頼性と説明責任を高めます。
例: 医療診断AIは、推奨事項を提供するだけでなく、どの症状がその結論につながったかを説明します。

Few-shot学習 (Few-shot Learning)

Few-shot Learning
モデルがわずかなラベル付き例のみを使用してトレーニングまたはファインチューニングされる機械学習方法。
例: 10個の例を示すだけで、LLMをカスタマイズして法律メールを作成する。

ファインチューニング (Fine-tuning)

Fine-tuning
事前にトレーニングされたモデルを取得し、新しい、より小さなデータセットでさらにトレーニングして、特定のタスクに特化させるプロセス。
例: 一般的なLLMを法律文書でファインチューニングして、法律ドラフトアシスタントを作成する。

基盤モデル (Foundation Model)

Foundation Model
多様で広範なデータでトレーニングされた大規模モデルであり、多くの下流タスクに適応できます。
例: GPT-4やPaLM 2は、要約、Q&A、翻訳などの機能を実行できる基盤モデルです。

ファジィ論理 (Fuzzy Logic)

Fuzzy Logic
固定の真/偽(バイナリ)論理ではなく、近似値を扱う論理の形式。不確実性下での推論に役立ちます。
例: 「少し暑い」や「非常に寒い」といったファジィ入力に基づいて温度を調整する空調システムで使用されます。

生成敵対ネットワーク (GAN) (Generative Adversarial Network (GAN))

Generative Adversarial Network (GAN)
2つのネットワーク(ジェネレーターとディスクリミネーター)が出力品質の向上を競う生成モデルアーキテクチャ。
例: GANは、ディープフェイクビデオを作成したり、スケッチからリアルな製品写真を生成したりするために使用されます。

生成AI (Generative AI)

Generative AI
トレーニングデータからテキスト、画像、音楽、ビデオなどの新しいコンテンツを作成できる人工知能のカテゴリ。
例: ChatGPTがブログ記事を生成したり、Midjourneyがテキストプロンプトからデジタルアートワークを作成したりします。

生成事前学習済みトランスフォーマー (GPT) (Generative Pre-trained Transformer (GPT))

Generative Pre-trained Transformer (GPT)
OpenAIによって開発された大規模言語モデルのクラス。トランスフォーマーアーキテクチャを使用し、膨大な量のテキストデータで事前トレーニングされ、さまざまな言語タスクを実行します。
例: GPT-4は、最小限のプロンプトでエッセイを書いたり、言語を翻訳したり、ドキュメントを要約したりできます。

遺伝的アルゴリズム (Genetic Algorithm)

Genetic Algorithm
突然変異、交差、選択を通じてソリューションが時間とともに進化する、自然選択に触発された最適化技術。
例: 最適なものを選んでニューラルネットワークアーキテクチャを効率的に設計するために使用されます。

ハルシネーション (Hallucination)

Hallucination
AIモデルが生成する、もっともらしく聞こえるが事実に基づかない、または無意味なコンテンツ。
例: 言語モデルが、存在しない引用を発明したり、誤った歴史的事実を提供したりします。

ヒューリスティック (Heuristic)

Heuristic
完璧な解決策を保証しないが、即時の目標には十分な実用的な問題解決アプローチ。
例: 物流AIシステムで配達時間を推定するための経験則を使用する。

ハイパーパラメータ (Hyperparameter)

Hyperparameter
学習率やレイヤー数など、機械学習モデルのトレーニング前に設定される構成値。
例: トレーニング速度とモデルパフォーマンスを向上させるために、バッチサイズを32から128に調整する。

推論 (Inference)

Inference
トレーニング済みの機械学習モデルを使用して、新しい入力データから予測を行ったり、出力を生成したりするプロセス。
例: カスタマーサポートチーム向けのメールを作成するために、ファインチューニングされたGPTモデルを使用する。

意図検出 (Intent Detection)

Intent Detection
システムがメッセージ内のユーザーの目標または目的を特定する、自然言語理解におけるタスク。
例: チャットボットで、「フライトを予約したい」という旅行予約の意図を認識する。

モノのインターネット (IoT) (Internet of Things (IoT))

Internet of Things (IoT)
センサー、ソフトウェア、その他のテクノロジーが組み込まれた相互接続された物理デバイスのネットワークで、データを収集および交換します。
例: 使用状況データを報告し、AI分析を使用して設定を調整するスマートサーモスタットや冷蔵庫。

解釈可能性 (Interpretability)

Interpretability
人間が機械学習モデルの内部メカニズムとその意思決定プロセスを理解できる程度。
例: 決定木は、その決定が追跡可能であるため、ディープニューラルネットワークよりも解釈可能性が高いです。

Jupyter Notebook (Jupyter Notebook)

Jupyter Notebook
ユーザーがコードを記述し、出力を視覚化し、分析を単一のインターフェースで文書化できるオープンソースのインタラクティブコンピューティング環境。
例: データサイエンティストは、Jupyter Notebookを使用して機械学習モデルをプロトタイプ化し、結果を共有します。

K近傍法 (KNN) (K-Nearest Neighbours (KNN))

K-Nearest Neighbours (KNN)
分類と回帰に使用されるシンプルで非パラメトリックな機械学習アルゴリズム。特徴空間内の最も近いトレーニング例に基づいて決定を下します。
例: 新しい果物をリンゴまたはナシとして分類するために、KNNは形状と色で最も近いラベル付き果物をチェックします。

ナレッジグラフ (Knowledge Graph)

Knowledge Graph
エンティティとその関係の相互接続された説明を表し、保存するためにノードとエッジを使用するデータ構造。
例: Googleのナレッジパネルは、人物、場所、イベントなどのエンティティを接続するナレッジグラフによって支えられています。

言語学習モデル最適化 (LLMO) (Language Learning Model Optimisation (LLMO))

Language Learning Model Optimisation (LLMO)
特定のタスクまたはドメインに対して大規模言語モデルのパフォーマンス、効率、または適応性を向上させるために使用される技術。
例: 量子化と指示チューニングを使用して、エンタープライズ用途にLLMを最適化する。

大規模言語モデル (LLM) (Large Language Model (LLM))

Large Language Model (LLM)
膨大な量のテキストデータでトレーニングされたディープラーニングモデルの一種で、人間の言語を生成、理解、推論できます。
例: ChatGPTやClaudeは、執筆、コーディング、質問への回答を支援するためにトレーニングされたLLMです。

潜在空間 (Latent Space)

Latent Space
類似した入力が互いに近くにグループ化される高次元の抽象表現。生成モデルやエンベディングで使用されます。
例: 画像生成では、潜在空間を操作することで、明るさや感情などの特徴を変更できます。

学習率 (Learning Rate)

Learning Rate
損失勾配に関してモデルの重みがどれだけ調整されるかを制御する、トレーニングにおける主要なハイパーパラメータ。
例: 高い学習率は最小値をオーバーシュートさせる可能性があり、低すぎる学習率はトレーニングの進行を遅らせます。

機械学習 (ML) (Machine Learning (ML))

Machine Learning (ML)
システムがデータから学習し、明示的にプログラムされなくてもパフォーマンスを向上させることを可能にするAIの分野。
例: スパムフィルターは、過去の例に基づいてメールをスパムかそうでないかに分類するために機械学習を使用します。

モデルドリフト (Model Drift)

Model Drift
データや環境の変化により、モデルの精度が時間とともに低下する現象。
例: 詐欺の手法が進化するにつれて、不正検出モデルの精度が低下します。

モデルトレーニング (Model Training)

Model Training
データを機械学習モデルにフィードし、エラーを最小限に抑えるためにパラメータを調整するプロセス。
例: 新製品を推奨するために、顧客の購入履歴でレコメンデーションエンジンをトレーニングする。

マルチモーダルAI (Multimodal AI)

Multimodal AI
テキスト、画像、音声、ビデオなどの複数のデータタイプを処理および統合できるAIシステム。
例: テキストを読み取り、画像を同時に解釈できるGPT-4 Visionのようなモデル。

自然言語処理 (NLP) (Natural Language Processing (NLP))

Natural Language Processing (NLP)
コンピューターと人間の(自然な)言語との間の相互作用に焦点を当てたAIのサブフィールド。これにより、機械は人間の言語を読み、理解し、応答することができます。
例: NLPは、音声アシスタント、言語翻訳アプリ、チャットボットで使用されます。

ニューラルネットワーク (Neural Network)

Neural Network
人間の脳の構造に触発された機械学習モデルで、相互接続されたノード(ニューロン)の層で構成されます。
例: ニューラルネットワークは、画像認識や音声認識で使用されるディープラーニングモデルの背後にあります。

ノイズ (Noise)

Noise
データ内のランダムまたは無関係な情報。意味のあるパターンを不明瞭にし、モデルのパフォーマンスに悪影響を与える可能性があります。
例: センサーエラーやタイポを含むデータ入力はノイズと見なされる可能性があります。

オントロジー (Ontology)

Ontology
ドメイン内の概念間の関係をカテゴリ化および定義する構造化されたフレームワーク。セマンティックAIシステムでよく使用されます。
例: ヘルスケアにおけるオントロジーは、症状が疾患や治療法とどのように関連するかを定義する場合があります。

過学習 (Overfitting)

Overfitting
機械学習モデルがトレーニングデータ内のノイズを捉え、新しいデータでパフォーマンスが悪くなるモデリングエラー。
例: トレーニングの回答を記憶するが、未知のテストデータを処理できないモデルは過学習しています。

予測分析 (Predictive Analytics)

Predictive Analytics
データ、アルゴリズム、AIを使用して、過去のデータに基づいて将来の結果の可能性を特定すること。
例: 小売業者は予測分析を使用して、特定の製品の需要を予測します。

事前学習 (Pre-training)

Pre-training
特定のタスクにファインチューニングする前に、大規模で一般的なデータセットでモデルを最初にトレーニングするプロセス。
例: GPTモデルは、カスタマーサービスチャットボットにカスタマイズされる前に、大規模なコーパスで事前トレーニングされます。

プロンプトエンジニアリング (Prompt Engineering)

Prompt Engineering
大規模言語モデルの出力を誘導するための効果的なプロンプトを作成する芸術と科学。
例: 「丁寧なチューターとして返信してください」のようなシステム指示を追加することは、プロンプトエンジニアリングの例です。

量子化 (Quantisation)

Quantisation
重みと活性化を表すビット数を減らし、効率を高めるモデル圧縮技術。
例: モデルを32ビットから8ビットに量子化すると、モバイルデバイスでのパフォーマンスが向上します。

量子コンピューティング (Quantum Computing)

Quantum Computing
量子力学に基づいたコンピューティングの新しいパラダイム。指数関数的な処理能力の可能性を秘めています。
例: 量子コンピューティングは、いつかAIトレーニングを古典的な限界を超えて加速する可能性があります。

推論エンジン (Reasoning Engine)

Reasoning Engine
AIにおける、ルールまたは推論アルゴリズムを使用して、一連の事実またはデータから論理的な結論を導き出すシステム。
例: AI診断ツールは、推論エンジンを使用して、症状に基づいて可能な病状を推測します。

強化学習 (RL) (Reinforcement Learning (RL))

Reinforcement Learning (RL)
エージェントが環境と相互作用して累積報酬を最大化することによって学習する機械学習の分野。
例: ロボットがRL技術を使用して試行錯誤で歩くことを学習する。

人間のフィードバックによる強化学習 (RLHF) (Reinforcement Learning with Human Feedback (RLHF))

Reinforcement Learning with Human Feedback (RLHF)
人間の好みがAIの報酬信号をガイドする学習方法。言語モデルのファインチューニングによく使用されます。
例: ChatGPTは、より役立つ安全な応答を生成するためにRLHFでトレーニングされました。

検索拡張生成 (RAG) (Retrieval-Augmented Generation (RAG))

Retrieval-Augmented Generation (RAG)
情報検索と生成を組み合わせた方法。LLMが関連ドキュメントをフェッチして応答を改善します。
例: AIアシスタントが、技術的な質問への回答を生成しながら、製品仕様を取得して引用します。

自己教師あり学習 (Self-Supervised Learning)

Self-Supervised Learning
モデルが生のデータから独自のラベルを生成することによってパターンを学習するトレーニングアプローチ。人間が注釈を付けたデータへの依存を減らします。
例: BERTは、テキスト内の欠落単語を予測することによって自己教師あり学習でトレーニングされます。

セマンティック検索 (Semantic Search)

Semantic Search
キーワードマッチングだけでなく、ユーザーの意図と文脈的な意味を理解する検索技術。
例: 「漏れている蛇口の修理方法」を検索すると、ドキュメントに「漏れている蛇口」という用語が含まれていなくてもガイドが表示されます。

感情分析 (Sentiment Analysis)

Sentiment Analysis
テキスト内の感情、意見、または態度を特定するプロセス。多くの場合、肯定的、否定的、または中立的と分類されます。
例: 新製品に対する世間の反応を測るためにツイートを分析する。

確率的 (Stochastic)

Stochastic
ランダム性または確率的動作を含む。生成AIや最適化アルゴリズムでよく使用されます。
例: GPT-4の出力は、その確率的なデコードプロセスにより、同じ入力でも異なります。

強いAI (Strong AI)

Strong AI
汎用人工知能(AGI)としても知られ、すべてのドメインで人間レベルの認知能力を持つ機械を指します。
例: 小説を自律的に書いたり、都市を計画したり、倫理的なジレンマを同等にうまく解決したりできる将来のAI。

超人工知能 (SAI) (Super Artificial Intelligence (SAI))

Super Artificial Intelligence (SAI)
推論、創造性、感情的知性など、すべての側面で人間の知能をはるかに超える理論的なAI。
例: SAIは理論的には新しい科学や哲学を独立して開発できる可能性があります。

教師あり学習 (Supervised Learning)

Supervised Learning
モデルがラベル付きデータでトレーニングされ、入力と出力のマッピングを学習する機械学習技術。
例: 過去の例を使用して、メールをスパムかそうでないかに分類するようにモデルを教える。

合成データ (Synthetic Data)

Synthetic Data
現実世界のデータをシミュレートする人工的に生成されたデータ。現実のデータが不足しているか機密性が高い場合によくトレーニングに使用されます。
例: 患者のプライバシーを侵害することなく、診断モデルをトレーニングするために合成医療画像を生成する。

トークン (Token)

Token
LLMによって処理されるテキストの単位。通常は単語または単語の一部です。
例: 「Hello world!」という文は、「Hello」、「world」、「!」の3つのトークンに分割されます。

トークン化 (Tokenisation)

Tokenisation
モデルで処理するためにテキストをトークンに分割するプロセス。
例: NLPでは、「ChatGPT is great」は「['Chat', 'G', 'PT', 'is', 'great']」になります。

転移学習 (Transfer Learning)

Transfer Learning
トレーニング時間とデータニーズを削減するために、あるタスクからの知識を別の関連タスクでの学習を強化するために使用します。
例: 英語テキストでトレーニングされたモデルを、別の言語での感情分析を実行するようにファインチューニングする。

トランスフォーマー (Transformer)

Transformer
シーケンシャルデータをモデル化するためにアテンションメカニズムを使用するニューラルネットワークアーキテクチャ。LLMで広く使用されています。
例: BERT、GPT、T5はすべてトランスフォーマーベースのモデルです。

未学習 (Underfitting)

Underfitting
モデルがトレーニングデータ内のパターンを捉えるには単純すぎて、パフォーマンスが悪くなること。
例: 複雑な画像分類を予測しようとする線形モデルは、未学習になる可能性があります。

教師なし学習 (Unsupervised Learning)

Unsupervised Learning
モデルがラベルなしデータ内のパターンまたはクラスターを識別する学習アプローチ。
例: 事前に定義されたラベルなしで、購入行動に基づいて顧客をグループ化する。

ユーザー意図 (User Intent)

User Intent
ユーザーのクエリまたはインタラクションの背後にある目標または目的。
例: 「ケーキの焼き方」と入力したユーザーは、レシピを見つけたいと考えている可能性が高いです。

検証セット (Validation Set)

Validation Set
トレーニング中にモデルのパフォーマンスを評価し、ハイパーパラメータを調整するために使用されるデータのサブセット。
例: 最終テスト前に過学習を検出するために使用されます。

ベクトルデータベース (Vector Database)

Vector Database
AIタスク(類似性検索やRAGなど)で使用されるベクトルエンベディングを保存および検索するために設計されたデータベース。
例: PineconeやWeaviateは、テキストまたは画像エンベディングを保存するためのベクトルデータベースです。

ベクトル埋め込み (Vector Embedding)

Vector Embedding
ベクトル空間でセマンティックな意味と関係を保持するデータの数値表現。
例: 「王」と「女王」という単語は、性別の違いがわずかに似たエンベディングを持っています。

バーチャルアシスタント (Virtual Assistant)

Virtual Assistant
会話や音声コマンドを通じてユーザーがタスクを完了するのを支援するAI搭載のソフトウェアエージェント。
例: Siri、Alexa、Googleアシスタントは人気のバーチャルアシスタントです。

音声認識 (Voice Recognition)

Voice Recognition
話し言葉を解釈し、テキストまたはアクションに変換するテクノロジー。
例: 音声入力や音声コマンドは、音声認識システムに依存しています。

弱いAI (Weak AI)

Weak AI
一般的な知能を持たずに、狭い特定のタスクを実行するように設計されたAIシステム。
例: 言語を理解したり車を運転したりできないチェスAIは、弱いAIの例です。

ウェブスクレイピング (Web Scraping)

Web Scraping
トレーニングデータを収集したり、コンテンツを監視したりするために使用される、Webサイトからの情報の自動抽出。
例: 不動産評価モデルをトレーニングするために、不動産リスティングをスクレイピングする。

重み (Weight)

Weight
ニューラルネットワーク内のパラメータで、あるノードが別のノードに与える影響の強さを決定します。
例: 重みは、モデルのエラーを最小限に抑えるためにトレーニング中に調整されます。

Whisper (Whisper)

Whisper
OpenAIによって開発された、複数の言語で音声を文字起こしできる音声テキストモデル。
例: Whisperは、講義やポッドキャストを高精度で文字起こしできます。

YAML (YAML)

YAML
データシリアライゼーションのための人間が読める形式。機械学習ワークフローの構成ファイルによく使用されます。
例: PyTorchでのトレーニングのために、YAMLファイルでモデルパラメータを定義する。

Zero-shot学習 (Zero-shot Learning)

Zero-shot Learning
モデルが、一般的な知識を活用することによって、明示的にトレーニングされていないタスクを実行する能力。
例: 法律データで特別にトレーニングされていないモデルが、法律上の質問に答える。

ゼタバイト (Zettabyte)

Zettabyte
10の21乗バイトに等しいデジタルデータの単位。インターネットデータの規模を表すためによく使用されます。
例: 2016年までに、世界のインターネットトラフィックは年間1ゼタバイトを超えました。