ディープラーニングの応用

物体検出(ぶったいけんしゅつ/Object Detection)

概要
画像中から特定の物体の位置と種類を検出する技術。主に物体のある領域を囲む「バウンディングボックス」とラベルを出力する。画像認識よりも高度な処理が求められる。

一言で表すと
画像内の物体の位置と種類を検出

関連する用語
・バウンディングボックス
・R-CNN
・YOLO
・セマンティックセグメンテーション
・インスタンスセグメンテーション

バウンディングボックス(Bounding Box)

概要
画像内の物体を矩形(四角形)で囲んだ領域のこと。物体検出において、その物体の位置を示すために使われる。

一言で表すと
物体を囲う四角形の領域

関連する用語
・物体検出
・R-CNN
・YOLO
・Selective Search
・インスタンスセグメンテーション

候補領域を切り出し(こうほりょういきをきりだし/Region Proposal)

概要
画像中に物体が存在する可能性のある領域を事前に抽出する処理。R-CNNなどの初期の物体検出モデルで使われ、計算コスト削減に役立つ。

一言で表すと
物体がありそうな場所を抽出

関連する用語
・Selective Search
・R-CNN
・Fast R-CNN
・Faster R-CNN
・物体検出

R-CNN(アールシーエヌエヌ/Regions with CNN features)

概要
画像から候補領域を抽出し、それぞれにCNNを適用して物体を分類する手法。物体検出にCNNを取り入れた先駆け的存在だが、処理が遅いのが課題。

一言で表すと
CNNで候補領域を分類

関連する用語
・Selective Search
・Fast R-CNN
・Faster R-CNN
・物体検出
・バウンディングボックス

Selective Search(セレクティブサーチ)

概要
画像をセグメント化し、似た領域を統合して物体候補を生成するアルゴリズム。R-CNNで候補領域の抽出に使われた。

一言で表すと
物体候補を生成する手法

関連する用語
・候補領域を切り出し
・R-CNN
・物体検出
・バウンディングボックス

Fast R-CNN(ファストアールシーエヌエヌ)

概要
R-CNNを改良した手法で、1回のCNNの処理で特徴マップを得てから、候補領域ごとに分類・回帰を行う。計算効率と精度が向上した。

一言で表すと
R-CNNを高速化した手法

関連する用語
・R-CNN
・Faster R-CNN
・ROIプーリング
・物体検出
・バウンディングボックス

Faster R-CNN(ファスターアールシーエヌエヌ)

概要
Fast R-CNNに「Region Proposal Network (RPN)」を追加し、候補領域の抽出もCNNで学習することで、さらに高速化した物体検出モデル。

一言で表すと
候補抽出もCNN化した検出モデル

関連する用語
・Fast R-CNN
・RPN
・物体検出
・バウンディングボックス
・YOLO

SSD(エスエスディー/Single Shot MultiBox Detector)

概要
物体検出を一度のCNN処理で完結させる手法。画像全体をグリッドに分割して、複数のスケールで物体を検出するため、YOLOよりも高精度なこともある。

一言で表すと
一回の処理で物体検出

関連する用語
・YOLO
・Faster R-CNN
・物体検出
・バウンディングボックス

YOLO(ヨーロウ/You Only Look Once)

概要
画像をグリッドに分割し、各セルに物体があるかを一括で判断する高速な物体検出手法。リアルタイム処理に向いている。

一言で表すと
高速な一括物体検出

関連する用語
・SSD
・Faster R-CNN
・物体検出
・バウンディングボックス

セマンティックセグメンテーション(Semantic Segmentation)

概要
画像内の各ピクセルをクラスごとに分類する手法。物体の位置や形状をより精密に捉えるが、個体識別はできない。

一言で表すと
ピクセル単位の領域分類

関連する用語
・FCN
・U-Net
・インスタンスセグメンテーション
・物体検出
・画像認識

FCN(エフシーエヌ/Fully Convolutional Network)

概要
全ての層を畳み込み層(Fully Convolutional)で構成したネットワーク。セマンティックセグメンテーションの基本モデルで、出力は画像と同じサイズのピクセルマップ。

一言で表すと
セグメンテーション用CNN

関連する用語
・セマンティックセグメンテーション
・U-Net
・SegNet
・CNN
・画像認識

U-Net(ユーネット)

概要
FCNをベースに医療画像などのセグメンテーションに特化して設計された構造。エンコーダとデコーダを対称に配置し、中間層の特徴を結合して高精度な出力を得る。

一言で表すと
高精度なセグメンテーションモデル

関連する用語
・FCN
・セマンティックセグメンテーション
・SegNet
・インスタンスセグメンテーション

SegNet(セグネット)

概要
FCNを改良し、プーリング時のインデックスを記憶して逆変換することで空間情報を維持するセマンティックセグメンテーションモデル。

一言で表すと
プーリング情報を活かすモデル

関連する用語
・FCN
・U-Net
・セマンティックセグメンテーション
・CNN

YOLACT(ヨーラクト)

概要
リアルタイム処理が可能なインスタンスセグメンテーション手法。物体ごとのマスクを一括で生成し、YOLOのように高速な処理を実現。

一言で表すと
高速インスタンスセグメンテーション

関連する用語
・インスタンスセグメンテーション
・YOLO
・MASK R-CNN
・物体検出

MASK R-CNN(マスクアールシーエヌエヌ)

概要
Faster R-CNNにマスク予測のブランチを追加したモデルで、物体検出と同時にマスク(領域)を出力するインスタンスセグメンテーション手法。

一言で表すと
検出+マスク生成のモデル

関連する用語
・Faster R-CNN
・インスタンスセグメンテーション
・物体検出
・バウンディングボックス

コーパス(Corpus)

概要
自然言語処理において使用される大量のテキストデータの集合。学習や評価、辞書作成などに使われる。

一言で表すと
言語処理用の文章データ集

関連する用語
・形態素解析
・Bag-of-Words
・分かち書き
・自然言語処理

Bag-of-Words(BoW)(バッグオブワーズ)

概要
文章中の単語の出現頻度のみを使って文章をベクトル化する手法。語順などの情報は無視される。

一言で表すと
単語の出現頻度で特徴化

関連する用語
・TF-IDF
・コーパス
・自然言語処理
・ベクトル化

形態素解析(けいたいそかいせき/Morphological Analysis)

概要
日本語などの文を、意味を持つ最小単位「形態素」に分解し、それぞれの品詞などを識別する処理。日本語の前処理において重要。

一言で表すと
単語レベルに文を分解

関連する用語
・形態素
・分かち書き
・自然言語処理
・コーパス

形態素(けいたいそ/Morpheme)

概要
言語の意味を持つ最小単位。たとえば「走った」には「走(動詞)」「った(過去)」という2つの形態素が含まれる。

一言で表すと
意味を持つ最小の言語単位

関連する用語
・形態素解析
・自然言語処理
・品詞タグ付け
・分かち書き

分かち書き(わかちがき/Tokenization)

概要
日本語の文にスペースを挿入して単語単位に区切る処理。形態素解析の一環であり、BoWなどのベクトル化の前処理として使われる。

一言で表すと
単語ごとに文を区切る処理

関連する用語
・形態素解析
・形態素
・コーパス
・自然言語処理

MeCab(めかぶ/MeCab)

概要
MeCabは、日本語の形態素解析器で、文章を単語(形態素)に分割し、それぞれの品詞や活用形などを付与します。辞書(例:IPA辞書)を用いて高精度な解析が可能で、機械学習モデルも内蔵しています。

一言で表すと
高性能な日本語形態素解析器

関連する用語
・形態素解析
・形態素
・Sudachi
・Kuromoji
・Janome

JUMAN(じゅまん/JUMAN)

概要
JUMANは、京都大学が開発した日本語形態素解析器で、特に学術用途での精度と安定性に優れています。KNPという構文解析器と組み合わせて使われることが多いです。

一言で表すと
学術寄りの日本語形態素解析器

関連する用語
・形態素解析
・KNP
・構文解析
・意味解析
・MeCab

Janome(Janome)

概要
JanomeはPythonで書かれた純粋な日本語形態素解析器で、インストールが簡単で軽量です。辞書を内蔵しており、特に教育や小規模な用途に向いています。

一言で表すと
Python製の簡単形態素解析器

関連する用語
・形態素解析
・MeCab
・Kuromoji
・Sudachi
・Python

Kuromoji(Kuromoji)

概要
KuromojiはJavaで実装された日本語形態素解析器で、LuceneやElasticsearchと統合されることが多いです。検索エンジン向けに最適化されています。

一言で表すと
Java向けの検索エンジン特化型解析器

関連する用語
・形態素解析
・Lucene
・Elasticsearch
・MeCab
・Sudachi

Sudachi(Sudachi)

概要
SudachiはWorks Applicationsが開発した日本語形態素解析器で、辞書の粒度を3段階に切り替えられるのが特徴です。現代的な語彙にも対応しており、精度と柔軟性が高いです。

一言で表すと
柔軟な辞書設定が可能な解析器

関連する用語
・形態素解析
・MeCab
・Kuromoji
・Janome
・辞書

N-gram(エヌグラム/N-gram)

概要
N-gramは、連続するn個の単語や文字の組み合わせを抽出する手法で、自然言語処理においてテキストの特徴を数値化するために用いられます。例えば、2-gram(バイグラム)では、「私は自然言語処理に興味があります」を「私は」「は自然」「自然言語」…と分割します。

一言で表すと
連続単語の頻度を数える手法

関連する用語
・言語モデル
・テキストマイニング
・TF-IDF
・分散表現

TF-IDF(ティーエフ・アイディーエフ/Term Frequency-Inverse Document Frequency)

概要
TF-IDFは、文書内の単語の重要度を評価する指標で、TF(単語の出現頻度)とIDF(逆文書頻度)を掛け合わせて計算します。これにより、特定の文書で頻繁に出現し、他の文書ではあまり見られない単語に高い重みを与えることができます。

一言で表すと
単語の重要度を数値化する指標

関連する用語
・TF
・IDF
・ベクトル空間モデル
・テキストマイニング

TF(ティーエフ/Term Frequency)

概要
TFは、特定の文書内での単語の出現頻度を示す指標で、単語の出現回数を文書内の総単語数で割って算出します。頻繁に出現する単語ほど高い値を持ちます。

一言で表すと
文書内の単語の出現頻度

関連する用語
・TF-IDF
・IDF
・テキストマイニング

IDF(アイディーエフ/Inverse Document Frequency)

概要
IDFは、単語の希少性を評価する指標で、文書全体における単語の出現頻度の逆数を対数で表します。多くの文書に出現する一般的な単語には低い値が、少数の文書にしか出現しない珍しい単語には高い値が与えられます。

一言で表すと
単語の希少性を示す指標

関連する用語
・TF-IDF
・TF
・テキストマイニング

ストップワード(ストップワード/Stop Words)

概要
ストップワードは、文章中で頻繁に出現するが、情報量が少ないため分析時に除外される単語のことです。例えば、「の」「は」「が」などの助詞や、「the」「is」などの英語の一般的な単語が該当します。

一言で表すと
分析時に除外する一般的な単語

関連する用語
・形態素解析
・TF-IDF
・前処理

構文解析(こうぶんかいせき/Syntactic Parsing)

概要
構文解析は、文章の文法構造を解析し、単語や文節の関係性を明らかにする手法です。これにより、主語と述語、修飾語と被修飾語などの関係を特定し、文章の意味理解を助けます。

一言で表すと
文章の文法構造を解析する手法

関連する用語
・係り受け解析
・意味解析
・KNP
・CaboCha

係り受け構造(かかりうけこうぞう/Dependency Structure)

概要
係り受け構造は、日本語の文法において、ある文節が他の文節にどのように係るか(修飾するか)を示す関係性です。これにより、文章の意味や構造を明確に理解することができます。

一言で表すと
文節間の修飾関係を示す構造

関連する用語
・構文解析
・CaboCha
・KNP
・意味解析

CaboCha(カボチャ/CaboCha)

概要
CaboChaは、日本語の係り受け解析器で、文章を文節単位に分割し、それぞれの係り受け関係を解析します。形態素解析器MeCabと組み合わせて使用されることが多く、自然言語処理の前処理として利用されます。

一言で表すと
日本語の係り受け解析ツール

関連する用語
・係り受け解析
・構文解析
・MeCab
・KNP

KNP(ケーエヌピー/KNP)

概要
KNPは、京都大学が開発した日本語の構文・意味解析器で、JUMANと組み合わせて使用されます。係り受け解析に加え、意味役割の解析も行い、より深い文理解を可能にします。

一言で表すと
構文と意味を解析する日本語解析器

関連する用語
・JUMAN
・構文解析
・意味解析
・係り受け解析

意味解析(いみかいせき/Semantic Analysis)

概要
意味解析は、文章や単語の意味を理解し、文脈に応じた解釈を行う自然言語処理の手法です。構文解析の結果を基に、単語の意味や文全体の意味を推定します。

一言で表すと
文章の意味を理解する解析手法

関連する用語
・構文解析
・文脈解析
・KNP
・分散表現

文脈解析(ぶんみゃくかいせき/Contextual Analysis)

概要
文脈解析は、文章や会話の中での単語や表現の意味を、前後の文脈を考慮して解釈する手法です。これにより、多義語や曖昧な表現の意味を正確に理解することが可能になります。

一言で表すと
文脈に基づく意味の解釈手法

関連する用語
・意味解析
・照応解析
・談話構造解析
・分散表現

複数文の関係性(ふくすうぶんのかんけいせい/Inter-sentence Relations)

概要
複数文の関係性は、文章間の論理的・意味的なつながりを解析する手法で、文章全体の構造や流れを理解するために重要です。因果関係や対比、列挙などの関係を特定します。

一言で表すと
文章間の論理的つながりの解析

関連する用語
・談話構造解析
・文脈解析
・意味解析

照応解析(しょうおうかいせき/Coreference Resolution)

概要
照応解析は、文章中の代名詞や指示語が何を指しているのかを特定する手法です。これにより、文章の一貫性や意味の明確化が図られます。

一言で表すと
代名詞の指示対象を特定する解析

関連する用語
・文脈解析
・意味解析
・談話構造解析

談話構造解析(だんわこうぞうかいせき/Discourse Structure Analysis)

概要
談話構造解析は、文章全体の構造や情報の流れを解析する手法で、段落やセクション間の関係性を明らかにします。これにより、文章の主題や論理展開を把握できます。

一言で表すと
文章全体の構造と流れの解析

関連する用語
・文脈解析
・複数文の関係性
・意味解析

One-Hotベクトル(ワンホットベクトル/One-Hot Vector)

概要
単語やカテゴリをベクトルで表現する最も単純な方法で、対象の要素だけが1で、他はすべて0になる。語彙サイズが大きいと次元が非常に高くなるのが欠点。

一言で表すと
単語を0と1で表す基本表現

関連する用語
・分散表現
・ベクトル空間モデル
・単語埋め込み
・語彙
・スパース表現

分散表現(ぶんさんひょうげん/Distributed Representation)

概要
単語などの要素を高次元の密なベクトルで表現する方法。意味的な類似性を反映でき、機械学習やディープラーニングで広く使われる。Word2VecやBERTが代表例。

一言で表すと
意味を反映した数値ベクトル表現

関連する用語
・Word2Vec
・Doc2Vec
・ベクトル空間モデル
・埋め込み
・One-Hotベクトル

ベクトル空間モデル(ベクトルくうかんモデル/Vector Space Model)

概要
文書や単語をベクトルとして表し、ベクトル同士の距離や角度で類似性を測る情報検索のモデル。TF-IDFやWord2Vecなどが使われる。

一言で表すと
テキストをベクトルで扱うモデル

関連する用語
・TF-IDF
・分散表現
・Word2Vec
・コサイン類似度
・情報検索

Word2Vec(ワードツーベック)

概要
Googleが開発した単語の分散表現を学習する手法。大規模なコーパスから単語の意味的な特徴を低次元ベクトルで捉えることができる。スキップグラムとCBOWの2つの学習モデルがある。

一言で表すと
単語の意味を捉える学習モデル

関連する用語
・スキップグラム
・CBOW
・分散表現
・ニューラルネットワーク
・中心語

Doc2Vec(ドックツーベック)

概要
Word2Vecを拡張し、文書全体を固定長のベクトルに変換する手法。文や段落、文章を意味的にベクトル化することで、文書分類や検索に応用できる。

一言で表すと
文書全体をベクトルで表す技術

関連する用語
・Word2Vec
・分散表現
・自然言語処理
・ベクトル空間モデル
・パラグラフベクトル

スキップグラム(Skip-gram)

概要
Word2Vecで使われる学習モデルの一つで、ある単語(中心語)からその周囲にある単語(周辺語)を予測する手法。単語の意味的特徴を捉えるのに有効。

一言で表すと
周辺語を予測する学習モデル

関連する用語
・CBOW
・Word2Vec
・中心語
・周辺語
・分散表現

中心語(ちゅうしんご/Center Word)

概要
スキップグラムやCBOWなどの文脈予測モデルで対象となる単語。中心語から周辺語を予測する、または周辺語から中心語を予測する形式で使われる。

一言で表すと
予測対象の基準となる単語

関連する用語
・スキップグラム
・CBOW
・周辺語
・Word2Vec
・文脈

周辺語(しゅうへんご/Context Words)

概要
中心語の前後に現れる単語で、スキップグラムやCBOWなどの文脈モデルで中心語との意味関係を学ぶために使われる。周辺語の範囲はウィンドウサイズで決まる。

一言で表すと
中心語の近くにある単語たち

関連する用語
・中心語
・スキップグラム
・CBOW
・Word2Vec
・ウィンドウサイズ

CBOW(シーボウ/Continuous Bag of Words)

概要
Word2Vecで使われるモデルの一つで、周辺語から中心語を予測する手法。多数の文脈から単語の意味を学ぶのに適しており、計算効率が高い。

一言で表すと
周辺語から中心語を予測するモデル

関連する用語
・スキップグラム
・Word2Vec
・中心語
・周辺語
・分散表現

トピックモデル(トピックもでる/Topic Model)

概要
文書内に潜在する「トピック」を自動的に抽出する統計的手法。文書を複数のトピックの混合として表現する。代表的な手法にLDA(潜在的ディリクレ配分法)がある。

一言で表すと
文書の主題を抽出するモデル

関連する用語
・LDA
・ディリクレ分布
・自然言語処理
・文書分類
・ベイズ推定

潜在的ディリクレ配分法(せんざいてきディリクレはいぶんほう/Latent Dirichlet Allocation, LDA)

概要
文書中の単語分布からトピックを推定するトピックモデル。文書はトピックの混合、トピックは単語の混合として表現される。ベイズ的手法を用いる。

一言で表すと
文書から隠れた話題を抽出する方法

関連する用語
・トピックモデル
・ディリクレ分布
・ベイズ推定
・自然言語処理
・教師なし学習

ディリクレ分布(ディリクレぶんぷ/Dirichlet Distribution)

概要
確率の分布に対する確率分布(事前分布)で、LDAなどのベイズモデルで使われる。確率の合計が1になるような多項分布の分布を表現する。

一言で表すと
確率の分布を決める分布

関連する用語
・LDA
・ベイズ推定
・トピックモデル
・多項分布
・事前分布

fastText(ファストテキスト)

概要
Facebookが開発した単語表現と文書分類の手法。単語をサブワード(文字 n-gram)単位で分解し、未知語にも強い。Word2Vecを発展させた技術。

一言で表すと
未知語にも対応する単語ベクトル

関連する用語
・Word2Vec
・分散表現
・Out of Vocabulary
・サブワード
・自然言語処理

Out of Vocabulary(アウト・オブ・ボキャブラリー)

概要
モデルの学習時に登場しなかった未知語のこと。OOV語はOne-Hotベクトルや従来のWord2Vecで表現できず問題となるが、fastTextなどでは対応可能。

一言で表すと
辞書にない未知の単語

関連する用語
・fastText
・分散表現
・語彙
・サブワード
・自然言語処理

Sequence-to-sequence(シーケンス・トゥ・シーケンス)

概要
入力されたシーケンス(例:文)を、異なる長さの出力シーケンスへ変換するモデル。機械翻訳や要約、対話などに応用され、エンコーダとデコーダから成る。

一言で表すと
シーケンスを別の形に変換するモデル

関連する用語
・エンコーダ
・デコーダ
・RNN
・機械翻訳
・Transformer

エンコーダ(Encoder)

概要
Sequence-to-sequenceモデルで、入力シーケンスをベクトル表現に変換する部分。情報の要約を行い、デコーダに渡す。

一言で表すと
入力を意味ベクトルに変換

関連する用語
・デコーダ
・Seq2Seq
・RNN
・Transformer
・Attention

デコーダ(Decoder)

概要
エンコーダの出力を元に、目的の出力シーケンスを生成する部分。翻訳や要約のような生成タスクに使用される。

一言で表すと
ベクトルから出力を生成する部分

関連する用語
・エンコーダ
・Seq2Seq
・RNN
・Transformer
・Attention

Bidirectional RNN(バイディレクショナル・アールエヌエヌ)

概要
入力シーケンスを前方向と後方向の両方から処理するRNN。より広い文脈を捉えることができ、精度向上に寄与する。

一言で表すと
双方向に文脈を捉えるRNN

関連する用語
・RNN
・LSTM
・エンコーダ
・自然言語処理
・ELMo

ELMo(エルモ/Embeddings from Language Models)

概要
文脈に応じた単語ベクトルを生成する技術。双方向LSTMを用いており、同じ単語でも文脈により異なるベクトルになる。

一言で表すと
文脈で変わる単語ベクトル

関連する用語
・Bidirectional RNN
・分散表現
・BERT
・自然言語処理
・LSTM

GNMT(ジーエヌエムティー/Google Neural Machine Translation)

概要
Googleが開発したニューラル機械翻訳モデル。RNNベースのSeq2SeqにAttention機構を加えた構造で、高品質な翻訳を実現。

一言で表すと
Google製の高精度翻訳モデル

関連する用語
・ニューラル機械翻訳
・Seq2Seq
・Attention
・エンコーダ
・デコーダ

ニューラル機械翻訳(ニューラルきかいほんやく/Neural Machine Translation, NMT)

概要
ニューラルネットワークを用いて文章を翻訳する手法。従来の統計的機械翻訳と異なり、文全体の意味を捉えることができる。Seq2SeqやTransformerが基盤技術。

一言で表すと
ニューラルネットによる翻訳技術

関連する用語
・GNMT
・Transformer
・Seq2Seq
・Attention
・自然言語処理

Transformer(トランスフォーマー)

概要
自己注意機構(Self-Attention)を活用した並列計算可能な深層学習モデル。RNNを使わず高精度・高速な学習が可能。BERTやGPTなどの基盤。

一言で表すと
Attentionベースの革新的モデル

関連する用語
・Attention
・Self-Attention
・BERT
・GPT
・ニューラル機械翻訳

Attention(アテンション)

概要
入力全体の中から重要な部分に「注意」を向けて処理を行う仕組み。翻訳や要約、質問応答などで精度向上に寄与する。Transformerの核となる技術。

一言で表すと
重要部分に焦点を当てる技術

関連する用語
・Self-Attention
・Transformer
・Seq2Seq
・エンコーダ
・デコーダ

Source-Target Attention(ソース・ターゲット・アテンション)

概要
エンコーダの出力(Source)に基づいて、デコーダが出力(Target)を生成する際に注意を向ける仕組み。翻訳などで出力の各単語に最も関連する入力を特定する。

一言で表すと
出力時に入力へ注意を向ける機構

関連する用語
・Attention
・エンコーダ
・デコーダ
・Transformer
・Seq2Seq

入力系列と出力系列(にゅうりょくけいれつとしゅつりょくけいれつ/Input and Output Sequences)

概要
自然言語処理モデルでは、文章などのシーケンスを入力として受け取り、翻訳文や要約などの別のシーケンスを出力する。Seq2SeqやTransformerが代表的。

一言で表すと
変換元と変換先の文の並び

関連する用語
・Seq2Seq
・Transformer
・エンコーダ
・デコーダ
・機械翻訳

Self-Attention(セルフ・アテンション)

概要
入力内の各単語が他のすべての単語に注意を向ける機構。文中の単語同士の関係性を捉え、長距離依存も表現できる。Transformerの中核を成す。

一言で表すと
自身の文脈全体を見渡す注意機構

関連する用語
・Attention
・Transformer
・BERT
・文脈
・トークン

事前学習モデル(じぜんがくしゅうモデル/Pretrained Model)

概要
大規模なデータで事前に学習した汎用モデル。特定タスクに応じてファインチューニングすることで高精度を実現する。BERTやGPTなどが代表。

一言で表すと
事前学習済みの汎用的なAIモデル

関連する用語
・BERT
・GPT
・ファインチューニング
・事前学習
・トランスファーラーニング

教師なし学習(きょうしなしがくしゅう/Unsupervised Learning)

概要
正解ラベルなしでデータの構造やパターンを学習する手法。クラスタリングやトピックモデル、事前学習に用いられる。

一言で表すと
ラベルなしで学ぶ方法

関連する用語
・事前学習
・トピックモデル
・分散表現
・自己教師あり学習
・機械学習

ファインチューニング(ファインチューニング/Fine-tuning)

概要
事前学習されたモデルに対し、特定のタスクに合わせて追加学習すること。汎用性と高精度を両立できる。

一言で表すと
事前学習モデルを目的別に調整

関連する用語
・BERT
・GPT
・事前学習モデル
・転移学習
・教師あり学習

スケール則(スケールそく/Scaling Laws)

概要
モデルの性能がデータ量・モデルサイズ・計算量の増加に伴って予測可能に向上するという経験則。大規模モデル開発の理論的支えとなる。

一言で表すと
大きくすれば性能も上がる法則

関連する用語
・大規模言語モデル
・パラメータ数
・学習データ
・計算資源
・GPT

BERT(バート/Bidirectional Encoder Representations from Transformers)

概要
Googleが開発した文脈に応じた単語表現を生成する事前学習モデル。Transformerのエンコーダを用い、双方向文脈理解が可能。多くのNLPタスクで高精度を達成。

一言で表すと
双方向文脈を理解する事前学習モデル

関連する用語
・Transformer
・Self-Attention
・Masked Language Model
・Next Sentence Prediction
・ファインチューニング

Masked Language Model(マスクド・ランゲージ・モデル)

概要
BERTの事前学習タスクで、一部の単語をマスク(隠して)して、文脈からその単語を予測する。双方向文脈の理解を可能にする。

一言で表すと
隠された単語を文脈から予測

関連する用語
・BERT
・Self-Attention
・教師なし学習
・事前学習
・自然言語処理

Next Sentence Prediction(ネクスト・センテンス・プリディクション)

概要
BERTの事前学習タスクの一つ。2つの文が連続するかどうかを判定することで文と文の関係性を学習する。

一言で表すと
2文のつながりを判断するタスク

関連する用語
・BERT
・文脈理解
・事前学習
・自然言語処理
・Self-Attention

ALBERT(アルバート/A Lite BERT)

概要
BERTの軽量化版で、パラメータ共有やファクタライズド埋め込みを導入。性能を保ちつつ計算コストを削減し、大規模学習に適する。

一言で表すと
軽量で高性能なBERT改良版

関連する用語
・BERT
・Transformer
・事前学習モデル
・パラメータ共有
・自然言語処理

DistilBERT(ディスティルバート/Distilled BERT)

概要
BERTの小型・高速版で、知識蒸留により性能を保ちつつ軽量化されたモデル。推論が高速で実用性が高い。

一言で表すと
軽量・高速なBERT圧縮モデル

関連する用語
・BERT
・知識蒸留
・事前学習モデル
・Transformer
・ファインチューニング

GPT(ジーピーティー/Generative Pre-trained Transformer)

概要
OpenAIが開発した自然言語生成モデル。Transformerのデコーダ部分を使い、自己回帰的に次の単語を生成。大規模な事前学習とファインチューニングで多様なNLPタスクに対応可能。

一言で表すと
文を生成する高性能事前学習モデル

関連する用語
・Transformer
・自己回帰モデル
・ファインチューニング
・事前学習
・自然言語生成

デコーダ(Decoder)

概要
エンコーダの出力をもとに、目的の出力シーケンスを生成する処理部分。翻訳や要約などの生成タスクで用いられる。TransformerではSelf-AttentionとSource-Target Attentionを併用。

一言で表すと
入力ベクトルから出力を作る部分

関連する用語
・エンコーダ
・Seq2Seq
・Transformer
・Attention
・自然言語生成

穴埋め問題(あなうめもんだい/Masked Language Modeling)

概要
文中の単語を一部隠し、それを文脈から予測する問題。BERTの事前学習タスクとして有名で、双方向文脈理解に寄与する。

一言で表すと
隠された単語を文脈から当てる課題

関連する用語
・BERT
・Masked Language Model
・Self-Attention
・事前学習
・自然言語処理

GLUE(グルー/General Language Understanding Evaluation)

概要
自然言語理解モデルのベンチマークテスト。質問応答、文の推論、文の類似性など複数タスクで性能を評価できる。BERTやGPTなどの評価にも使われる。

一言で表すと
NLPモデルの性能評価指標

関連する用語
・SuperGLUE
・BERT
・自然言語処理
・分類タスク
・ベンチマーク

A-D変換(エーディーへんかん/Analog-to-Digital Conversion)

概要
アナログ信号をデジタル信号に変換する処理。音声認識や画像処理などで不可欠な前処理で、標本化・量子化・符号化の3ステップから成る。

一言で表すと
アナログ信号をデジタルに変換

関連する用語
・標本化
・量子化
・符号化
・音声処理
・サンプリング定理

標本化(ひょうほんか/Sampling)

概要
アナログ信号を一定間隔で取り出して離散データにする処理。音声データでは一定時間ごとに振幅を記録する。サンプリング周波数が重要。

一言で表すと
連続信号を時間ごとに区切る処理

関連する用語
・サンプリング定理
・A-D変換
・量子化
・デジタル信号
・音声処理

量子化(りょうしか/Quantization)

概要
標本化されたアナログ値を有限の数値範囲に変換する処理。デジタル信号化における2番目のステップ。精度に影響するビット数が重要。

一言で表すと
振幅を離散的な値に変換

関連する用語
・A-D変換
・標本化
・符号化
・ビット数
・デジタル信号

符号化(ふごうか/Encoding)

概要
量子化されたデータを0と1のビット列に変換する処理。圧縮や伝送に適した形式に変換される。A-D変換の最終段階。

一言で表すと
デジタル信号をビット列に変換

関連する用語
・量子化
・A-D変換
・標本化
・ビット列
・データ圧縮

サンプリング定理(さんぷりんぐていり/Nyquist-Shannon Sampling Theorem)

概要
アナログ信号をデジタル化する際、元の信号を完全に再構成するには、信号の最大周波数の2倍以上のサンプリング周波数が必要とする定理。

一言で表すと
適切な標本化間隔の理論

関連する用語
・標本化
・A-D変換
・ナイキスト周波数
・信号処理
・量子化

音響モデル(おんきょうもでる/Acoustic Model)

概要
音声認識において、音の特徴と音素(音韻記号)との対応を学習するモデル。HMMやDNNが使われ、音声からテキストへの変換を支援する。

一言で表すと
音声から音素を推定するモデル

関連する用語
・音声認識
・HMM
・DNN
・音韻
・MFCC

スペクトル包絡(スペクトルほうらく/Spectral Envelope)

概要
音の周波数スペクトルにおける、全体的な形状を表す滑らかな曲線。音色を決定づける要素で、音声認識や音声合成に用いられる。

一言で表すと
音の特徴を表す滑らかなスペクトル

関連する用語
・MFCC
・音響特徴量
・音声認識
・スペクトログラム
・フォルマント

メル周波数ケプストラム係数(メルしゅうはすうケプストラムけいすう/MFCC: Mel-Frequency Cepstral Coefficients)

概要
人間の聴覚特性に基づいた音声特徴量。音声認識で広く使われる。音のスペクトルをメル尺度に変換し、ケプストラム分析を行って得られる。

一言で表すと
音声を数値化する代表的特徴量

関連する用語
・音響モデル
・スペクトル包絡
・音声認識
・フォルマント
・FFT

フォルマント周波数(フォルマントしゅうはすう/Formant Frequencies)

概要
人間の声において、母音ごとに特徴的に現れる共鳴周波数。話者の声質や母音識別に大きく関与する。

一言で表すと
母音を特徴づける共鳴周波数

関連する用語
・音響モデル
・スペクトル包絡
・MFCC
・音声認識
・共鳴

音韻(おんいん/Phoneme)

概要
言語を構成する最小の音の単位。音声認識では、音響特徴からどの音韻に対応するかを推定する。日本語には母音と子音の音韻がある。

一言で表すと
言語を構成する基本的な音

関連する用語
・音響モデル
・音声認識
・音素
・HMM
・MFCC

高速フーリエ変換(こうそくフーリエへんかん/FFT: Fast Fourier Transform)

概要
時間領域の信号を周波数領域に変換するアルゴリズム。音声信号処理や画像解析、スペクトル分析で広く使用される。

一言で表すと
信号を周波数で表す高速変換

関連する用語
・スペクトル包絡
・MFCC
・信号処理
・周波数分析
・離散フーリエ変換

周波数スペクトル(しゅうはすうすぺくとる/Frequency Spectrum)

概要
信号を構成する各周波数成分の強度を示すもの。音声や画像などの信号処理で、時間領域のデータを周波数領域に変換することで、信号の特徴を分析できる。

一言で表すと
信号の周波数成分の分布

関連する用語
・高速フーリエ変換
・スペクトル包絡
・MFCC
・音声認識
・信号処理

隠れマルコフモデル(かくれまるこふもでる/Hidden Markov Model, HMM)

概要
観測できない内部状態(隠れ状態)を持つ確率モデル。音声認識や自然言語処理などで、時系列データの解析に広く用いられる。

一言で表すと
隠れた状態を持つ確率モデル

関連する用語
・音響モデル
・音声認識
・状態遷移
・確率モデル
・時系列データ

Dilated Causal Convolution(ダイレイテッド・コーザル・コンボリューション)

概要
畳み込みニューラルネットワークにおいて、入力データの間隔を空けて畳み込む手法。WaveNetなどで、広い受容野を持ちながら計算効率を保つために用いられる。

一言で表すと
間隔を空けた畳み込み手法

関連する用語
・WaveNet
・畳み込みニューラルネットワーク
・音声合成
・時系列データ
・深層学習

Sim2real(シムトゥリアル)

概要
シミュレーション環境で学習したモデルを、現実世界のタスクに適用する手法。現実とのギャップ(リアリティギャップ)を埋めるため、ドメインランダマイゼーションなどの技術が用いられる。

一言で表すと
シミュレーションから現実への転移

関連する用語
・ドメインランダマイゼーション
・強化学習
・転移学習
・ロボティクス
・リアリティギャップ

ドメインランダマイゼーション(Domain Randomization)

概要
シミュレーション環境のパラメータをランダムに変化させることで、モデルの汎化能力を高め、現実世界への適応性を向上させる手法。Sim2realの課題解決に有効。

一言で表すと
環境の多様性で汎化能力を向上

関連する用語
・Sim2real
・強化学習
・転移学習
・ロボティクス
・リアリティギャップ

オフライン強化学習(おふらいんきょうかがくしゅう/Offline Reinforcement Learning)

概要
事前に収集されたデータを用いて学習を行う強化学習手法。実環境での試行が困難な場合や、安全性が求められるタスクで有効。

一言で表すと
事前データで学習する強化学習

関連する用語
・強化学習
・バッチ学習
・模倣学習
・データ効率
・安全性

オンライン強化学習(おんらいんきょうかがくしゅう/Online Reinforcement Learning)

概要
エージェントが環境と相互作用しながら、逐次的に学習を進める強化学習手法。リアルタイムでの適応が可能。

一言で表すと
環境と対話しながら学習する手法

関連する用語
・強化学習
・リアルタイム学習
・適応制御
・探索と活用
・エージェント

Actor-Critic(アクター・クリティック)

概要
強化学習における手法の一つで、行動を選択する「アクター」と、行動の価値を評価する「クリティック」の二つのモデルを組み合わせて学習を行う。

一言で表すと
行動選択と評価を分担する手法

関連する用語
・強化学習
・アクター
・クリティック
・方策勾配法
・価値関数

Actor(アクター)

概要
強化学習において、現在の状態に基づいて行動を選択する役割を担うモデル。方策(ポリシー)を学習する。

一言で表すと
行動を決定するモデル

関連する用語
・Actor-Critic
・方策
・強化学習
・エージェント
・ポリシーネットワーク

Critic(クリティック)

概要
強化学習において、アクターが選択した行動の価値を評価する役割を担うモデル。価値関数を学習する。

一言で表すと
行動の価値を評価するモデル

関連する用語
・Actor-Critic
・価値関数
・強化学習
・TD誤差
・バリューネットワーク

A3C(エースリーシー/Asynchronous Advantage Actor-Critic)

概要
複数のエージェントが並列に環境と相互作用し、それぞれの経験を共有しながら学習を進める強化学習手法。学習の安定性と効率性を向上させる。

一言で表すと
並列学習で効率化したActor-Critic

関連する用語
・Actor-Critic
・強化学習
・非同期学習
・並列処理
・Advantage関数

ダブルDQN(ダブルディーキューエヌ/Double Deep Q-Network)

概要
DQNの過大評価問題を解決するために、行動選択と評価を分離した手法。より安定した学習が可能。

一言で表すと
過大評価を抑えたDQN手法

関連する用語
・DQN
・強化学習
・ターゲットネットワーク
・Q学習
・価値関数

デュエリングネットワーク(Dueling Network)

概要
状態の価値と行動のアドバンテージを別々に推定し、最終的なQ値を算出する強化学習手法。学習の効率性と安定性を向上させる。

一言で表すと
価値とアドバンテージを分離したネットワーク

関連する用語
・DQN
・強化学習
・Q値
・価値関数
・アドバンテージ関数

ノイジーネットワーク(Noisy Network)

概要
ネットワークの重みにランダムなノイズを加えることで、探索と活用のバランスを自動的に調整する強化学習手法。効率的な探索が可能。

一言で表すと
ノイズで探索性を高めるネットワーク

関連する用語
・強化学習
・探索と活用
・DQN
・ノイズ
・方策

ターゲットネットワーク(Target Network)

概要
強化学習において、安定したQ値の学習のために、行動評価用に固定されたネットワーク。メインネットワークの重みを一定間隔でコピーして更新する。

一言で表すと
安定性のための評価用ネットワーク

関連する用語
・DQN
・ダブルDQN
・Q学習
・強化学習
・価値関数

TD誤差(ティーディーごさ/Temporal Difference Error)

概要
強化学習で予測された価値と実際の報酬+次状態の価値との差分。誤差が大きいほど学習の修正が必要とされる。

一言で表すと
予測と実際の報酬の差

関連する用語
・価値関数
・Q学習
・強化学習
・Critic
・報酬

経験再生(けいけんさいせい/Experience Replay)

概要
過去の経験(状態・行動・報酬など)を記録し、ランダムにサンプリングして学習に使用する手法。データの相関を減らし、学習を安定化させる。

一言で表すと
過去の経験を再利用して学習

関連する用語
・リプレイバッファー
・DQN
・強化学習
・学習安定化
・ミニバッチ

リプレイバッファー(Replay Buffer)

概要
経験再生のために過去の状態・行動・報酬などを格納するデータ構造。効率的なデータの保存とサンプリングが行える。

一言で表すと
経験を保存するデータベース

関連する用語
・経験再生
・DQN
・強化学習
・TD誤差
・バッファー

方策ベースアルゴリズム(ほうさくベースアルゴリズム/Policy-based Algorithm)

概要
行動の選択方針(方策)を直接学習する強化学習アルゴリズム。連続空間の制御や確率的方策に強みがある。例:REINFORCE、Actor-Critic。

一言で表すと
行動の選び方を直接学ぶ手法

関連する用語
・Actor
・方策
・強化学習
・Actor-Critic
・確率的ポリシー

価値ベースアルゴリズム(かちベースアルゴリズム/Value-based Algorithm)

概要
各状態や行動の「価値(将来の報酬期待値)」を学習し、それに基づいて行動を選択する手法。例:Q学習、DQN。

一言で表すと
価値に基づき行動を決める手法

関連する用語
・Q学習
・DQN
・TD誤差
・価値関数
・強化学習

モデルベースアルゴリズム(モデルベースアルゴリズム/Model-based Algorithm)

概要
環境の動作(遷移モデル)を内部で予測し、それに基づいて方策や価値を計算する手法。計画(プランニング)が可能で、データ効率が良い。

一言で表すと
環境の予測モデルを使う手法

関連する用語
・強化学習
・遷移モデル
・プランニング
・期待報酬
・Sim2real

モデルフリーアルゴリズム(モデルフリーアルゴリズム/Model-free Algorithm)

概要
環境の予測モデルを持たず、観測と報酬から直接方策や価値を学習する強化学習手法。モデルベースに比べ計画はできないが、柔軟性が高い。

一言で表すと
予測モデルなしで学ぶ手法

関連する用語
・強化学習
・価値ベース
・方策ベース
・Actor-Critic
・DQN