1.
自然言語処理において、ELMo(Embeddings from Language Models)が提供する主な利点は何ですか?
2.
自然言語処理における「トークン化」とは何ですか?
3.
「Attentionメカニズム」の主な役割は何ですか?
4.
自然言語処理のタスクで、入力文が「文法的に正しいか」を判定するモデルを設計する際、次のディープラーニング技術の中で最も適切なのはどれですか?
5.
次のうち、自然言語処理において「言語モデル」として使用されるものはどれですか?
6.
GPT(Generative Pretrained Transformer)の特徴はどれですか?
7.
自然言語処理で「データ拡張」を行う際、次の方法の中でディープラーニングに最も適したものはどれですか?
8.
自然言語処理における「BLEUスコア」とは何を評価する指標ですか?
9.
自然言語処理における「BERT」とは何ですか?
10.
次の文章分類タスクにおいて、BERTモデルのファインチューニングが有効な理由として最も適切なのはどれですか?
11.
自然言語処理における「エンティティリンク」とは何ですか?
12.
次のうち、形態素解析に適しているモデルはどれですか?
13.
BERTモデルの事前学習において「次文予測(Next Sentence Prediction, NSP)」が行われる理由は何ですか?
14.
自然言語処理でトランスフォーマーの「マルチヘッド・アテンション(Multi-Head Attention)」が有効な理由として最も適切なのはどれですか?
15.
Word2Vecの「スキップグラムモデル」の特徴は何ですか?
16.
Transformerモデルにおける「位置エンコーディング」の目的は何ですか?
17.
機械翻訳において、入力シーケンスと出力シーケンスの長さが異なる場合、どのようなモデルがよく使われますか?
18.
自然言語処理における「双方向LSTM(Bi-LSTM)」の利点は何ですか?
19.
次のうち、自然言語処理で「系列ラベリング」を行うタスクに該当するのはどれですか?
20.
次のうち、文章の感情分析に適した手法はどれですか?
21.
自然言語処理における「トピックモデル」として有名な手法はどれですか?
22.
ワードエンベディングの技術として有名なものはどれですか?
23.
自然言語処理において「データスパースネス問題」とは何ですか?
24.
自然言語処理における「ゼロショット学習(Zero-Shot Learning)」の主な特徴はどれですか?
25.
ディープラーニングを活用した自然言語処理において、「テキスト生成(Text Generation)」で使用される主な手法はどれですか?
26.
BERTの「マスク言語モデル(MLM)」はどのように機能しますか?