1.
Transformerモデルにおける「位置エンコーディング」の目的は何ですか?
2.
自然言語処理における「ゼロショット学習(Zero-Shot Learning)」の主な特徴はどれですか?
3.
自然言語処理における「BLEUスコア」とは何を評価する指標ですか?
4.
ディープラーニングを活用した自然言語処理において、「テキスト生成(Text Generation)」で使用される主な手法はどれですか?
5.
GPT(Generative Pretrained Transformer)の特徴はどれですか?
6.
次のうち、文章の感情分析に適した手法はどれですか?
7.
自然言語処理における「双方向LSTM(Bi-LSTM)」の利点は何ですか?
8.
次のうち、自然言語処理で「系列ラベリング」を行うタスクに該当するのはどれですか?
9.
BERTの「マスク言語モデル(MLM)」はどのように機能しますか?
10.
自然言語処理における「エンティティリンク」とは何ですか?
11.
BERTモデルの事前学習において「次文予測(Next Sentence Prediction, NSP)」が行われる理由は何ですか?
12.
自然言語処理において、ELMo(Embeddings from Language Models)が提供する主な利点は何ですか?
13.
機械翻訳において、入力シーケンスと出力シーケンスの長さが異なる場合、どのようなモデルがよく使われますか?
14.
Word2Vecの「スキップグラムモデル」の特徴は何ですか?
15.
自然言語処理で「データ拡張」を行う際、次の方法の中でディープラーニングに最も適したものはどれですか?
16.
自然言語処理において「データスパースネス問題」とは何ですか?
17.
ワードエンベディングの技術として有名なものはどれですか?
18.
自然言語処理における「トークン化」とは何ですか?
19.
自然言語処理のタスクで、入力文が「文法的に正しいか」を判定するモデルを設計する際、次のディープラーニング技術の中で最も適切なのはどれですか?
20.
自然言語処理における「BERT」とは何ですか?
21.
次のうち、自然言語処理において「言語モデル」として使用されるものはどれですか?
22.
「Attentionメカニズム」の主な役割は何ですか?
23.
次のうち、形態素解析に適しているモデルはどれですか?
24.
自然言語処理における「トピックモデル」として有名な手法はどれですか?
25.
次の文章分類タスクにおいて、BERTモデルのファインチューニングが有効な理由として最も適切なのはどれですか?
26.
自然言語処理でトランスフォーマーの「マルチヘッド・アテンション(Multi-Head Attention)」が有効な理由として最も適切なのはどれですか?