1.
自然言語処理における「ネガティブサンプリング」の目的として正しいものはどれですか?
2.
BERT(Bidirectional Encoder Representations from Transformers)の最大の特徴は何ですか?
3.
自然言語処理において「シーケンス・トゥ・シーケンス(Seq2Seq)」モデルがよく使用されるタスクはどれですか?
4.
次のうち、BERTやGPTなどの事前学習済みモデルを特定のタスクに適応させるための技術はどれですか?
5.
次のうち、「BPE(Byte Pair Encoding)」が自然言語処理で使用される理由として正しいものはどれですか?
6.
次の中で、BERTとGPTの主な違いとして正しいものはどれですか?
7.
「LSTM(Long Short-Term Memory)」がRNNに比べて優れている点は何ですか?
8.
「RNN(Recurrent Neural Network)」が自然言語処理においてよく使用される理由として正しいものはどれですか?
9.
BERTを使用した質問応答タスクにおいて、モデルが行う最も基本的な処理は次のうちどれですか?
10.
自然言語処理において「ELMo(Embeddings from Language Models)」の最大の特徴は何ですか?
11.
次のうち、自然言語処理において「Word2Vec」で学習されるものは何ですか?
12.
自然言語処理において「Attention Mechanism」の役割は何ですか?
13.
次のうち、BERTのトレーニングに使用される主なタスクはどれですか?
14.
次のうち、GPT(Generative Pretrained Transformer)が持つ最大の特徴はどれですか?
15.
自然言語処理において、テキストデータの前処理として一般的に行われる「トークン化」とは何を指しますか?
16.
自然言語処理において、次の中で「Seq2Seq」モデルにおける「Attention Mechanism」の導入効果として正しいものはどれですか?
17.
次のうち、「Self-Attention Mechanism」が使用される目的として最も適切なものはどれですか?
18.
自然言語処理において「Bag of Words(BoW)」モデルの特徴として正しいものはどれですか?
19.
自然言語処理において「TF-IDF」の目的は何ですか?
20.
「Transformer」がLSTMやGRUに比べて自然言語処理で優れている点として最も適切なものはどれですか?