G検定-ディープラーニングの応用例(自然言語処理)-

1. 
Transformerモデルにおける「位置エンコーディング」の目的は何ですか?

2. 
自然言語処理における「ゼロショット学習(Zero-Shot Learning)」の主な特徴はどれですか?

3. 
自然言語処理における「BLEUスコア」とは何を評価する指標ですか?

4. 
ディープラーニングを活用した自然言語処理において、「テキスト生成(Text Generation)」で使用される主な手法はどれですか?

5. 
GPT(Generative Pretrained Transformer)の特徴はどれですか?

6. 
次のうち、文章の感情分析に適した手法はどれですか?

7. 
自然言語処理における「双方向LSTM(Bi-LSTM)」の利点は何ですか?

8. 
次のうち、自然言語処理で「系列ラベリング」を行うタスクに該当するのはどれですか?

9. 
BERTの「マスク言語モデル(MLM)」はどのように機能しますか?

10. 
自然言語処理における「エンティティリンク」とは何ですか?

11. 
BERTモデルの事前学習において「次文予測(Next Sentence Prediction, NSP)」が行われる理由は何ですか?

12. 
自然言語処理において、ELMo(Embeddings from Language Models)が提供する主な利点は何ですか?

13. 
機械翻訳において、入力シーケンスと出力シーケンスの長さが異なる場合、どのようなモデルがよく使われますか?

14. 
Word2Vecの「スキップグラムモデル」の特徴は何ですか?

15. 
自然言語処理で「データ拡張」を行う際、次の方法の中でディープラーニングに最も適したものはどれですか?

16. 
自然言語処理において「データスパースネス問題」とは何ですか?

17. 
ワードエンベディングの技術として有名なものはどれですか?

18. 
自然言語処理における「トークン化」とは何ですか?

19. 
自然言語処理のタスクで、入力文が「文法的に正しいか」を判定するモデルを設計する際、次のディープラーニング技術の中で最も適切なのはどれですか?

20. 
自然言語処理における「BERT」とは何ですか?

21. 
次のうち、自然言語処理において「言語モデル」として使用されるものはどれですか?

22. 
「Attentionメカニズム」の主な役割は何ですか?

23. 
次のうち、形態素解析に適しているモデルはどれですか?

24. 
自然言語処理における「トピックモデル」として有名な手法はどれですか?

25. 
次の文章分類タスクにおいて、BERTモデルのファインチューニングが有効な理由として最も適切なのはどれですか?

26. 
自然言語処理でトランスフォーマーの「マルチヘッド・アテンション(Multi-Head Attention)」が有効な理由として最も適切なのはどれですか?

コメントを残すにはログインしてください。