AI実装検定S級-NLP(seq2seq)-

1. 
seq2seqモデルのデコーダにおいて「Teacher Forcing」が効果的である理由は何ですか?

2. 
seq2seqモデルにおいて、「ペナルティ付きビームサーチ」が適用される理由は何ですか?

3. 
seq2seqモデルで使用される基本的なアーキテクチャはどれですか?

4. 
seq2seqモデルにおける「ビームサーチ」の目的は何ですか?

5. 
seq2seqモデルの訓練において、「教師あり学習」としての訓練が行われる理由は何ですか?

6. 
seq2seqモデルにおいて、LSTM(Long Short-Term Memory)がRNNに比べて優れている点は何ですか?

7. 
seq2seqモデルのエンコーダとデコーダ間の情報伝達において、エンコーダの最終隠れ状態だけでなく、アテンション機構が重要となる理由は何ですか?

8. 
seq2seqモデルにおける「双方向エンコーダ(Bidirectional Encoder)」の利点は何ですか?

9. 
seq2seqモデルで「デコーダ」が生成するのは何ですか?

10. 
seq2seqモデルにおいて、「BLEUスコア」とは何を測定する指標ですか?

11. 
Transformerモデルがseq2seqモデルに対して持つ最大の利点は何ですか?

12. 
seq2seqモデルにおける「アテンション機構」の役割は何ですか?

13. 
seq2seqモデルのエンコーダにおいて、「長短期記憶(LSTM)」を用いるメリットとして正しいものはどれですか?

14. 
seq2seqモデルにおいて、「コンテキストベクトル」の役割は何ですか?

15. 
seq2seqモデルにおいて「エンコーダ」の役割は何ですか?

16. 
seq2seqモデルの性能評価において、「精度」よりも「F1スコア」を使用する理由は何ですか?

17. 
seq2seqモデルにおいて、損失関数として「クロスエントロピー損失」がよく使用される理由は何ですか?

18. 
Transformerモデルにおいて、「マルチヘッドアテンション」が持つ効果は何ですか?

19. 
seq2seqモデルにおいて、「学習時のスケジュールサンプリング」が持つ効果は何ですか?

20. 
seq2seqモデルにおいて、入力シーケンスの長さが異なるデータを処理するために最も適している手法はどれですか?

コメントを残すにはログインしてください。