G検定-ディープラーニングの要素技術(Attention)-

1. 
Attentionメカニズムが従来のSeq2Seqモデルに比べて優れている点は何ですか?

2. 
マルチヘッドアテンションを使うことで得られる主な利点は何ですか?

3. 
Transformerモデルでの「位置エンコーディング(Positional Encoding)」の目的は何ですか?

4. 
Attentionスコアを計算する際に、「スケールドドットプロダクト(Scaled Dot-Product)」が使用される理由として最も適切なのはどれですか?

5. 
Self-Attentionにおいて、「クエリ(Query)」「キー(Key)」「バリュー(Value)」の役割は何ですか?

6. 
Transformerモデルで使用されるAttentionの形式は何ですか?

7. 
Self-Attentionはどのような仕組みですか?

8. 
Attentionメカニズムの主な目的は何ですか?

9. 
Transformerモデルにおける「デコーダー」の主な役割は何ですか?

10. 
「ソフトマックス関数」は、Attentionメカニズムにおいてどのように使用されますか?

11. 
Self-Attentionを使用することで、特にどのようなタイプのデータに対して効果を発揮しますか?

12. 
ソフトアテンションとハードアテンションの違いは何ですか?

13. 
Self-Attentionが畳み込み層と異なる点はどれですか?

14. 
Transformerにおける「マルチヘッドアテンション」の目的は何ですか?

15. 
TransformerのDecoderにおける「マスク付きアテンション(Masked Attention)」の役割は何ですか?

16. 
Attentionスコアは何を表しますか?

17. 
TransformerモデルがRNNに比べて計算効率が高い理由は何ですか?

18. 
次のうち、Attentionメカニズムが導入される以前のSeq2Seqモデルの課題として正しいものはどれですか?

19. 
マルチヘッドアテンションで各「ヘッド」が持つ役割は何ですか?

20. 
Transformerモデルでの「位置エンコーディング(Positional Encoding)」が必要な理由として最も適切なのはどれですか?

21. 
「マルチヘッドAttention」が、単一のAttentionに比べて優れている理由として最も適切なのはどれですか?

22. 
Attentionスコア計算において、「ソフトマックス関数」が使用される理由として最も適切なのはどれですか?

23. 
注意機構(Attention)のスコアを計算するために使用される主な手法はどれですか?

24. 
Attentionメカニズムが特に有効なタスクは次のうちどれですか?

25. 
Self-Attentionが畳み込み層(CNN)に比べて特に優れている点として最も適切なのはどれですか?

26. 
Attentionメカニズムを使用しない従来のSeq2Seqモデルの課題は何ですか?

コメントを残すにはログインしてください。