1.
次のうち、Attentionメカニズムが導入される以前のSeq2Seqモデルの課題として正しいものはどれですか?
2.
Attentionスコアを計算する際に、「スケールドドットプロダクト(Scaled Dot-Product)」が使用される理由として最も適切なのはどれですか?
3.
注意機構(Attention)のスコアを計算するために使用される主な手法はどれですか?
4.
「ソフトマックス関数」は、Attentionメカニズムにおいてどのように使用されますか?
5.
Transformerモデルでの「位置エンコーディング(Positional Encoding)」の目的は何ですか?
6.
Self-Attentionが畳み込み層(CNN)に比べて特に優れている点として最も適切なのはどれですか?
7.
Transformerにおける「マルチヘッドアテンション」の目的は何ですか?
8.
マルチヘッドアテンションで各「ヘッド」が持つ役割は何ですか?
9.
Attentionスコア計算において、「ソフトマックス関数」が使用される理由として最も適切なのはどれですか?
10.
Attentionメカニズムを使用しない従来のSeq2Seqモデルの課題は何ですか?
11.
Attentionメカニズムが従来のSeq2Seqモデルに比べて優れている点は何ですか?
12.
マルチヘッドアテンションを使うことで得られる主な利点は何ですか?
13.
Attentionスコアは何を表しますか?
14.
Attentionメカニズムの主な目的は何ですか?
15.
Attentionメカニズムが特に有効なタスクは次のうちどれですか?
16.
ソフトアテンションとハードアテンションの違いは何ですか?
17.
Transformerモデルでの「位置エンコーディング(Positional Encoding)」が必要な理由として最も適切なのはどれですか?
18.
Self-Attentionが畳み込み層と異なる点はどれですか?
19.
Transformerモデルで使用されるAttentionの形式は何ですか?
20.
Transformerモデルにおける「デコーダー」の主な役割は何ですか?
21.
Self-Attentionを使用することで、特にどのようなタイプのデータに対して効果を発揮しますか?
22.
TransformerのDecoderにおける「マスク付きアテンション(Masked Attention)」の役割は何ですか?
23.
TransformerモデルがRNNに比べて計算効率が高い理由は何ですか?
24.
Self-Attentionにおいて、「クエリ(Query)」「キー(Key)」「バリュー(Value)」の役割は何ですか?
25.
「マルチヘッドAttention」が、単一のAttentionに比べて優れている理由として最も適切なのはどれですか?
26.
Self-Attentionはどのような仕組みですか?