1.
Transformerモデルの「ポジショナルエンコーディング」を不要にするために提案されている改良点として最も適切なものはどれか。
2.
Transformerモデルで用いられる「マルチヘッドアテンション」の主な目的として正しいものはどれか。
3.
Transformerモデルにおける「ヘッド間の重み共有」が生成される情報に与える影響を最も正確に表す選択肢はどれか。
4.
Transformerモデルが視覚データの処理に応用される際の特有の工夫として正しいものはどれか。
5.
Transformerモデルが自然言語処理(NLP)で広く利用される理由として正しいものはどれか。
6.
Transformerモデルの自己注意機構で使用される「キー(Key)」、「クエリ(Query)」、「バリュー(Value)」の役割を正確に理解するには、どの点を考慮する必要があるか。以下の中で正しい選択はどれか。
7.
Transformerモデルのアーキテクチャで重要な「残差接続」の役割として正しいものはどれか。
8.
Transformerモデルを大規模にスケーリングした場合、一般的に発生し得る問題として最も適切なものはどれか。
9.
Transformerモデルの中核となる仕組みとして正しいものはどれか。
10.
Transformerモデルが従来のRNNと比較して優れている点として正しいものはどれか。
11.
Transformerモデルにおける「ポジショナルエンコーディング」の役割として正しいものはどれか。
12.
Transformerモデルのトレーニングにおいて重要な「マスク」の役割として正しいものはどれか。
13.
Transformerモデルの「デコーダ」の主な役割として正しいものはどれか。
14.
Transformerモデルの「エンコーダ」の主な役割として正しいものはどれか。
15.
Transformerモデルの「マルチヘッドアテンション」で発生する可能性のある計算コストの問題を軽減するための一般的な手法として正しいものはどれか。