E資格-深層学習の基礎(Transformer)-

1. 
次のうち、Transformerにおける残差接続(Residual Connection)の目的として正しいものはどれですか?

2. 
次のうち、Transformerモデルが機械翻訳において従来のRNNやLSTMベースのSeq2Seqモデルに勝っている理由はどれですか?

3. 
Transformerにおける「ポジショナルエンコーディング」の役割は何ですか?

4. 
「自己回帰モデル(Auto-Regressive Model)」とTransformerの関係性について正しいものはどれですか?

5. 
次のうち、Transformerにおける「マスク付き注意機構(Masked Attention)」の役割として正しいものはどれですか?

6. 
次のうち、Transformerが従来のSeq2Seqモデル(RNNベース)に比べて優れている点として正しいものはどれですか?

7. 
自己注意(Self-Attention)機構の計算において、各トークンのスコアはどのように計算されますか?

8. 
Transformerモデルで使用される「自己注意(Self-Attention)」機構の役割は何ですか?

9. 
Transformerモデルにおいて、従来のRNNと異なる最大の特徴は何ですか?

10. 
Transformerの「Feedforward Neural Network」部分は何を行いますか?

11. 
Transformerにおける「Encoder-Decoder構造」の役割は何ですか?

12. 
Transformerのマルチヘッド注意機構では、異なる「ヘッド」を使用する利点は何ですか?

13. 
Transformerモデルにおける「Layer Normalization」は、どの段階で適用されますか?

14. 
Transformerにおける「Decoder」の役割として正しいものはどれですか?

15. 
次の中で、BERT(Bidirectional Encoder Representations from Transformers)とTransformerの主な違いとして正しいものはどれですか?

16. 
「Scaled Dot-Product Attention」において、スコアをスケーリングする理由は何ですか?

17. 
次の中で、「Attention is All You Need」という論文が最初に導入した手法はどれですか?

18. 
Transformerの構成要素の一つである「Multi-Head Attention」の目的は何ですか?

19. 
次のうち、Transformerが自己注意メカニズムを使用することの利点として最も適切なものはどれですか?

20. 
Transformerの各層において、正規化(Normalization)はどのような役割を果たしますか?

コメントを残すにはログインしてください。