AI実装検定S級~模擬試験①~

1. 
「クロスアテンション」とは何ですか?

2. 
ResNetの「スキップ接続」の動作により、勾配消失問題が軽減される理由は何ですか?

3. 
BERT(Bidirectional Encoder Representations from Transformers)がTransformerのエンコーダを使用することで、従来のseq2seqモデルに対して持つ利点は何ですか?

4. 
Transformerモデルのトレーニングにおいて「学習率ウォームアップ」を使用する理由は何ですか?

5. 
Transformerモデルにおける「学習率スケジューリング」の効果は何ですか?

6. 
seq2seqモデルにおいて、「コンテキストベクトル」の役割は何ですか?

7. 
GoogLeNetが従来のCNNモデルよりも効率的に計算できる理由は何ですか?

8. 
VGGモデルにおいて、「過学習」を防ぐために取られる一般的な対策は何ですか?

9. 
VGGネットワークの「小さな3x3カーネル」を使用することの利点は何ですか?

10. 
VGGネットワークが「パラメータ数が多い」という点が意味するものは何ですか?

11. 
ResNetが「オーバーフィッティング」を防ぐために使用する手法は次のうちどれですか?

12. 
seq2seqモデルのデコーダにおいて「Teacher Forcing」が効果的である理由は何ですか?

13. 
GoogLeNetモデルの主な特徴は次のうちどれですか?

14. 
Transformerモデルにおいて、「マルチヘッドアテンション」が持つ効果は何ですか?

15. 
ResNet-50の「50」という数字が示しているのは次のうちどれですか?

16. 
VGGネットワークの層の総数が多い理由は何ですか?

17. 
Transformerモデルにおいて「エンコーダスタック」と「デコーダスタック」の役割の違いは何ですか?

18. 
GPT(Generative Pre-trained Transformer)モデルがBERTとは異なる点は何ですか?

19. 
WideResNetのようなモデルで「スキップ接続」が無い場合、どのような影響が考えられますか?

20. 
Transformerモデルにおける「自己注意機構(Self-Attention)」の役割は何ですか?

21. 
VGGネットワークの設計において「全結合層」を使用する目的は何ですか?

22. 
GoogLeNetの訓練において、学習率スケジューリングを使用する理由は何ですか?

23. 
VGGネットワークの全結合層を削減した場合、予想される効果は何ですか?

24. 
seq2seqモデルにおいて、損失関数として「クロスエントロピー損失」がよく使用される理由は何ですか?

25. 
GoogLeNetの「auxiliary classifiers」を使用しない場合、どのような影響がありますか?

26. 
WideResNetが「深さ」を増やす代わりに「幅」を増やす選択をする理由は何ですか?

27. 
Transformerモデルにおける「マルチヘッドアテンション」の目的は何ですか?

28. 
seq2seqモデルで「デコーダ」が生成するのは何ですか?

29. 
Transformerモデルにおける「ポジションエンコーディング」の役割は何ですか?

30. 
GoogLeNetの設計において、Inceptionモジュールを使用する利点は何ですか?

31. 
Transformerモデルがseq2seqモデルに対して持つ最大の利点は何ですか?

32. 
ResNetが「非常に深いネットワーク」においても有効に機能する理由は何ですか?

33. 
seq2seqモデルにおいて、「BLEUスコア」とは何を測定する指標ですか?

34. 
GPT-3のような自己回帰型モデルにおいて「注意欠陥」が起こる理由は何ですか?

35. 
VGGネットワークが「事前学習済みモデル」としてよく使用される理由は何ですか?

36. 
VGGネットワークで使用される「最大プーリング(Max Pooling)」の主な目的は何ですか?

37. 
GoogLeNetの「Inceptionモジュール」における「5x5の畳み込み層」を削除した場合、予想される影響は何ですか?

38. 
ResNetの設計における「ボトルネックブロック」の役割は何ですか?

39. 
seq2seqモデルにおける「アテンション機構」の役割は何ですか?

40. 
GoogLeNetにおいて、各Inceptionモジュールで「3x3の畳み込み層」を使用する理由は何ですか?

41. 
ResNetの設計において、最大の特徴である「残差接続(Residual Connection)」の目的は何ですか?

42. 
seq2seqモデルにおいて、入力シーケンスの長さが異なるデータを処理するために最も適している手法はどれですか?

43. 
VGGネットワークのような深層学習モデルで、深い層を追加する際に発生する「勾配消失問題」を解決するための手法はどれですか?

44. 
VGGネットワークで「転移学習」が効果的な理由は何ですか?

45. 
ResNet/WideResNetにおける「Global Average Pooling(GAP)」の使用は何を目的としていますか?

46. 
Transformerモデルにおける「ドロップアウト」の目的は何ですか?

47. 
Transformerモデルの「Layer-wise Relevance Propagation(LRP)」は何を目的としていますか?

48. 
VGGネットワークにおける「ゼロパディング」の主な役割は何ですか?

49. 
WideResNetが従来のResNetと異なる点は何ですか?

50. 
seq2seqモデルにおいて、LSTM(Long Short-Term Memory)がRNNに比べて優れている点は何ですか?

コメントを残すにはログインしてください。