AI実装検定S級~模擬試験①~

1. 
GoogLeNetで「バッチ正規化」を適用することで期待される効果は何ですか?

2. 
GPT-3のような大規模言語モデルにおいて「Few-shot learning」が効果的である理由は何ですか?

3. 
ResNetが「オーバーフィッティング」を防ぐために使用する手法は次のうちどれですか?

4. 
Transformerモデルがseq2seqモデルに対して持つ最大の利点は何ですか?

5. 
Transformerモデルにおいて「Layer Normalization(層正規化)」が行われる主な理由は何ですか?

6. 
GoogLeNetの設計で「プーリング層」を使用する主な目的は何ですか?

7. 
VGGネットワークの設計において「全結合層」を使用する目的は何ですか?

8. 
GoogLeNetのInceptionモジュールにおいて、「1x1の畳み込み層」を事前に適用しない場合、どういった問題が発生する可能性がありますか?

9. 
seq2seqモデルのエンコーダとデコーダ間の情報伝達において、エンコーダの最終隠れ状態だけでなく、アテンション機構が重要となる理由は何ですか?

10. 
VGGネットワークの層の総数が多い理由は何ですか?

11. 
WideResNetのようなモデルで「スキップ接続」が無い場合、どのような影響が考えられますか?

12. 
seq2seqモデルで「デコーダ」が生成するのは何ですか?

13. 
GoogLeNetにおいて「複数の出力層(auxiliary classifiers)」を追加する目的は何ですか?

14. 
VGGネットワークで「転移学習」が効果的な理由は何ですか?

15. 
VGGネットワークが従来のCNNモデルと比較して持つ利点は何ですか?

16. 
VGGネットワークの「プーリング層」の主な役割は何ですか?

17. 
VGGネットワークのような深層学習モデルで、深い層を追加する際に発生する「勾配消失問題」を解決するための手法はどれですか?

18. 
VGG16とVGG19の違いとして正しいものはどれですか?

19. 
GPT(Generative Pre-trained Transformer)モデルがBERTとは異なる点は何ですか?

20. 
BERT(Bidirectional Encoder Representations from Transformers)がTransformerのエンコーダを使用することで、従来のseq2seqモデルに対して持つ利点は何ですか?

21. 
WideResNetが「深さ」を増やす代わりに「幅」を増やす選択をする理由は何ですか?

22. 
VGGネットワークを転移学習に使用する際、全結合層を新しいタスクに合わせて再トレーニングする理由は何ですか?

23. 
ResNetで「非常に深いネットワーク」を使用するとき、勾配消失問題を完全に解決できない場合、他にどのような問題が発生する可能性がありますか?

24. 
seq2seqモデルのエンコーダにおいて、「長短期記憶(LSTM)」を用いるメリットとして正しいものはどれですか?

25. 
ResNet-50の「50」という数字が示しているのは次のうちどれですか?

26. 
ResNetで「勾配消失問題」を防ぐための他の手法として考えられるものは次のうちどれですか?

27. 
VGG16において「16」という数字が示しているものは何ですか?

28. 
VGGモデルにおいて、「過学習」を防ぐために取られる一般的な対策は何ですか?

29. 
ResNet/WideResNetにおける「Global Average Pooling(GAP)」の使用は何を目的としていますか?

30. 
GoogLeNetの設計において、「dropout」を使用する理由は何ですか?

31. 
ResNetの設計において、最大の特徴である「残差接続(Residual Connection)」の目的は何ですか?

32. 
VGGネットワークが多くのパラメータを持つことの欠点を軽減するために、近年利用される技術は何ですか?

33. 
GoogLeNetモデルの主な特徴は次のうちどれですか?

34. 
seq2seqモデルにおいて、入力シーケンスの長さが異なるデータを処理するために最も適している手法はどれですか?

35. 
ResNetで使用される「バッチ正規化(Batch Normalization)」の主な役割は何ですか?

36. 
Transformerモデルのトレーニングにおいて「学習率ウォームアップ」を使用する理由は何ですか?

37. 
Transformerモデルにおいて「残差接続(Residual Connection)」の目的は何ですか?

38. 
GoogLeNetにおいて「1x1畳み込み」の役割は何ですか?

39. 
VGGネットワークで「カーネルサイズを小さくする」設計の意図は何ですか?

40. 
VGGネットワークが「事前学習済みモデル」としてよく使用される理由は何ですか?

41. 
ResNetが「非常に深いネットワーク」においても有効に機能する理由は何ですか?

42. 
VGGネットワークの設計において、特徴的な要素は何ですか?

43. 
GoogLeNetの「Inceptionモジュール」の設計において、次元削減を行わないとどのような影響がありますか?

44. 
WideResNetが標準のResNetに比べて「計算効率」を高めるために採用している設計方針は次のうちどれですか?

45. 
GoogLeNetの「Inception-v3」と「Inception-v1」の主な違いは何ですか?

46. 
seq2seqモデルで使用される基本的なアーキテクチャはどれですか?

47. 
Transformerモデルで用いられる「FFN(Feed-Forward Network)」の役割は何ですか?

48. 
seq2seqモデルにおいて「エンコーダ」の役割は何ですか?

49. 
Transformerモデルにおける「学習率スケジューリング」の効果は何ですか?

50. 
GoogLeNetの設計において、Inceptionモジュールを使用する利点は何ですか?

コメントを残すにはログインしてください。