AI実装検定S級~模擬試験①~

1. 
GoogLeNetの出力層の設計に関して、正しい説明は次のうちどれですか?

2. 
WideResNetが従来のResNetと異なる点は何ですか?

3. 
GPT(Generative Pre-trained Transformer)モデルがBERTとは異なる点は何ですか?

4. 
seq2seqモデルのエンコーダとデコーダ間の情報伝達において、エンコーダの最終隠れ状態だけでなく、アテンション機構が重要となる理由は何ですか?

5. 
VGGネットワークの全結合層を削減した場合、予想される効果は何ですか?

6. 
Transformerモデルにおいて「Layer Normalization(層正規化)」が行われる主な理由は何ですか?

7. 
ResNetの設計における「ボトルネックブロック」の役割は何ですか?

8. 
seq2seqモデルにおいて、「コンテキストベクトル」の役割は何ですか?

9. 
VGGネットワークにおける「ゼロパディング」の主な役割は何ですか?

10. 
VGG16において「16」という数字が示しているものは何ですか?

11. 
seq2seqモデルにおいて、入力シーケンスの長さが異なるデータを処理するために最も適している手法はどれですか?

12. 
seq2seqモデルにおいて、「学習時のスケジュールサンプリング」が持つ効果は何ですか?

13. 
VGGネットワークが「パラメータ数が多い」という点が意味するものは何ですか?

14. 
seq2seqモデルにおいて、「BLEUスコア」とは何を測定する指標ですか?

15. 
VGGモデルにおいて、「過学習」を防ぐために取られる一般的な対策は何ですか?

16. 
ResNetが「非常に深いネットワーク」においても有効に機能する理由は何ですか?

17. 
WideResNetの主な目的は何ですか?

18. 
seq2seqモデルにおいて「エンコーダ」の役割は何ですか?

19. 
自己回帰型Transformerモデルにおいて「学習時と推論時のギャップ」を軽減する手法はどれですか?

20. 
GoogLeNetの訓練において、学習率スケジューリングを使用する理由は何ですか?

21. 
VGGネットワークが「事前学習済みモデル」としてよく使用される理由は何ですか?

22. 
GoogLeNetが「事前学習済みモデル」として広く使用される理由は何ですか?

23. 
GoogLeNetにおける「正則化技術」が必要とされる理由は何ですか?

24. 
seq2seqモデルにおける「双方向エンコーダ(Bidirectional Encoder)」の利点は何ですか?

25. 
VGGネットワークで使用される「最大プーリング(Max Pooling)」の主な目的は何ですか?

26. 
Transformerモデルにおける「マルチヘッドアテンション」の目的は何ですか?

27. 
VGGネットワークが通常使用する活性化関数は何ですか?

28. 
GoogLeNetが従来のCNNモデルよりも効率的に計算できる理由は何ですか?

29. 
seq2seqモデルのデコーダにおいて「Teacher Forcing」が効果的である理由は何ですか?

30. 
ResNetの「ボトルネックブロック」が非常に深い層でも有効に機能する理由は何ですか?

31. 
seq2seqモデルの訓練において、「教師あり学習」としての訓練が行われる理由は何ですか?

32. 
VGGネットワークのような深層学習モデルで、深い層を追加する際に発生する「勾配消失問題」を解決するための手法はどれですか?

33. 
VGGネットワークが従来のCNNモデルと比較して持つ利点は何ですか?

34. 
ResNetの「学習率スケジューリング」が訓練において重要である理由は何ですか?

35. 
Transformerモデルのトレーニングにおいて「学習率ウォームアップ」を使用する理由は何ですか?

36. 
Transformerモデルにおいて、「位置的注意スコア」はどのように計算されますか?

37. 
seq2seqモデルで「デコーダ」が生成するのは何ですか?

38. 
ResNetで「非常に深いネットワーク」を使用するとき、勾配消失問題を完全に解決できない場合、他にどのような問題が発生する可能性がありますか?

39. 
ResNetが「オーバーフィッティング」を防ぐために使用する手法は次のうちどれですか?

40. 
GoogLeNetのInceptionモジュールにおいて、「1x1の畳み込み層」を事前に適用しない場合、どういった問題が発生する可能性がありますか?

41. 
ResNetで「勾配消失問題」を防ぐための他の手法として考えられるものは次のうちどれですか?

42. 
WideResNetの幅を増やすことによる「表現力」の向上が、どのようにモデルの性能に影響を与える可能性がありますか?

43. 
GoogLeNetの設計において、「dropout」を使用する理由は何ですか?

44. 
GoogLeNetの「Inceptionモジュール」における「5x5の畳み込み層」を削除した場合、予想される影響は何ですか?

45. 
seq2seqモデルで使用される基本的なアーキテクチャはどれですか?

46. 
Transformerモデルにおいて「残差接続(Residual Connection)」の目的は何ですか?

47. 
seq2seqモデルの性能評価において、「精度」よりも「F1スコア」を使用する理由は何ですか?

48. 
seq2seqモデルにおける「ビームサーチ」の目的は何ですか?

49. 
GoogLeNetにおいて「1x1畳み込み」の役割は何ですか?

50. 
GoogLeNetにおいて、各Inceptionモジュールで「3x3の畳み込み層」を使用する理由は何ですか?

コメントを残すにはログインしてください。