AI実装検定S級~模擬試験~

1. 
自己回帰型Transformerモデルにおいて「学習時と推論時のギャップ」を軽減する手法はどれですか?

2. 
EfficientNetのスケーリング戦略である「Compound Scaling」の目的は何ですか?

3. 
VGG16とVGG19の違いとして正しいものはどれですか?

4. 
seq2seqモデルのデコーダにおいて「Teacher Forcing」が効果的である理由は何ですか?

5. 
GoogLeNetにおいて「1x1畳み込み」の役割は何ですか?

6. 
DenseNetで「成長率(Growth Rate)」が過度に高く設定されると、どのような問題が発生する可能性がありますか?

7. 
DenseNetで「スキップ接続」が無い場合に発生しうる問題は何ですか?

8. 
Transformerモデルにおいて「残差接続(Residual Connection)」の目的は何ですか?

9. 
VGGネットワークが「事前学習済みモデル」としてよく使用される理由は何ですか?

10. 
Transformerモデルの「Layer-wise Relevance Propagation(LRP)」は何を目的としていますか?

11. 
HREDモデルが通常のseq2seqモデルと異なる点は何ですか?

12. 
Word2VecのSkip-gramモデルが「類似語」を見つけるために利用される理由は何ですか?

13. 
GoogLeNetの「Inception-v3」と「Inception-v1」の主な違いは何ですか?

14. 
HREDモデルが適用される領域で特に重要な「転移学習」の利点は何ですか?

15. 
GoogLeNetの「Inceptionモジュール」における「5x5の畳み込み層」を削除した場合、予想される影響は何ですか?

16. 
Transformerモデルにおいて、「マルチヘッドアテンション」が持つ効果は何ですか?

17. 
MobileNetV2の「インバーテッド残差構造」が従来の残差構造と異なる点は何ですか?

18. 
HREDモデルにおいて「ドメイン特化型対話システム」を作成する際に考慮すべき点はどれですか?

19. 
HREDモデルが「探索空間の爆発」に対処するために適用される技術は何ですか?

20. 
ResNetの「学習率スケジューリング」が訓練において重要である理由は何ですか?

21. 
GoogLeNetの設計において、Inceptionモジュールを使用する利点は何ですか?

22. 
MobileNetV3で新たに採用された「ハードスワッシュ(Hard-Swish)」の活性化関数は、何を改善するために使用されますか?

23. 
MobileNetにおいて「Depthwise Separable Convolution」の主な利点は何ですか?

24. 
VGGネットワークを転移学習に使用する際、全結合層を新しいタスクに合わせて再トレーニングする理由は何ですか?

25. 
WideResNetのようなモデルで「スキップ接続」が無い場合、どのような影響が考えられますか?

26. 
EfficientNetの主な特徴は何ですか?

27. 
Skip-gramモデルで単語ベクトルが生成される際、どのように単語の意味的類似性が表現されますか?

28. 
DenseNetのアーキテクチャにおける「パラメータ効率の良さ」の主な理由は次のうちどれですか?

29. 
DenseNetの「密結合」構造が、他のモデルと比較してパラメータ効率を向上させる理由は何ですか?

30. 
HREDモデルの「文エンコーダ」にLSTMを使用する利点は何ですか?

31. 
VGGネットワークのような深層学習モデルで、深い層を追加する際に発生する「勾配消失問題」を解決するための手法はどれですか?

32. 
DenseNetが他の深層学習モデルに比べて「メモリ効率が高い」と言われる理由は何ですか?

33. 
Transformerモデルにおいて「エンコーダスタック」と「デコーダスタック」の役割の違いは何ですか?

34. 
VGGモデルにおいて、「過学習」を防ぐために取られる一般的な対策は何ですか?

35. 
Word2VecのSkip-gramモデルにおいて「ウィンドウサイズ」の役割は何ですか?

36. 
EfficientNet-B7がEfficientNet-B0に比べて優れている点は何ですか?

37. 
WideResNetが標準のResNetに比べて「計算効率」を高めるために採用している設計方針は次のうちどれですか?

38. 
HREDモデルにおいて「デコーダ」の役割は何ですか?

39. 
seq2seqモデルのエンコーダにおいて、「長短期記憶(LSTM)」を用いるメリットとして正しいものはどれですか?

40. 
ResNetが「非常に深いネットワーク」においても有効に機能する理由は何ですか?

41. 
ResNetの「ボトルネックブロック」が非常に深い層でも有効に機能する理由は何ですか?

42. 
HREDモデルにおいて「対話型システム」でよく使用される理由は何ですか?

43. 
ResNetで使用される「バッチ正規化(Batch Normalization)」の主な役割は何ですか?

44. 
Skip-gramモデルにおける「負のサンプリング(Negative Sampling)」で、正例と負例の比率を調整する理由は何ですか?

45. 
seq2seqモデルにおいて、「コンテキストベクトル」の役割は何ですか?

46. 
Transformerモデルのトレーニングにおいて「学習率ウォームアップ」を使用する理由は何ですか?

47. 
Transformerモデルにおいて「Layer Normalization(層正規化)」が行われる主な理由は何ですか?

48. 
GoogLeNetの設計において「枝分かれしたネットワーク(分岐)」を採用する理由は何ですか?

49. 
GoogLeNetが従来のCNNモデルよりも効率的に計算できる理由は何ですか?

50. 
VGGネットワークで使用される「最大プーリング(Max Pooling)」の主な目的は何ですか?

コメントを残すにはログインしてください。