AI実装検定S級~模擬試験~

1. 
HREDモデルにおいて「情報ボトルネック問題」が発生する可能性がある理由は何ですか?

2. 
WideResNetが従来のResNetと異なる点は何ですか?

3. 
GoogLeNetで「バッチ正規化」を適用することで期待される効果は何ですか?

4. 
seq2seqモデルのエンコーダとデコーダ間の情報伝達において、エンコーダの最終隠れ状態だけでなく、アテンション機構が重要となる理由は何ですか?

5. 
Transformerモデルにおける「自己注意機構(Self-Attention)」の役割は何ですか?

6. 
Transformerモデルにおける「学習率スケジューリング」の効果は何ですか?

7. 
DenseNetのアーキテクチャにおける「パラメータ効率の良さ」の主な理由は次のうちどれですか?

8. 
Transformerモデルがseq2seqモデルに対して持つ最大の利点は何ですか?

9. 
MobileNetV3で新たに採用された「ハードスワッシュ(Hard-Swish)」の活性化関数は、何を改善するために使用されますか?

10. 
ResNetが「非常に深いネットワーク」においても有効に機能する理由は何ですか?

11. 
DenseNetの「トランジションレイヤー」において、プーリング操作が行われる理由は何ですか?

12. 
Skip-gramモデルで学習された単語ベクトルが「トランスファーラーニング」に適している理由は何ですか?

13. 
VGGネットワークのような深層学習モデルで、深い層を追加する際に発生する「勾配消失問題」を解決するための手法はどれですか?

14. 
VGGネットワークが多くのパラメータを持つことの欠点を軽減するために、近年利用される技術は何ですか?

15. 
HREDモデルの「文エンコーダ」にLSTMを使用する利点は何ですか?

16. 
VGG16とVGG19の違いとして正しいものはどれですか?

17. 
VGGモデルにおいて、「過学習」を防ぐために取られる一般的な対策は何ですか?

18. 
MobileNetV3で導入された「ハードスワッシュ」とReLU6を比較した場合、どのような性能向上が期待されますか?

19. 
MobileNetV2で導入された「インバーテッド残差構造(Inverted Residuals)」の主な利点は何ですか?

20. 
GoogLeNetで「Global Average Pooling(GAP)」が使用される理由は何ですか?

21. 
MobileNetV3で導入された「Squeeze-and-Excitation(SE)ブロック」の役割は何ですか?

22. 
GoogLeNetが従来のCNNモデルよりも効率的に計算できる理由は何ですか?

23. 
WideResNetが「深さ」を増やす代わりに「幅」を増やす選択をする理由は何ですか?

24. 
MobileNetの「Depthwise Separable Convolution」と従来の畳み込み層を比較した場合、パラメータ数の削減率はどの程度ですか?

25. 
HREDモデルの基本的な構造は次のうちどれですか?

26. 
ResNetで使用される「バッチ正規化(Batch Normalization)」の主な役割は何ですか?

27. 
seq2seqモデルにおいて、「コンテキストベクトル」の役割は何ですか?

28. 
EfficientNetの「Compound Scaling」を調整する際、幅を大きくスケーリングしすぎるとどのような問題が発生しますか?

29. 
VGGネットワークの全結合層を削減した場合、予想される効果は何ですか?

30. 
Transformerモデルの「Layer-wise Relevance Propagation(LRP)」は何を目的としていますか?

31. 
VGGネットワークで使用される「最大プーリング(Max Pooling)」の主な目的は何ですか?

32. 
VGGネットワークで「カーネルサイズを小さくする」設計の意図は何ですか?

33. 
VGGネットワークが従来のCNNモデルと比較して持つ利点は何ですか?

34. 
VGGネットワークにおける「ゼロパディング」の主な役割は何ですか?

35. 
TransformerモデルがRNNベースのseq2seqモデルと比較して持つ利点はどれですか?

36. 
Word2VecのSkip-gramモデルにおける「ウィンドウサイズ」が大きすぎると、どのような問題が発生する可能性がありますか?

37. 
GoogLeNetの「Inceptionモジュール」の設計において、次元削減を行わないとどのような影響がありますか?

38. 
GoogLeNetの訓練において、学習率スケジューリングを使用する理由は何ですか?

39. 
MobileNetの設計において、「ハイパーパラメータα(アルファ)」は何を調整するために使用されますか?

40. 
Skip-gramモデルで、負のサンプリング(Negative Sampling)を使用する際に最も重要なハイパーパラメータは何ですか?

41. 
Transformerモデルのトレーニングにおいて「学習率ウォームアップ」を使用する理由は何ですか?

42. 
DenseNetが他の深層学習モデルに比べて「メモリ効率が高い」と言われる理由は何ですか?

43. 
MobileNetの効率的な設計において、「次元削減」の目的は何ですか?

44. 
ResNet/WideResNetにおける「Global Average Pooling(GAP)」の使用は何を目的としていますか?

45. 
GoogLeNetの設計において「枝分かれしたネットワーク(分岐)」を採用する理由は何ですか?

46. 
GoogLeNetの設計で「プーリング層」を使用する主な目的は何ですか?

47. 
Skip-gramモデルの学習において「ネガティブサンプリング」の目的は何ですか?

48. 
DenseNetにおける「密結合」の利点は次のうちどれですか?

49. 
seq2seqモデルにおける「アテンション機構」の役割は何ですか?

50. 
ResNetが「オーバーフィッティング」を防ぐために使用する手法は次のうちどれですか?

コメントを残すにはログインしてください。