AI実装検定S級~模擬試験~

1. 
Skip-gramモデルにおける「単語ベクトル」の次元数が増えると、何が改善される可能性がありますか?

2. 
seq2seqモデルにおいて「エンコーダ」の役割は何ですか?

3. 
Skip-gramモデルの訓練時に「バッチサイズ」を大きくすることの利点は何ですか?

4. 
seq2seqモデルにおいて、「コンテキストベクトル」の役割は何ですか?

5. 
DenseNetにおける「密結合」の利点は次のうちどれですか?

6. 
MobileNetの設計において、「ストライド2」のDepthwise Convolutionを使用する主な目的は何ですか?

7. 
Transformerモデルにおいて「エンコーダスタック」と「デコーダスタック」の役割の違いは何ですか?

8. 
MobileNetV3で導入された「Squeeze-and-Excitation(SE)ブロック」の役割は何ですか?

9. 
Transformerモデルにおける「ポジションエンコーディング」の役割は何ですか?

10. 
Transformerモデルのトレーニングにおいて「学習率ウォームアップ」を使用する理由は何ですか?

11. 
HREDモデルの訓練でよく使用される損失関数は次のうちどれですか?

12. 
MobileNetの「αパラメータ」を減少させることによって予想される影響は何ですか?

13. 
EfficientNetの「Compound Scaling」を調整する際、幅を大きくスケーリングしすぎるとどのような問題が発生しますか?

14. 
VGGネットワークで使用される「最大プーリング(Max Pooling)」の主な目的は何ですか?

15. 
seq2seqモデルにおいて、LSTM(Long Short-Term Memory)がRNNに比べて優れている点は何ですか?

16. 
Word2VecのSkip-gramモデルの目的は次のうちどれですか?

17. 
seq2seqモデルのエンコーダとデコーダ間の情報伝達において、エンコーダの最終隠れ状態だけでなく、アテンション機構が重要となる理由は何ですか?

18. 
EfficientNetで使用される「バッチ正規化(Batch Normalization)」の役割は何ですか?

19. 
GoogLeNetにおいて「複数の出力層(auxiliary classifiers)」を追加する目的は何ですか?

20. 
MobileNetV3で新たに採用された「ハードスワッシュ(Hard-Swish)」の活性化関数は、何を改善するために使用されますか?

21. 
GoogLeNetが「事前学習済みモデル」として広く使用される理由は何ですか?

22. 
WideResNetが従来のResNetと異なる点は何ですか?

23. 
EfficientNetの「スケーリング係数φ(フィー)」が調整するのは次のうちどれですか?

24. 
HREDモデルの生成した応答が一貫性を欠く場合、どのような改善策が考えられますか?

25. 
Skip-gramモデルで単語ベクトルが生成される際、どのように単語の意味的類似性が表現されますか?

26. 
自己回帰型Transformerモデルにおいて「学習時と推論時のギャップ」を軽減する手法はどれですか?

27. 
MobileNetの設計において、「ハイパーパラメータα(アルファ)」は何を調整するために使用されますか?

28. 
VGG16において「16」という数字が示しているものは何ですか?

29. 
HREDモデルにおける「コンテキストエンコーダ」の役割は何ですか?

30. 
VGGネットワークの「小さな3x3カーネル」を使用することの利点は何ですか?

31. 
HREDモデルの「階層構造」の主な利点は何ですか?

32. 
HREDモデルの「文エンコーダ」にLSTMを使用する利点は何ですか?

33. 
Transformerモデルの「Layer-wise Relevance Propagation(LRP)」は何を目的としていますか?

34. 
VGGネットワークが通常使用する活性化関数は何ですか?

35. 
HREDモデルの訓練時に「長短期記憶(LSTM)」と「ゲート付きリカレントユニット(GRU)」のどちらを使用するか選択する際のポイントは何ですか?

36. 
DenseNetにおいて「バッチ正規化(Batch Normalization)」が使用される主な理由は何ですか?

37. 
ResNetの設計における「ボトルネックブロック」の役割は何ですか?

38. 
EfficientNetのスケーリング戦略である「Compound Scaling」の目的は何ですか?

39. 
VGGネットワークが従来のCNNモデルと比較して持つ利点は何ですか?

40. 
EfficientNetの「Compound Scaling」の理論的根拠は何ですか?

41. 
Transformerモデルにおいて、「マルチヘッドアテンション」が持つ効果は何ですか?

42. 
EfficientNetにおいて「MBConvブロック」の設計が計算効率を高める理由は何ですか?

43. 
WideResNetが「深さ」を増やす代わりに「幅」を増やす選択をする理由は何ですか?

44. 
HREDモデルが「対話システム」において持つ最大の利点は何ですか?

45. 
DenseNetにおいて「トランジションレイヤー」が適切に設計されていない場合、どのような問題が発生しますか?

46. 
seq2seqモデルの性能評価において、「精度」よりも「F1スコア」を使用する理由は何ですか?

47. 
TransformerモデルがRNNベースのseq2seqモデルと比較して持つ利点はどれですか?

48. 
seq2seqモデルにおける「双方向エンコーダ(Bidirectional Encoder)」の利点は何ですか?

49. 
EfficientNetの主な特徴は何ですか?

50. 
DenseNetの「密結合」構造が、他のモデルと比較してパラメータ効率を向上させる理由は何ですか?

コメントを残すにはログインしてください。