AI実装検定S級~模擬試験②~

1. 
EfficientNetの「Compound Scaling」の調整によって「解像度」を過度にスケーリングした場合、どのような問題が発生しますか?

2. 
MobileNetの「Depthwise Separable Convolution」と従来の畳み込み層を比較した場合、パラメータ数の削減率はどの程度ですか?

3. 
MobileNetV3で導入された「Squeeze-and-Excitation(SE)ブロック」の役割は何ですか?

4. 
Skip-gramモデルの「潜在意味解析(LSA)」との違いは何ですか?

5. 
EfficientNetにおいて「MBConvブロック」の設計が計算効率を高める理由は何ですか?

6. 
HREDモデルにアテンション機構を導入することで得られる利点は何ですか?

7. 
HREDモデルが「探索空間の爆発」に対処するために適用される技術は何ですか?

8. 
HREDモデルの訓練時に「長短期記憶(LSTM)」と「ゲート付きリカレントユニット(GRU)」のどちらを使用するか選択する際のポイントは何ですか?

9. 
MobileNetの「αパラメータ」を減少させることによって予想される影響は何ですか?

10. 
DenseNetの「トランジションレイヤー」において、プーリング操作が行われる理由は何ですか?

11. 
Word2VecモデルのSkip-gramとCBOW(Continuous Bag of Words)の主な違いは何ですか?

12. 
DenseNetが他の深層学習モデルに比べて「メモリ効率が高い」と言われる理由は何ですか?

13. 
DenseNetが非常に深いネットワークにおいても「勾配消失」を防げる主な理由は何ですか?

14. 
HREDモデルにおける「コンテキストエンコーダ」の役割は何ですか?

15. 
EfficientNetのMBConvブロックで「リニアボトルネック」を採用する理由は何ですか?

16. 
MobileNetV3で新たに採用された「ハードスワッシュ(Hard-Swish)」の活性化関数は、何を改善するために使用されますか?

17. 
EfficientNetにおいて「Global Average Pooling(GAP)」が使用される理由は何ですか?

18. 
MobileNetが主に使用されるアプリケーション分野はどれですか?

19. 
DenseNetのアーキテクチャにおける「パラメータ効率の良さ」の主な理由は次のうちどれですか?

20. 
Skip-gramモデルの学習において「ネガティブサンプリング」の目的は何ですか?

21. 
DenseNetの「密結合」構造において、層ごとに出力される特徴が前層の出力と統合されることによって得られる効果は何ですか?

22. 
EfficientNetが「軽量」でありながら「高精度」を実現できる理由は何ですか?

23. 
HREDモデルにおいて「デコーダ」の役割は何ですか?

24. 
HREDモデルの「グローバル文脈」と「ローカル文脈」の役割を正しく説明したものはどれですか?

25. 
DenseNetにおける「密結合」の利点は次のうちどれですか?

26. 
EfficientNetの「Compound Scaling」が従来のスケーリング手法と異なる点は何ですか?

27. 
EfficientNetにおける「Squeeze-and-Excitation(SE)」ブロックを適用することで期待できる効果は何ですか?

28. 
MobileNetの設計において、「ストライド2」のDepthwise Convolutionを使用する主な目的は何ですか?

29. 
DenseNetにおいて「トランジションレイヤー」が適切に設計されていない場合、どのような問題が発生しますか?

30. 
MobileNetにおいて、分類タスクで「Global Average Pooling(GAP)」を使用する主な目的は何ですか?

31. 
EfficientNetの主な特徴は何ですか?

32. 
EfficientNetが従来のモデルよりも計算効率が高い理由は何ですか?

33. 
EfficientNetで使用される「バッチ正規化(Batch Normalization)」の役割は何ですか?

34. 
Word2VecのSkip-gramモデルで「コサイン類似度」を使用する理由は何ですか?

35. 
HREDモデルの生成した応答が一貫性を欠く場合、どのような改善策が考えられますか?

36. 
HREDモデルの「文エンコーダ」の役割は何ですか?

37. 
MobileNetV2で導入された「インバーテッド残差構造(Inverted Residuals)」の主な利点は何ですか?

38. 
HREDモデルが通常のseq2seqモデルと異なる点は何ですか?

39. 
Word2VecのSkip-gramモデルにおいて、「単語ベクトルの正規化」を行う理由は何ですか?

40. 
MobileNetの効率的な設計において、「次元削減」の目的は何ですか?

41. 
Word2VecのSkip-gramモデルにおける「ウィンドウサイズ」が大きすぎると、どのような問題が発生する可能性がありますか?

42. 
DenseNetが「勾配消失問題」を効果的に防ぐ理由は何ですか?

43. 
MobileNetV2の「インバーテッド残差構造」が従来の残差構造と異なる点は何ですか?

44. 
Word2VecのSkip-gramモデルにおいて「ウィンドウサイズ」の役割は何ですか?

45. 
MobileNetで「1x1の畳み込み(Pointwise Convolution)」が使用される目的は何ですか?

46. 
HREDモデルはどのようなタスクに特に適していますか?

47. 
MobileNetV2がMobileNetV1に比べてパフォーマンスが向上した主な理由は何ですか?

48. 
MobileNetの最大の特徴は次のうちどれですか?

49. 
DenseNetの「密結合」構造が、他のモデルと比較してパラメータ効率を向上させる理由は何ですか?

50. 
HREDモデルの基本的な構造は次のうちどれですか?

コメントを残すにはログインしてください。