AI実装検定S級~模擬試験②~

1. 
EfficientNetで使用される「バッチ正規化(Batch Normalization)」の役割は何ですか?

2. 
Skip-gramモデルにおける「単語ベクトル」の次元数が増えると、何が改善される可能性がありますか?

3. 
HREDモデルの訓練時に「長短期記憶(LSTM)」と「ゲート付きリカレントユニット(GRU)」のどちらを使用するか選択する際のポイントは何ですか?

4. 
Skip-gramモデルの訓練時に「バッチサイズ」を大きくすることの利点は何ですか?

5. 
MobileNetV2がMobileNetV1に比べてパフォーマンスが向上した主な理由は何ですか?

6. 
HREDモデルにおける「コンテキストエンコーダ」の役割は何ですか?

7. 
EfficientNetの「Compound Scaling」を調整する際、幅を大きくスケーリングしすぎるとどのような問題が発生しますか?

8. 
MobileNetが「軽量」でありながら「高精度」を維持できる理由は次のうちどれですか?

9. 
MobileNetにおいて、分類タスクで「Global Average Pooling(GAP)」を使用する主な目的は何ですか?

10. 
MobileNetV3で新たに採用された「ハードスワッシュ(Hard-Swish)」の活性化関数は、何を改善するために使用されますか?

11. 
MobileNetが主に使用されるアプリケーション分野はどれですか?

12. 
DenseNetの「トランジションレイヤー」において、プーリング操作が行われる理由は何ですか?

13. 
HREDモデルの「グローバル文脈」と「ローカル文脈」の役割を正しく説明したものはどれですか?

14. 
EfficientNetにおける「Squeeze-and-Excitation(SE)」ブロックを適用することで期待できる効果は何ですか?

15. 
Skip-gramモデルが大規模なデータセットで効果的に機能する理由は何ですか?

16. 
MobileNetで使用される「ReLU6」の活性化関数は、どのような利点がありますか?

17. 
MobileNetの最大の特徴は次のうちどれですか?

18. 
DenseNetで「成長率(Growth Rate)」が過度に高く設定されると、どのような問題が発生する可能性がありますか?

19. 
Word2VecのSkip-gramモデルにおける「ウィンドウサイズ」が大きすぎると、どのような問題が発生する可能性がありますか?

20. 
EfficientNetのスケーリング戦略である「Compound Scaling」の目的は何ですか?

21. 
EfficientNet-B7がEfficientNet-B0に比べて優れている点は何ですか?

22. 
DenseNetにおいて「バッチ正規化(Batch Normalization)」が使用される主な理由は何ですか?

23. 
EfficientNetにおいて「MBConvブロック」の主な役割は何ですか?

24. 
Word2VecのSkip-gramモデルにおいて、「単語ベクトルの正規化」を行う理由は何ですか?

25. 
HREDモデルにおいて「ドメイン特化型対話システム」を作成する際に考慮すべき点はどれですか?

26. 
DenseNetで「スキップ接続」が無い場合に発生しうる問題は何ですか?

27. 
Word2VecのSkip-gramモデルで「コサイン類似度」を使用する理由は何ですか?

28. 
Word2VecモデルのSkip-gramとCBOW(Continuous Bag of Words)の主な違いは何ですか?

29. 
Skip-gramモデルにおける「単語の頻度に基づくダウンサンプリング」が効果的である理由は何ですか?

30. 
EfficientNetのMBConvブロックで「リニアボトルネック」を採用する理由は何ですか?

31. 
HREDモデルにアテンション機構を導入することで得られる利点は何ですか?

32. 
Word2VecのSkip-gramモデルにおける「学習率」を最適化する理由は何ですか?

33. 
EfficientNetが、特にモバイル端末や組み込みシステムで優れている理由は次のうちどれですか?

34. 
MobileNetの「αパラメータ」を減少させることによって予想される影響は何ですか?

35. 
HREDモデルの「階層構造」の主な利点は何ですか?

36. 
Skip-gramモデルで学習された単語ベクトルが「トランスファーラーニング」に適している理由は何ですか?

37. 
DenseNetのアーキテクチャにおける「パラメータ効率の良さ」の主な理由は次のうちどれですか?

38. 
Word2VecのSkip-gramモデルにおける「softmax関数」の役割は何ですか?

39. 
MobileNetの効率的な設計において、「次元削減」の目的は何ですか?

40. 
EfficientNetが従来のモデルよりも計算効率が高い理由は何ですか?

41. 
DenseNetの「密結合」構造において、層ごとに出力される特徴が前層の出力と統合されることによって得られる効果は何ですか?

42. 
MobileNetで「1x1の畳み込み(Pointwise Convolution)」が使用される目的は何ですか?

43. 
Skip-gramモデルの学習において「ネガティブサンプリング」の目的は何ですか?

44. 
HREDモデルが「探索空間の爆発」に対処するために適用される技術は何ですか?

45. 
Skip-gramモデルにおける「負のサンプリング(Negative Sampling)」で、正例と負例の比率を調整する理由は何ですか?

46. 
DenseNetにおいて「トランジションレイヤー」が適切に設計されていない場合、どのような問題が発生しますか?

47. 
Word2VecのSkip-gramモデルの目的は次のうちどれですか?

48. 
MobileNetの「Depthwise Separable Convolution」と従来の畳み込み層を比較した場合、パラメータ数の削減率はどの程度ですか?

49. 
MobileNetV2で導入された「インバーテッド残差構造(Inverted Residuals)」の主な利点は何ですか?

50. 
HREDモデルの訓練でよく使用される損失関数は次のうちどれですか?

コメントを残すにはログインしてください。