E資格~模擬試験①~

1. 
CNNにおける「転移学習」の利点は何ですか?

2. 
順伝播型ネットワークにおけるドロップアウト(Dropout)の役割は何ですか?

3. 

4. 
L2正則化とドロップアウトのどちらかを使用すべき場面として最も適切な状況はどれですか?

5. 
セマンティックセグメンテーションにおいて、評価指標として使用される「IoU(Intersection over Union)」とは何を表しますか?

6. 
順伝播型ネットワークにおいて、重みの初期化が不適切な場合、学習にどのような影響がありますか?

7. 
CNNのプーリング層で最大プーリング(Max Pooling)を使う利点は何ですか?

8. 
正則化の導入により、どのようにしてモデルのバイアス-バリアンストレードオフが影響を受けますか?

9. 
符号化における「冗長性」とは何を意味しますか?

10. 
物体検出における「アンカー(Anchor)」の役割は何ですか?

11. 
A、B という2つの事象が互いに独立であるとき、P(A) = 0.3, P(B) = 0.4 のとき、A か B の少なくとも1つが起こる確率はどれですか?

12. 
順伝播型ネットワーク(Feedforward Neural Network)で最も基本的な構造はどれですか?

13. 
L1正則化とL2正則化を組み合わせた「Elastic Net」が特に有効な場面はどれですか?

14. 
「畳み込みカーネル(フィルタ)」が複数の層で共有される場合の利点は何ですか?

15. 
次のうち、VGG16やResNetなどの深層CNNモデルで重要視されるテクニックはどれですか?

16. 
次のうち、「Self-Attention Mechanism」が使用される目的として最も適切なものはどれですか?

17. 
順伝播型ネットワークにおける「エポック」とは何ですか?

18. 
最適化手法の1つである「モーメンタム法」の主な目的は何ですか?

19. 
次のうち、U-Netの主な応用先として正しいものはどれですか?

20. 
情報量の単位として「ビット」が使われる理由は何ですか?

21. 
エントロピー H(X) の値が最大になるのはどのような場合ですか?

22. 
決定木モデルにおいて、エントロピーが最も低い分割の重要性は何ですか?

23. 
独立な事象 A と B の同時発生確率は、次のうちどれですか?

24. 
KNN(K-Nearest Neighbors)アルゴリズムにおいて、K の値を大きく設定すると何が起こりますか?

25. 
物体検出タスクにおける「NMS(Non-Maximum Suppression)」の目的は何ですか?

26. 
画像認識における「転移学習」の利点として正しいものはどれですか?

27. 
セマンティックセグメンテーションにおいて、「DeepLab」モデルの特徴は何ですか?

28. 
物体検出において「バックボーンネットワーク」の役割として正しいものはどれですか?

29. 
「Global Average Pooling」が用いられる目的は何ですか?

30. 
セマンティックセグメンテーションとは何ですか?

31. 
順伝播型ネットワークにおいて、ミニバッチのサイズが大きすぎると、学習にどのような影響がありますか?

32. 
CNNの「畳み込みフィルタの数」を増やすと、モデルにどのような影響がありますか?

33. 
情報理論における「相互情報量」とは何を意味しますか?

34. 
標準偏差が示す意味として最も適切なのはどれですか?

35. 
「アダム(Adam)」最適化アルゴリズムにおけるバイアス補正の役割は何ですか?

36. 
ある通信路で、信号対雑音比 (SNR) が 20dB、帯域幅が 2kHz であるとき、シャノンの通信路容量はおよそどれですか?

37. 
セマンティックセグメンテーションモデルにおいて、Skip Connectionを導入することによる効果として正しいものはどれですか?

38. 
期待値とは何を意味しますか?

39. 
「RNN(Recurrent Neural Network)」が自然言語処理においてよく使用される理由として正しいものはどれですか?

40. 
YOLOのような1ステージ物体検出アルゴリズムにおいて、バウンディングボックスの信頼度スコアが高いにもかかわらず誤検出が発生する原因として考えられる要素はどれですか?

41. 
CNNにおける「ReLU関数」が学習効率を高める理由はどれですか?

42. 
画像認識タスクで最も一般的に使用される損失関数はどれですか?

43. 
セマンティックセグメンテーションにおける「U-Net」の特徴は何ですか?

44. 
バッチ正規化(Batch Normalization)が勾配消失問題に対して効果的な理由は何ですか?

45. 
CNNの「パディング」が重要な理由は何ですか?

46. 

47. 
物体検出タスクにおいて、精度と速度のバランスが取れているモデルとして知られているのはどれですか?

48. 
ニューラルネットワークの訓練において、「重みの初期化」が重要な理由は何ですか?

49. 
順伝播型ネットワークにおいて、出力層で使用されるソフトマックス関数が持つ主な利点は何ですか?

50. 
L2正則化を導入した場合、モデルの重みに対してどのような効果がありますか?

51. 
順伝播型ネットワークにおいて、バイアスユニットの役割は何ですか?

52. 
順伝播型ネットワークの出力層でよく使用される活性化関数は次のうちどれですか?

53. 
CNNにおいて、畳み込み層とプーリング層の組み合わせはどのような効果をもたらしますか?

54. 
ドロップアウト(Dropout)の役割は何ですか?

55. 
CNNにおける「転置畳み込み層(Transposed Convolutional Layer)」の目的は何ですか?

56. 
セマンティックセグメンテーションにおいて、完全畳み込みネットワーク(Fully Convolutional Network, FCN)が導入された目的は何ですか?

57. 
勾配降下法において、学習率が大きすぎると何が起こりますか?

58. 
畳み込み層(Convolutional Layer)の主な役割は何ですか?

59. 
順伝播型ネットワークにおけるドロップアウト率が高すぎる場合、どのような影響がありますか?

60. 
勾配降下法において、学習率の役割は何ですか?

61. 
CNNで使用される「バッチ正規化(Batch Normalization)」の主な効果は何ですか?

62. 
機械学習における「教師あり学習」とは何ですか?

63. 
機械学習モデルの評価において、テストデータを使う理由は何ですか?

64. 
次のうち、畳み込みニューラルネットワーク(CNN)の学習において、画像の「正規化」の目的は何ですか?

65. 
畳み込みニューラルネットワークにおける「フィルタ(カーネル)」のサイズが大きくなると、何が起こりますか?

66. 
順伝播型ニューラルネットワークで、ドロップアウト率を適切に設定する理由は何ですか?

67. 
自然言語処理において「ELMo(Embeddings from Language Models)」の最大の特徴は何ですか?

68. 
勾配降下法(Gradient Descent)における主な目的は何ですか?

69. 
アダム(Adam)の利点として正しいものはどれですか?

70. 
ドロップアウトがリカレントニューラルネットワーク(RNN)に対して効果的な理由は何ですか?

71. 
エントロピー H(X) = 2.5 のとき、この情報源の平均情報量はどれですか?

72. 
物体検出において、1枚の画像に複数の物体を検出する手法として、最もよく使われる手法はどれですか?

73. 
L2正則化(リッジ回帰)の主な目的は何ですか?

74. 
バギング(Bagging)を用いることで得られる主なメリットは何ですか?

75. 

76. 
物体検出において、マルチスケール特徴マップを利用するモデルの利点として正しいものはどれですか?

77. 

78. 
プーリング層の主な役割は何ですか?

79. 
情報圧縮におけるハフマン符号の役割は何ですか?

80. 
次のうち、画像認識モデルでよく使われる「データ拡張」の技術に含まれないものはどれですか?

81. 
CNNモデルにおいて、過学習を防ぐために広く用いられるテクニックはどれですか?

82. 
CNNにおいて、学習中に重みを更新する手法として一般的に使用されるのはどれですか?

83. 
セマンティックセグメンテーションの評価において、精度を高めるための一般的な前処理手法として適切なものはどれですか?

84. 
自然言語処理において「Attention Mechanism」の役割は何ですか?

85. 
サポートベクターマシン(SVM)はどのような問題に使用されますか?

86. 
セマンティックセグメンテーションにおいて、「ピクセルワイズソフトマックス(Pixel-wise Softmax)」が必要とされる理由は何ですか?

87. 
ドロップアウト率を0.5に設定した場合、訓練時の挙動として正しいのはどれですか?

88. 
アダム(Adam)最適化アルゴリズムで使用される「1次モーメント推定」と「2次モーメント推定」の役割は何ですか?

89. 
モデルの汎化性能を向上させるために、L2正則化とドロップアウトを組み合わせる理由は何ですか?

90. 
情報理論における「無記憶(メモリーレス)通信路」とは何ですか?

91. 
カイ二乗分布はどのような場面で使用されますか?

92. 
CNNにおいて「ReLU(Rectified Linear Unit)」が活性化関数として好まれる理由は何ですか?

93. 
畳み込みニューラルネットワーク(CNN)において、畳み込み層の役割は何ですか?

94. 
自然言語処理において「シーケンス・トゥ・シーケンス(Seq2Seq)」モデルがよく使用されるタスクはどれですか?

95. 
順伝播型ネットワークにおいて、勾配降下法の「ミニバッチサイズ」を大きく設定した場合の利点はどれですか?

96. 
モデルにおいて、L2正則化を導入することでどのような効果が得られますか?

97. 
ニューラルネットワークの最適化で、重みの初期化方法として「He初期化」が特に有効な理由は何ですか?

98. 
セマンティックセグメンテーションで、アトリウムネットワーク(Atrous Convolution)が使用される理由として最も適切なものはどれですか?

99. 
CNNで「データ拡張(Data Augmentation)」を使用する目的は何ですか?

100. 
ニューラルネットワークの学習において、「重みの初期化」が適切でないと、どのような現象が発生する可能性が最も高いですか?

コメントを残すにはログインしてください。