E資格~模擬試験①~

1. 
条件付き確率 P(A | B) の定義はどれですか?

2. 

3. 
セマンティックセグメンテーションにおいて、Encoder-Decoderアーキテクチャの利点として正しいものはどれですか?

4. 
カイ二乗分布はどのような場面で使用されますか?

5. 
機械学習モデルの評価指標である「精度(accuracy)」は何を意味しますか?

6. 
セマンティックセグメンテーションとは何ですか?

7. 
KNN(K-Nearest Neighbors)アルゴリズムにおいて、K の値を大きく設定すると何が起こりますか?

8. 
自然言語処理において「ELMo(Embeddings from Language Models)」の最大の特徴は何ですか?

9. 
機械学習において、交差検証を行う主な理由は何ですか?

10. 
ニューラルネットワークの学習において、「重みの初期化」が適切でないと、どのような現象が発生する可能性が最も高いですか?

11. 
自然言語処理における「ネガティブサンプリング」の目的として正しいものはどれですか?

12. 
ニューラルネットワークの訓練において、「重みの初期化」が重要な理由は何ですか?

13. 
勾配降下法の「アダグラード(Adagrad)」アルゴリズムが効果的な場合はどれですか?

14. 
L2正則化とドロップアウトのどちらかを使用すべき場面として最も適切な状況はどれですか?

15. 
Faster R-CNNにおいて、RPNで生成された候補領域(Region Proposals)の数が多すぎると、どのような影響が考えられますか?

16. 
符号化定理に基づき、帯域幅 B と通信路容量 C の関係に影響を与える要因は何ですか?

17. 
PCA(主成分分析)の主な目的は何ですか?

18. 
モデルにおいて、L2正則化を導入することでどのような効果が得られますか?

19. 
強化学習における「Q学習」の目的は何ですか?

20. 
雑音が含まれる通信路において、符号化率 R が通信路容量 C より小さい場合、次のうち正しい記述はどれですか?

21. 
次のうち、「Self-Attention Mechanism」が使用される目的として最も適切なものはどれですか?

22. 
正規分布 N(0, 1) の上で、z スコアが -1.96 から 1.96 の範囲に入る確率はおよそどれですか?

23. 
プーリング層の主な役割は何ですか?

24. 
次のうち、BERTのトレーニングに使用される主なタスクはどれですか?

25. 
SSD(Single Shot Multibox Detector)の主な利点は何ですか?

26. 

27. 
シャノンの定理に基づき、ある通信路の容量が C = 10 kbps、信号対雑音比 (SNR) が 30 dB であるとき、この通信路の帯域幅はおよそどれですか?

28. 
「セマンティックセグメンテーション」とは何を指しますか?

29. 
「Transformer」がLSTMやGRUに比べて自然言語処理で優れている点として最も適切なものはどれですか?

30. 
CNNにおける「ソフトマックス関数」の役割は何ですか?

31. 
ミニバッチ勾配降下法(Mini-batch Gradient Descent)はどのような手法ですか?

32. 
「ImageNet」の役割として正しいものはどれですか?

33. 
CNNモデルにおいて、過学習を防ぐために広く用いられるテクニックはどれですか?

34. 
順伝播型ネットワークにおける活性化関数「シグモイド関数」が深層学習であまり使われない理由は何ですか?

35. 
セマンティックセグメンテーションにおいて、「ピクセルワイズソフトマックス(Pixel-wise Softmax)」が必要とされる理由は何ですか?

36. 
次のうち、セマンティックセグメンテーションで頻繁に使用される「Skip Connection」の役割として正しいものはどれですか?

37. 
畳み込みニューラルネットワーク(CNN)で一般的に使用されるプーリング層の目的は何ですか?

38. 
次のうち、セマンティックセグメンテーションにおいて「パッチベースのアプローチ」が適しているシナリオはどれですか?

39. 

40. 

41. 
物体検出における「IoU(Intersection over Union)」とは何を表しますか?

42. 
サポートベクターマシン(SVM)はどのような問題に使用されますか?

43. 
物体検出において、1枚の画像に複数の物体を検出する手法として、最もよく使われる手法はどれですか?

44. 
ドロップアウト(Dropout)の主な役割は何ですか?

45. 
CNNの「畳み込みフィルタの数」を増やすと、モデルにどのような影響がありますか?

46. 
次のうち、U-Netの主な応用先として正しいものはどれですか?

47. 
アダム(Adam)最適化アルゴリズムはどのような特徴を持っていますか?

48. 
勾配降下法における「学習率」が大きすぎると何が起こりますか?

49. 
物体検出タスクにおいて、精度と速度のバランスが取れているモデルとして知られているのはどれですか?

50. 
CNNにおける「ストライド」とは何ですか?

51. 
次のうち、画像認識モデルでよく使われる「データ拡張」の技術に含まれないものはどれですか?

52. 
BERT(Bidirectional Encoder Representations from Transformers)の最大の特徴は何ですか?

53. 
CNNで使用される「バッチ正規化(Batch Normalization)」の主な効果は何ですか?

54. 
バッチ正規化(Batch Normalization)が勾配消失問題に対して効果的な理由は何ですか?

55. 
順伝播型ネットワークにおいて、勾配降下法の「ミニバッチサイズ」を大きく設定した場合の利点はどれですか?

56. 
中心極限定理が示す内容として最も正しいのはどれですか?

57. 
セマンティックセグメンテーションにおいて、「CRF(Conditional Random Field)」が使用される主な理由は何ですか?

58. 
セマンティックセグメンテーションにおいて、完全畳み込みネットワーク(Fully Convolutional Network, FCN)が導入された目的は何ですか?

59. 
最適化手法の1つである「モーメンタム法」の主な目的は何ですか?

60. 
セマンティックセグメンテーションにおける「U-Net」の特徴は何ですか?

61. 
決定木モデルにおいて、エントロピーが最も低い分割の重要性は何ですか?

62. 
ドロップアウトを使用する主な理由はどれですか?

63. 
セマンティックセグメンテーションにおいて、評価指標として使用される「IoU(Intersection over Union)」とは何を表しますか?

64. 
次のうち、畳み込みニューラルネットワーク(CNN)の学習において、画像の「正規化」の目的は何ですか?

65. 
セマンティックセグメンテーションにおいて、「アップサンプリング」はどの段階で行われますか?

66. 
情報圧縮におけるハフマン符号の役割は何ですか?

67. 
自然言語処理において「Attention Mechanism」の役割は何ですか?

68. 
機械学習において、L2正則化(リッジ回帰)が効果的な理由として最も適切なのはどれですか?

69. 
順伝播型ネットワークの出力層でよく使用される活性化関数は次のうちどれですか?

70. 
情報理論における「無記憶(メモリーレス)通信路」とは何ですか?

71. 
順伝播型ネットワークにおいて、重みの初期化が不適切な場合、学習にどのような影響がありますか?

72. 
ロジスティック回帰において、シグモイド関数の役割は何ですか?

73. 
順伝播型ネットワークにおけるドロップアウト(Dropout)の役割は何ですか?

74. 
セマンティックセグメンテーションで、アトリウムネットワーク(Atrous Convolution)が使用される理由として最も適切なものはどれですか?

75. 
「Fine-Tuning(ファインチューニング)」の効果として最も適切なものはどれですか?

76. 
「アダム(Adam)」最適化アルゴリズムにおけるバイアス補正の役割は何ですか?

77. 
セマンティックセグメンテーションモデルにおいて、Skip Connectionを導入することによる効果として正しいものはどれですか?

78. 
画像認識における「転移学習」の利点として正しいものはどれですか?

79. 
順伝播型ニューラルネットワークで、ドロップアウト率を適切に設定する理由は何ですか?

80. 
「RNN(Recurrent Neural Network)」が自然言語処理においてよく使用される理由として正しいものはどれですか?

81. 
CNNにおいて「ReLU(Rectified Linear Unit)」が活性化関数として好まれる理由は何ですか?

82. 
物体検出における「アンカー(Anchor)」の役割は何ですか?

83. 
セマンティックセグメンテーションにおいて、「DeepLab」モデルの特徴は何ですか?

84. 
Faster R-CNNの特徴として正しいものはどれですか?

85. 
自然言語処理において「シーケンス・トゥ・シーケンス(Seq2Seq)」モデルがよく使用されるタスクはどれですか?

86. 
次のうち、自然言語処理において「Word2Vec」で学習されるものは何ですか?

87. 
物体検出モデルにおいて「マルチスケール予測」とは何ですか?

88. 
順伝播型ネットワークにおける「ミニバッチ学習」とは何ですか?

89. 

90. 
セマンティックセグメンテーションにおいてよく使用される損失関数はどれですか?

91. 
ニューラルネットワークの最適化で、重みの初期化方法として「He初期化」が特に有効な理由は何ですか?

92. 
セマンティックセグメンテーションにおける「ダウンサンプリング」とは何ですか?

93. 
順伝播型ネットワークにおいて、ReLU関数が活性化関数として好まれる理由は次のうちどれですか?

94. 

95. 
物体検出タスクで使用される「RPN(Region Proposal Network)」の目的は何ですか?

96. 
「Global Average Pooling」が用いられる目的は何ですか?

97. 
RMSPropの特徴は何ですか?

98. 
物体検出において、マルチスケール特徴マップを利用するモデルの利点として正しいものはどれですか?

99. 
ドロップアウトとL2正則化の主な違いは何ですか?

100. 
次のうち、BERTやGPTなどの事前学習済みモデルを特定のタスクに適応させるための技術はどれですか?

コメントを残すにはログインしてください。