E資格~模擬試験①~ 2024年12月7日2024年12月7日 ailearn 1. 順伝播型ネットワークにおける活性化関数「シグモイド関数」が深層学習であまり使われない理由は何ですか? 勾配消失問題を引き起こしやすいため 勾配爆発を引き起こすため 計算コストが高いため 非線形性が低いため None 2. 機械学習における「教師あり学習」とは何ですか? ラベル付きデータを使ってモデルを訓練する手法 ラベルなしデータを使ってモデルを訓練する手法 データを自動生成する手法 モデルを評価する手法 None 3. 「Transformer」がLSTMやGRUに比べて自然言語処理で優れている点として最も適切なものはどれですか? 時系列データの扱いが得意 計算コストが低い モデルの構造が単純である 並列計算が可能で、長いシーケンスも効率的に処理できる None 4. 機械学習モデルの評価において、テストデータを使う理由は何ですか? モデルの性能を過大評価するため モデルが未知のデータに対してどの程度適切に予測できるかを評価するため 訓練データの誤差を確認するため データを削減するため None 5. セマンティックセグメンテーションにおいて、バウンダリーピクセルの誤りを最小化するために効果的な手法はどれですか? データ拡張 スキップ接続 CRFによる後処理 ドロップアウト None 6. ある情報源が4つの異なる事象 {A, B, C, D} を等確率で生成する場合、この情報源のエントロピーはどれですか? 1ビット 2ビット 4ビット 8ビット None 7. 2つの独立した確率変数 X と Y の期待値 E(X) = 3, E(Y) = 5 のとき、X + Y の期待値はどれですか? 15 3 8 5 None 8. BERT(Bidirectional Encoder Representations from Transformers)の最大の特徴は何ですか? 単方向の文脈を捉える 画像認識に特化している 単語の出現頻度を考慮する 双方向の文脈を捉える None 9. ドロップアウト率が高すぎると、どのような影響がありますか? モデルが過学習しやすくなる ニューロンが過度に活性化する モデルが十分に学習できなくなる モデルの汎化性能が向上する None 10. 正則化が効果を発揮する場面はどれですか? データセットが大規模であり、過学習のリスクが低い場合 モデルが過小適合している場合 損失関数が適切に収束していない場合 訓練データが少なく、モデルが過学習する場合 None 11. 次のうち、畳み込みニューラルネットワーク(CNN)の学習において、画像の「正規化」の目的は何ですか? 画像の色調を揃える 画像の詳細を強調する 出力を拡大する 学習の安定化と勾配消失問題の軽減 None 12. a b c d None 13. 「バッチ正規化」の主な目的は何ですか? データのスケールを均一にすることで、学習を安定させる 重みの初期化を行うため データを無作為に抽出するため モデルの複雑さを増加させるため None 14. CNNにおける「ReLU関数」が学習効率を高める理由はどれですか? 出力をゼロに制限するため データを正規化するため 重みをゼロにするため 非線形性を導入し、勾配消失を防ぐため None 15. ドロップアウト(Dropout)の役割は何ですか? モデルの精度を向上させるためにニューロンを追加する モデルの重みをランダムに変更する ニューロンをランダムに無効化することで、過学習を防ぐ 重みを初期化する None 16. 物体検出タスクにおいて、精度と速度のバランスが取れているモデルとして知られているのはどれですか? ResNet Faster R-CNN VGG16 YOLO None 17. セマンティックセグメンテーションにおける「U-Net」の特徴は何ですか? 画像分類に特化したネットワーク ピクセルレベルのセグメンテーションを行うネットワーク 画像の解像度を下げるためのネットワーク 時系列データを扱うネットワーク None 18. カイ二乗分布はどのような場面で使用されますか? 分散の検定や独立性の検定に使用される 平均の差を検定するとき 相関係数を計算するとき 標本の大きさを決定するとき None 19. モデルの汎化性能を向上させるために、L1とL2のどちらの正則化を使用すべきか判断する際の主な基準は何ですか? 特徴量の数と重要度 モデルの計算コスト データセットのサイズ モデルのアーキテクチャの複雑さ None 20. 「Fine-Tuning(ファインチューニング)」の効果として最も適切なものはどれですか? モデル全体をゼロから再学習する 事前学習済みモデルを新しいタスクに適応させる 学習データを増加させる モデルのサイズを削減する None 21. セマンティックセグメンテーションにおける「ダウンサンプリング」とは何ですか? 画像の解像度を高めること 画像の次元を増加させること 画像をスケールアップすること 画像の特徴を圧縮し、情報を要約すること None 22. 符号化率 R = 5 kbps、通信路容量 C = 8 kbps のとき、この通信の信頼性はどうなりますか? 伝送誤りが発生する可能性が高い 伝送は誤りなく行われる可能性が高い 通信が遅くなる 通信が中断される None 23. CNNで「データ拡張(Data Augmentation)」を使用する目的は何ですか? データセットを増やし、モデルの汎化性能を向上させる モデルの計算速度を向上させる モデルの学習率を自動で調整するため ニューロンの数を増やすため None 24. CNNにおいて、学習中に重みを更新する手法として一般的に使用されるのはどれですか? 勾配降下法(Gradient Descent) k-meansクラスタリング 主成分分析(PCA) サポートベクターマシン(SVM) None 25. エントロピー符号化の目的は何ですか? データの信頼性を向上させること データの不確実性を増やすこと エントロピーに基づいて、情報量に応じた符号を割り当てることで、データの圧縮率を高めること データの雑音を増やすこと None 26. 情報理論において、雑音が多い通信路でエラーを減らすための典型的な方法はどれですか? 符号化の冗長性を減らす データを削除する 符号を短くする より多くの冗長性を追加する None 27. 順伝播型ネットワークにおけるドロップアウト率が高すぎる場合、どのような影響がありますか? モデルが過学習しやすくなる モデルの重みがゼロに収束する モデルの精度が向上する モデルの学習が困難になり、収束しない可能性がある None 28. 順伝播型ネットワーク(Feedforward Neural Network)で最も基本的な構造はどれですか? 入力層、隠れ層、出力層 入力層と出力層のみ 入力層と2つの出力層 隠れ層と出力層のみ None 29. 「LSTM(Long Short-Term Memory)」がRNNに比べて優れている点は何ですか? 計算速度が速い 単語の出現頻度を学習できる 長期的な依存関係をより効果的に学習できる テキストの分類を効率化する None 30. セマンティックセグメンテーションにおいて、評価指標として使用される「IoU(Intersection over Union)」とは何を表しますか? 予測された領域と正解領域の重なり具合を評価する指標 画像の解像度を表す指標 モデルの精度を評価する指標 計算コストを表す指標 None 31. L1正則化の効果で特に重要なものはどれですか? モデルの学習速度を向上させる 特徴量の選択を自動的に行う 重みをランダムに調整する 学習率を低下させる None 32. a b c d None 33. 次のうち、「BPE(Byte Pair Encoding)」が自然言語処理で使用される理由として正しいものはどれですか? テキストデータを圧縮するため 単語の出現頻度を学習するため テキストデータの前処理を自動化するため 未知の単語や希少な単語を処理するためのサブワード分割手法 None 34. 次のうち、教師なし学習の手法として最も適切なのはどれですか? ロジスティック回帰 サポートベクターマシン 線形回帰 K-平均法 None 35. 物体検出タスクにおける「NMS(Non-Maximum Suppression)」の目的は何ですか? 学習率を最適化する 画像の解像度を上げる 重複するバウンディングボックスを削除し、最も信頼度の高いボックスを選択する データのノイズを除去する None 36. ドロップアウト率を0.5に設定した場合、訓練時の挙動として正しいのはどれですか? 各訓練ステップで50%の重みがリセットされる ニューロンの出力が半減する 各訓練ステップでランダムに50%のニューロンが無効化される モデルの精度が常に向上する None 37. エントロピー H(X) の値が最大になるのはどのような場合ですか? 確率分布が偏っている場合 確率分布が 0 に近い場合 確率分布が均一な場合 確率分布が無限大の場合 None 38. 機械学習において、交差検証を行う主な理由は何ですか? 訓練データの誤差を最小化するため テストデータをより有効に使うため モデルの過学習を防ぐため モデルのハイパーパラメータを最適化するため None 39. CNNの「パディング」が重要な理由は何ですか? 畳み込み演算後の出力サイズを調整し、特徴の損失を防ぐため フィルタサイズを変更するため モデルの重みを自動更新するため データを無作為に削除するため None 40. 情報源符号化において、符号の平均長がエントロピーに等しいとき、どのような符号化が達成されていますか? 冗長な符号化 無駄のない最適な符号化 情報の損失を含む符号化 長すぎる符号化 None 41. 物体検出モデルのトレーニングにおいて、精度向上のために「ハードネガティブマイニング」が使用される理由は何ですか? モデルのパラメータ数を削減するため 学習データの一部を無視するため モデルが誤検出しやすい難しいネガティブ例を重点的に学習するため ネガティブ例を削除して学習を効率化するため None 42. a b c d None 43. 中心極限定理が示す内容として最も正しいのはどれですか? 標本のサイズを大きくすると、標本平均の分布が正規分布に近づく 標本のサイズを大きくすると、データはすべてゼロに収束する 標本の分散は無限に増大する 標本の標準偏差はすべて同じになる None 44. 正則化の導入により、どのようにしてモデルのバイアス-バリアンストレードオフが影響を受けますか? 正則化によりバイアスが減少し、バリアンスが増加する 正則化によりバイアスが増加し、バリアンスが減少する バイアスとバリアンスの両方が増加する バイアスとバリアンスの両方が減少する None 45. 順伝播型ネットワークで使用される活性化関数の役割は何ですか? 重みを更新するため 非線形性を導入し、モデルに複雑なパターンを学習させるため モデルの重みを初期化するため 入力データを正規化するため None 46. 正規分布 N(0, 1) の上で、z スコアが -1.96 から 1.96 の範囲に入る確率はおよそどれですか? 0.68 0.99 0.50 0.95 None 47. BERTを使用した質問応答タスクにおいて、モデルが行う最も基本的な処理は次のうちどれですか? 質問と回答の文脈を無視して直接予測する 回答文の出現頻度を基に最適な単語を選ぶ 質問と回答の文章をエンコードし、最適な回答位置を予測する 質問文を翻訳して回答する None 48. 順伝播型ニューラルネットワークで、ドロップアウト率を適切に設定する理由は何ですか? 過学習を防ぎつつ、モデルの精度を維持するため 勾配の爆発を防ぐため モデルの複雑さを減少させるため モデルの精度を向上させるため None 49. CNNにおける「パディング」の主な目的は何ですか? 入力画像のサイズを増加させる 畳み込み演算後の出力サイズを保持するために入力データの周りをゼロで埋める 出力層での正規化を行う ニューロンの活性化を抑える None 50. 次のうち、「Self-Attention Mechanism」が使用される目的として最も適切なものはどれですか? 文全体の文脈を考慮し、各単語間の依存関係を効率的に捉えるため 文章を効率的に要約するため 単語の出現頻度を学習するため テキストデータを前処理するため None 51. 最適化手法の1つである「モーメンタム法」の主な目的は何ですか? 勾配の振動を抑え、学習を加速するため モデルの複雑さを抑えるため 勾配爆発を防ぐため モデルの損失を増やすため None 52. 情報理論における「無記憶(メモリーレス)通信路」とは何ですか? 通信路が過去の入力に依存しない通信路 データが記録されない通信路 情報を保存しない通信路 通信中にデータが消失する通信路 None 53. L1正則化(ラッソ回帰)の特徴として正しいものはどれですか? モデルの重みがゼロになることがある 重みが減少するが、ゼロにはならない 勾配を一定に保つ モデルの精度を低下させる None 54. バッチ正規化とL2正則化を組み合わせる理由として最も適切なものはどれですか? モデルの出力を一定にするため モデルの複雑さを増加させるため 勾配爆発を防ぐため 過学習を抑えつつ、学習速度を向上させるため None 55. 機械学習において、L2正則化(リッジ回帰)が効果的な理由として最も適切なのはどれですか? モデルのパラメータをより複雑にするため モデルのパラメータに対するペナルティを課し、過学習を防ぐため データを正規化するため 学習速度を上げるため None 56. CNNのプーリング層で最大プーリング(Max Pooling)を使う利点は何ですか? 全ての入力データを平均化できる 最も重要な特徴を強調し、空間次元を縮小できる 訓練データの分散を均等にする モデルの精度を常に向上させる None 57. RMSPropの特徴は何ですか? 勾配の二乗平均を使用して学習率を調整する 一定の学習率で更新を行う モデルの重みをランダムに更新する 過去の重みを使用しない None 58. 情報量の単位として「ビット」が使われる理由は何ですか? 2つの可能な結果を区別するのに必要な情報量が1ビットだから 情報の量を測定するための物理的単位であるため 情報の伝送速度を示す指標であるため 情報源のエントロピーを表すため None 59. セマンティックセグメンテーションにおいて、「DeepLab」モデルの特徴は何ですか? 単純なCNNを使用している 空間的ピラミッドプーリング(SPP)を採用し、異なるスケールでの特徴抽出を行う 全結合層を多用する モデルの深さが浅い None 60. 符号化定理に基づき、帯域幅 B と通信路容量 C の関係に影響を与える要因は何ですか? 信号対雑音比 (SNR) データの種類 情報源のエントロピー 通信プロトコル None 61. SSD(Single Shot Multibox Detector)の主な利点は何ですか? RPNを使用しないことで、物体検出が高速である 精度が非常に高いが、速度は遅い バウンディングボックスの候補が少ないため、計算負荷が低い 一度に1つの物体しか検出できない None 62. CNNで使用される「バッチ正規化(Batch Normalization)」の主な効果は何ですか? データを無作為に抽出する 重みをゼロにリセットする ニューロンをランダムに無効化する 畳み込み層での出力を正規化し、学習を安定させる None 63. 順伝播型ネットワークでのバッチ正規化(Batch Normalization)の主な効果は何ですか? 訓練データの正規化を行い、データの分布を揃える 各層の出力を正規化し、学習の安定性を向上させる モデルの過学習を防ぐ モデルの重みをランダムに初期化する None 64. 「アダム(Adam)」最適化アルゴリズムにおけるバイアス補正の役割は何ですか? 勾配の過大評価を防ぐため モデルの重みを固定するため 損失関数を補正するため 勾配の初期段階での過小評価を防ぎ、より正確な更新を行うため None 65. 画像認識タスクで最も一般的に使用される損失関数はどれですか? 平均二乗誤差 クロスエントロピー誤差 ヒンジ損失 ハブ損失 None 66. 「Global Average Pooling」が用いられる目的は何ですか? 全結合層をなくし、モデルの過学習を防ぐ 入力データを正規化する モデルの計算コストを増やす 活性化関数を調整する None 67. 確率の定義において、サンプルスペース(標本空間)とは何ですか? 発生しうる全ての結果の集合 確率が0になる事象の集合 予想される結果の集合 可能な事象の一部を集めたもの None 68. CNNにおける「転移学習」の利点は何ですか? モデルの計算コストを削減できる 訓練済みモデルを利用することで、少ないデータでも高精度のモデルを得られる CNNのフィルタサイズを自動調整できる 重みの更新を省略できる None 69. セマンティックセグメンテーションの評価において、精度を高めるための一般的な前処理手法として適切なものはどれですか? データの正規化 モデルの再訓練 ピクセル値のランダムシフト デコーダーの再設計 None 70. 符号化における「冗長性」とは何を意味しますか? 情報を追加することでデータの信頼性を高めること 符号化したデータの長さを最小化すること 情報量が最小になるようにデータを圧縮すること 必要以上に多くのビットで符号化されている部分 None 71. 次のうち、セマンティックセグメンテーションで頻繁に使用される「Skip Connection」の役割として正しいものはどれですか? ネットワークの計算速度を向上させる エンコーダーからデコーダーに直接特徴を伝達し、詳細情報を補完する ピクセルごとの分類精度を下げる モデルのパラメータ数を減らす None 72. 次のうち、ResNetにおいて使用されていない要素はどれですか? 残差ブロック スキップ接続 ドロップアウト バッチ正規化 None 73. 「セマンティックセグメンテーション」とは何を指しますか? 画像内の個別の物体を検出する 画像の各ピクセルにラベルを割り当て、物体の領域を予測する 画像の解像度を上げる 画像のノイズを除去する None 74. アダム(Adam)最適化アルゴリズムで使用される「1次モーメント推定」と「2次モーメント推定」の役割は何ですか? 勾配の平均と分散を計算し、適応的な学習率を提供するため モデルの重みを初期化するため モデルの誤差を最小化するため ニューラルネットワークの層数を増やすため None 75. 順伝播型ネットワークの出力層でよく使用される活性化関数は次のうちどれですか? ReLU シグモイド関数 ソフトマックス関数 タンジェント関数 None 76. L2正則化とドロップアウトのどちらかを使用すべき場面として最も適切な状況はどれですか? データが非常に多く、過学習のリスクが低い場合 ニューラルネットワークの深さを増やしたい場合 モデルの訓練時間を短縮したい場合 データが少なく、過学習のリスクが高い場合 None 77. 順伝播型ネットワークにおいて、勾配降下法の「ミニバッチサイズ」を大きく設定した場合の利点はどれですか? モデルが過学習しやすくなる データの分散が大きくなる 勾配の更新が安定しやすくなり、収束速度が向上する可能性がある 訓練データがランダムに変更される None 78. 勾配降下法(Gradient Descent)における主な目的は何ですか? モデルの学習速度を上げる 損失関数の値を最小化するために重みを更新する モデルの複雑さを減らす データの分布を正規化する None 79. セマンティックセグメンテーションとは何ですか? 画像内の個々の物体を検出する 画像の各ピクセルにクラスラベルを割り当てる 画像を前処理する手法 画像の解像度を上げるための手法 None 80. 畳み込みニューラルネットワーク(CNN)で一般的に使用されるプーリング層の目的は何ですか? データの空間次元を削減し、モデルの計算量を抑えるため データの正規化を行うため 入力画像を拡大するため 重みを更新するため None 81. 「RNN(Recurrent Neural Network)」が自然言語処理においてよく使用される理由として正しいものはどれですか? 単語の順序を無視する 計算コストが非常に低い シーケンスデータを処理でき、過去の情報を保持できる 単語の関係性を学習できない None 82. L1正則化とL2正則化を組み合わせた「Elastic Net」が特に有効な場面はどれですか? モデルの学習速度を上げたい場合 特徴量が多く、スパースな解を得たい場合 重みがすべてゼロになる場合 勾配消失問題を完全に防ぎたい場合 None 83. 条件付き確率 P(A | B) の定義はどれですか? P(A) × P(B) P(A) / P(B) P(A ∩ B) / P(B) P(A) - P(B) None 84. セマンティックセグメンテーションモデルにおいて、Skip Connectionを導入することによる効果として正しいものはどれですか? モデルの計算負荷を増加させるが、精度は変わらない モデルの精度を向上させ、詳細な特徴を保持する モデルの学習速度が著しく低下する 全結合層を追加する必要がある None 85. a b c d None 86. a b c d None 87. 標準偏差が示す意味として最も適切なのはどれですか? データの平均からの偏差の最大値 データの最小値 データの平均からの値のばらつきの程度 データの最大値 None 88. ドロップアウトのドロップ率が低すぎると、モデルにどのような影響がありますか? 過学習のリスクが増える モデルが学習しなくなる 学習率が増加する モデルが複雑すぎて収束しなくなる None 89. a b c d None 90. ニューラルネットワークの学習において、バッチ正規化が勾配消失問題を軽減する理由は何ですか? 重みの初期化を改善するため 学習率を動的に調整するため 各層の出力を正規化し、勾配が適切に伝播するため 出力層の活性化関数を変更するため None 91. 物体検出において、マルチスケール特徴マップを利用するモデルの利点として正しいものはどれですか? 計算コストを削減できる データ拡張が不要になる モデルが深くなるため精度が低下する 小さな物体や大きな物体の両方を検出できる None 92. 次のうち、畳み込み層のフィルタ数を増やすと、どのような影響があるか? 計算コストが減少する モデルがより複雑になり、抽出される特徴の数が増える モデルが単純化され、汎化性能が向上する モデルのトレーニング時間が短縮される None 93. YOLOのような1ステージ物体検出アルゴリズムにおいて、バウンディングボックスの信頼度スコアが高いにもかかわらず誤検出が発生する原因として考えられる要素はどれですか? NMSの適用が不適切だった アンカーサイズが不適切だった 物体の位置が正確にラベル付けされていなかった フィルタサイズが小さすぎた None 94. セマンティックセグメンテーションにおいて、完全畳み込みネットワーク(Fully Convolutional Network, FCN)が導入された目的は何ですか? 画像の分類を行うため 画像のサイズを正規化するため ピクセル単位での予測を効率的に行うため 計算コストを削減するため None 95. ドロップアウト(Dropout)の主な役割は何ですか? 訓練中にニューロンをランダムに無効化することで、過学習を防ぐ 学習率を自動調整する 訓練データの一部を削除する モデルの精度を向上させるためにニューロンを追加する None 96. 物体検出における「IoU(Intersection over Union)」とは何を表しますか? 学習率の調整 予測バウンディングボックスと正解バウンディングボックスの重なり度合い 畳み込み層のフィルタ数 物体の大きさを正規化する指標 None 97. CNNにおいて「ReLU(Rectified Linear Unit)」が活性化関数として好まれる理由は何ですか? 出力が常に0になるため 勾配の爆発を防ぐため 計算が簡単で、勾配消失問題を軽減できるため データを正規化するため None 98. A、B という2つの事象が互いに独立であるとき、P(A) = 0.3, P(B) = 0.4 のとき、A か B の少なくとも1つが起こる確率はどれですか? 0.12 0.58 0.70 0.10 None 99. 自然言語処理において、次の中で「Seq2Seq」モデルにおける「Attention Mechanism」の導入効果として正しいものはどれですか? モデルの学習速度が速くなる 入力シーケンスの特定の部分に集中して処理することで、翻訳精度を向上させる モデルの出力層のパラメータ数が減少する 時系列データを処理するための新しい手法である None 100. 物体検出モデルにおいて「マルチスケール予測」とは何ですか? 物体を異なるスケールで検出する手法 物体を異なる解像度で分類する手法 学習データを複数のスケールで処理する手法 モデルを異なる学習率で訓練する手法 None Time's up