E資格~模擬試験①~ 2024年12月7日2024年12月7日 ailearn 1. 独立な事象 A と B の同時発生確率は、次のうちどれですか? P(A) + P(B) P(A | B) × P(B) P(A) - P(B) P(A) × P(B) None 2. a b c d None 3. 標準偏差が示す意味として最も適切なのはどれですか? データの平均からの偏差の最大値 データの最小値 データの平均からの値のばらつきの程度 データの最大値 None 4. 「ImageNet」の役割として正しいものはどれですか? 画像の生成 画像のノイズ除去 画像の圧縮 大規模な画像認識データセットと、事前学習済みモデルの基盤を提供する None 5. カイ二乗分布はどのような場面で使用されますか? 分散の検定や独立性の検定に使用される 平均の差を検定するとき 相関係数を計算するとき 標本の大きさを決定するとき None 6. L1正則化の効果で特に重要なものはどれですか? モデルの学習速度を向上させる 特徴量の選択を自動的に行う 重みをランダムに調整する 学習率を低下させる None 7. ミニバッチ勾配降下法(Mini-batch Gradient Descent)はどのような手法ですか? 訓練データ全体を使用して一度に学習する手法 データセット全体を小さなバッチに分割し、それぞれで勾配を計算して学習する手法 データを1つずつ順番に使って学習する手法 勾配を無視して重みを更新する手法 None 8. CNNにおける活性化関数として最もよく使用されるものはどれですか? ReLU関数 シグモイド関数 ソフトマックス関数 タンジェントハイパボリック関数 None 9. ある情報源が4つの異なる事象 {A, B, C, D} を等確率で生成する場合、この情報源のエントロピーはどれですか? 1ビット 2ビット 4ビット 8ビット None 10. ドロップアウト(Dropout)の主な役割は何ですか? 訓練中にニューロンをランダムに無効化することで、過学習を防ぐ 学習率を自動調整する 訓練データの一部を削除する モデルの精度を向上させるためにニューロンを追加する None 11. 次のうち、「BPE(Byte Pair Encoding)」が自然言語処理で使用される理由として正しいものはどれですか? テキストデータを圧縮するため 単語の出現頻度を学習するため テキストデータの前処理を自動化するため 未知の単語や希少な単語を処理するためのサブワード分割手法 None 12. 「バッチ正規化」の主な目的は何ですか? データのスケールを均一にすることで、学習を安定させる 重みの初期化を行うため データを無作為に抽出するため モデルの複雑さを増加させるため None 13. CNNにおいて「ReLU(Rectified Linear Unit)」が活性化関数として好まれる理由は何ですか? 出力が常に0になるため 勾配の爆発を防ぐため 計算が簡単で、勾配消失問題を軽減できるため データを正規化するため None 14. ニューラルネットワークにおける「勾配消失問題」とは何ですか? 訓練データが不足する現象 勾配が増大しすぎる現象 勾配が極端に小さくなり、重みが更新されなくなる現象 訓練データに対する誤差が無限大になる現象 None 15. 自然言語処理において「Attention Mechanism」の役割は何ですか? 単語の重要度を測定し、重要な単語に焦点を当てる 単語の出現頻度を学習する 文全体の長さを調整する 文章の要約を行う None 16. セマンティックセグメンテーションにおいて、Encoder-Decoderアーキテクチャの利点として正しいものはどれですか? 学習データを減らすことができる 予測速度を上げることができる 複雑なオブジェクトのセグメンテーションに有効である モデルの精度を犠牲にする None 17. CNNにおける「転移学習」の利点は何ですか? モデルの計算コストを削減できる 訓練済みモデルを利用することで、少ないデータでも高精度のモデルを得られる CNNのフィルタサイズを自動調整できる 重みの更新を省略できる None 18. 自然言語処理において「Bag of Words(BoW)」モデルの特徴として正しいものはどれですか? 単語の順序を考慮する 単語の頻度だけを考慮し、順序を無視する 文全体の意味を考慮する テキストを分割する None 19. CNNで「フィルタ数」を増加させることによる主な影響は何ですか? モデルの計算量が減少する 過学習のリスクが減る モデルがより多様な特徴を捉えられるようになる モデルが重みを自動調整できるようになる None 20. セマンティックセグメンテーションの評価において、精度を高めるための一般的な前処理手法として適切なものはどれですか? データの正規化 モデルの再訓練 ピクセル値のランダムシフト デコーダーの再設計 None 21. 順伝播型ネットワークにおいて、勾配降下法の「ミニバッチサイズ」を大きく設定した場合の利点はどれですか? モデルが過学習しやすくなる データの分散が大きくなる 勾配の更新が安定しやすくなり、収束速度が向上する可能性がある 訓練データがランダムに変更される None 22. L1正則化とL2正則化を組み合わせた「Elastic Net」が特に有効な場面はどれですか? モデルの学習速度を上げたい場合 特徴量が多く、スパースな解を得たい場合 重みがすべてゼロになる場合 勾配消失問題を完全に防ぎたい場合 None 23. L2正則化(リッジ回帰)の主な目的は何ですか? モデルの重みを増加させる モデルの重みを抑え、過学習を防ぐ 勾配を大きくする モデルの複雑さを減らすため None 24. 次のうち、VGG16やResNetなどの深層CNNモデルで重要視されるテクニックはどれですか? 残差学習 学習率減衰 入力データの圧縮 ドロップアウト None 25. セマンティックセグメンテーションで、アトリウムネットワーク(Atrous Convolution)が使用される理由として最も適切なものはどれですか? 高解像度の特徴を維持しながら、広い受容野を確保するため 計算コストを削減するため 全結合層を減らすため モデルのサイズを縮小するため None 26. 情報理論における「相互情報量」とは何を意味しますか? 2つの変数がどれだけ同時に発生するかを示す 2つのデータセット間の距離 2つの確率変数間で共有される情報量 情報量を圧縮する際の削減率 None 27. 勾配降下法において、学習率の役割は何ですか? 重みの初期値を設定するため モデルの複雑さを調整するため データのサイズを調整するため 重みの更新量を決定するため None 28. a b c d None 29. 畳み込みニューラルネットワーク(CNN)において、畳み込み層の役割は何ですか? 入力データの次元を削減する 入力画像の特徴を抽出する ノイズを除去する 出力を正規化する None 30. 次のうち、BERTやGPTなどの事前学習済みモデルを特定のタスクに適応させるための技術はどれですか? ドメイン適応 ファインチューニング クロスバリデーション データ拡張 None 31. ドロップアウト(Dropout)の役割は何ですか? ニューロンをランダムに無効化し、過学習を防ぐ モデルの学習率を調整する 勾配の更新を加速する データの正規化を行う None 32. 物体検出タスクで使用される「RPN(Region Proposal Network)」の目的は何ですか? 画像から物体領域の候補を抽出する 画像のノイズを除去する 物体のラベルを分類する 画像のサイズを調整する None 33. ドロップアウトのドロップ率が低すぎると、モデルにどのような影響がありますか? 過学習のリスクが増える モデルが学習しなくなる 学習率が増加する モデルが複雑すぎて収束しなくなる None 34. 「畳み込みカーネル(フィルタ)」が複数の層で共有される場合の利点は何ですか? モデルのパラメータ数が減少し、効率が向上する モデルが過学習しやすくなる 畳み込み演算が高速化される モデルの複雑さが増す None 35. CNNの「畳み込みフィルタの数」を増やすと、モデルにどのような影響がありますか? モデルの学習速度が大幅に低下する モデルが捉える特徴の種類が増加し、精度が向上する可能性がある モデルが過学習しやすくなる ニューロンが無効化される None 36. 条件付き確率 P(A | B) の定義はどれですか? P(A) × P(B) P(A) / P(B) P(A ∩ B) / P(B) P(A) - P(B) None 37. モデルの汎化性能を向上させるために、L2正則化とドロップアウトを組み合わせる理由は何ですか? モデルの複雑さを抑え、過学習を防ぐため モデルの学習速度を上げるため 重みを無作為に更新するため モデルの出力を正規化するため None 38. 確率の定義において、サンプルスペース(標本空間)とは何ですか? 発生しうる全ての結果の集合 確率が0になる事象の集合 予想される結果の集合 可能な事象の一部を集めたもの None 39. 最適化手法の1つである「モーメンタム法」の主な目的は何ですか? 勾配の振動を抑え、学習を加速するため モデルの複雑さを抑えるため 勾配爆発を防ぐため モデルの損失を増やすため None 40. 強化学習における「Q学習」の目的は何ですか? データのラベルを予測すること 次元削減を行うこと モデルのバイアスを減らすこと すべての状態と行動の組み合わせに対して最適な価値を学習すること None 41. 順伝播型ネットワークでのバッチ正規化(Batch Normalization)の主な効果は何ですか? 訓練データの正規化を行い、データの分布を揃える 各層の出力を正規化し、学習の安定性を向上させる モデルの過学習を防ぐ モデルの重みをランダムに初期化する None 42. 順伝播型ネットワークにおいて、出力層にシグモイド関数を使用する場合、どのような状況が適していますか? 回帰問題 2クラス分類問題 多クラス分類問題 次元削減問題 None 43. BERTを使用した質問応答タスクにおいて、モデルが行う最も基本的な処理は次のうちどれですか? 質問と回答の文脈を無視して直接予測する 回答文の出現頻度を基に最適な単語を選ぶ 質問と回答の文章をエンコードし、最適な回答位置を予測する 質問文を翻訳して回答する None 44. 物体検出において、マルチスケール特徴マップを利用するモデルの利点として正しいものはどれですか? 計算コストを削減できる データ拡張が不要になる モデルが深くなるため精度が低下する 小さな物体や大きな物体の両方を検出できる None 45. 情報理論における「エントロピー」の定義は何ですか? システムの乱雑さや不確実性を測る尺度 データを圧縮するアルゴリズム 情報の内容量 伝送速度を表す指標 None 46. 物体検出アルゴリズムにおいて、画像の解像度が非常に高い場合に注意すべき点はどれですか? 計算コストの増加と、細かい物体の誤検出 物体が見つからない モデルのパラメータ数が減少する 検出結果が一貫しなくなる None 47. 順伝播型ネットワークで使用される活性化関数の役割は何ですか? 重みを更新するため 非線形性を導入し、モデルに複雑なパターンを学習させるため モデルの重みを初期化するため 入力データを正規化するため None 48. 畳み込みニューラルネットワークにおける「フィルタ(カーネル)」のサイズが大きくなると、何が起こりますか? モデルが捉える特徴がより大きな範囲に渡る モデルが過学習しやすくなる モデルの計算量が減少する ニューロンの数が増加する None 49. CNNにおいて、フィルタ(カーネル)の役割は何ですか? 特徴マップの次元を減らす 入力画像から特徴を抽出する モデルの精度を低下させる データのノイズを増やす None 50. L2正則化(リッジ回帰)の目的は何ですか? モデルのパラメータを増やすため モデルの複雑さを抑え、過学習を防ぐため 勾配の振動を抑えるため 学習速度を上げるため None 51. 機械学習モデルの評価指標である「精度(accuracy)」は何を意味しますか? モデルが正しく分類したデータの割合 モデルの複雑さ モデルが学習したデータの量 モデルの訓練速度 None 52. モデルの汎化性能を向上させるために、L1とL2のどちらの正則化を使用すべきか判断する際の主な基準は何ですか? 特徴量の数と重要度 モデルの計算コスト データセットのサイズ モデルのアーキテクチャの複雑さ None 53. 順伝播型ネットワークにおける「勾配クリッピング」の主な目的は何ですか? 勾配消失を防ぐため モデルの重みを初期化するため 勾配爆発を防ぎ、学習を安定させるため 学習率を自動調整するため None 54. 「セマンティックセグメンテーション」とは何を指しますか? 画像内の個別の物体を検出する 画像の各ピクセルにラベルを割り当て、物体の領域を予測する 画像の解像度を上げる 画像のノイズを除去する None 55. 次のうち、セマンティックセグメンテーションにおいて「パッチベースのアプローチ」が適しているシナリオはどれですか? リアルタイム予測が必要な場合 単純なオブジェクト分類 高解像度の大規模画像のセグメンテーション 計算リソースが限られている場合 None 56. YOLOのような1ステージ物体検出アルゴリズムにおいて、バウンディングボックスの信頼度スコアが高いにもかかわらず誤検出が発生する原因として考えられる要素はどれですか? NMSの適用が不適切だった アンカーサイズが不適切だった 物体の位置が正確にラベル付けされていなかった フィルタサイズが小さすぎた None 57. 「LSTM(Long Short-Term Memory)」がRNNに比べて優れている点は何ですか? 計算速度が速い 単語の出現頻度を学習できる 長期的な依存関係をより効果的に学習できる テキストの分類を効率化する None 58. セマンティックセグメンテーションモデルにおいて、Skip Connectionを導入することによる効果として正しいものはどれですか? モデルの計算負荷を増加させるが、精度は変わらない モデルの精度を向上させ、詳細な特徴を保持する モデルの学習速度が著しく低下する 全結合層を追加する必要がある None 59. 勾配降下法において、学習率が大きすぎると何が起こりますか? モデルが過学習する 勾配が無限大になる 損失関数の最小値に収束せず、振動してしまう 訓練データが不足する None 60. 「Mask R-CNN」の主な用途として正しいものはどれですか? 物体検出とセグメンテーションの両方を同時に行う 物体検出のみを行う 画像分類を行う 時系列データの解析を行う None 61. a b c d None 62. L1正則化(ラッソ回帰)の特徴として正しいものはどれですか? モデルの重みがゼロになることがある 重みが減少するが、ゼロにはならない 勾配を一定に保つ モデルの精度を低下させる None 63. バッチ正規化とL2正則化を組み合わせる理由として最も適切なものはどれですか? モデルの出力を一定にするため モデルの複雑さを増加させるため 勾配爆発を防ぐため 過学習を抑えつつ、学習速度を向上させるため None 64. 正則化が効果を発揮する場面はどれですか? データセットが大規模であり、過学習のリスクが低い場合 モデルが過小適合している場合 損失関数が適切に収束していない場合 訓練データが少なく、モデルが過学習する場合 None 65. ドロップアウト率が高すぎると、どのような影響がありますか? モデルが過学習しやすくなる ニューロンが過度に活性化する モデルが十分に学習できなくなる モデルの汎化性能が向上する None 66. CNNの「パディング」が重要な理由は何ですか? 畳み込み演算後の出力サイズを調整し、特徴の損失を防ぐため フィルタサイズを変更するため モデルの重みを自動更新するため データを無作為に削除するため None 67. ドロップアウトとL2正則化の主な違いは何ですか? ドロップアウトはランダムにニューロンを無効化し、L2正則化は重みにペナルティを課す ドロップアウトは重みにペナルティを課し、L2正則化はニューロンを無効化する 両方ともモデルの複雑さを増加させる 両方とも重みをゼロにする None 68. 順伝播型ネットワークにおける「エポック」とは何ですか? モデルの性能を評価するためのテストデータ 訓練データ全体を1度モデルに与えて学習するプロセス 重みを初期化するプロセス モデルのパラメータをチューニングするプロセス None 69. 順伝播型ネットワークにおいて、出力層で使用されるソフトマックス関数が持つ主な利点は何ですか? 2つのクラスのみを処理できる 出力を確率として解釈できるため、多クラス分類に適している 勾配爆発を防ぐ 重みの更新速度を遅くする None 70. モデルにおいて、L2正則化を導入することでどのような効果が得られますか? モデルの複雑さを増やし、データに適合させる 重みがすべてゼロになる モデルの複雑さを抑え、過学習を防ぐ ニューロンの数を増加させる None 71. CNNで「データ拡張(Data Augmentation)」を使用する目的は何ですか? データセットを増やし、モデルの汎化性能を向上させる モデルの計算速度を向上させる モデルの学習率を自動で調整するため ニューロンの数を増やすため None 72. セマンティックセグメンテーションにおける「U-Net」の特徴は何ですか? 画像分類に特化したネットワーク ピクセルレベルのセグメンテーションを行うネットワーク 画像の解像度を下げるためのネットワーク 時系列データを扱うネットワーク None 73. 順伝播型ニューラルネットワークで、ドロップアウト率を適切に設定する理由は何ですか? 過学習を防ぎつつ、モデルの精度を維持するため 勾配の爆発を防ぐため モデルの複雑さを減少させるため モデルの精度を向上させるため None 74. YOLOv3では、どのようにして異なるサイズの物体を検出していますか? アンカーのサイズを増やす RPNを使用して異なるスケールを提案する 全ての物体を同じスケールで検出する 異なる解像度の3つのスケールで予測を行う None 75. L2正則化とドロップアウトのどちらかを使用すべき場面として最も適切な状況はどれですか? データが非常に多く、過学習のリスクが低い場合 ニューラルネットワークの深さを増やしたい場合 モデルの訓練時間を短縮したい場合 データが少なく、過学習のリスクが高い場合 None 76. 機械学習において、交差検証を行う主な理由は何ですか? 訓練データの誤差を最小化するため テストデータをより有効に使うため モデルの過学習を防ぐため モデルのハイパーパラメータを最適化するため None 77. 情報源符号化において、符号の平均長がエントロピーに等しいとき、どのような符号化が達成されていますか? 冗長な符号化 無駄のない最適な符号化 情報の損失を含む符号化 長すぎる符号化 None 78. 回帰分析において、目的変数が連続値である場合、適切な手法は次のどれですか? ロジスティック回帰 線形回帰 サポートベクターマシン K-最近傍法 None 79. 物体検出における「IoU(Intersection over Union)」とは何を表しますか? 学習率の調整 予測バウンディングボックスと正解バウンディングボックスの重なり度合い 畳み込み層のフィルタ数 物体の大きさを正規化する指標 None 80. 物体検出アルゴリズムであるYOLOのバージョン3(YOLOv3)の主な改良点として正しいものはどれですか? 1つの解像度でのみ予測を行う 異なるスケールで予測を行い、より小さな物体も検出できる 物体の位置情報のみを予測する RPNを使用して速度を改善した None 81. a b c d None 82. 次のうち、U-Netの主な応用先として正しいものはどれですか? 画像の分類 画像の拡大縮小 画像のセグメンテーション 画像の変換 None 83. セマンティックセグメンテーションにおいて、評価指標として使用される「IoU(Intersection over Union)」とは何を表しますか? 予測された領域と正解領域の重なり具合を評価する指標 画像の解像度を表す指標 モデルの精度を評価する指標 計算コストを表す指標 None 84. Faster R-CNNの特徴として正しいものはどれですか? 1ステージの物体検出アルゴリズムである YOLOよりも高速だが、精度は低い RPNを用いて物体の候補領域を生成する 物体の数に応じてニューラルネットワークを動的に構築する None 85. 符号化における「冗長性」とは何を意味しますか? 情報を追加することでデータの信頼性を高めること 符号化したデータの長さを最小化すること 情報量が最小になるようにデータを圧縮すること 必要以上に多くのビットで符号化されている部分 None 86. 決定木モデルにおいて、エントロピーが最も低い分割の重要性は何ですか? データの分散を最大化するため 分割後の不確実性が最も低くなるため、より純粋なグループが得られる モデルの複雑さを減少させるため 決定木の深さを増やすため None 87. a b c d None 88. CNNにおける「ソフトマックス関数」の役割は何ですか? ニューラルネットワークの全てのニューロンを活性化する データを正規化する データの次元を削減する 出力層において、複数クラスの分類を確率として出力する None 89. 自然言語処理において、次の中で「Seq2Seq」モデルにおける「Attention Mechanism」の導入効果として正しいものはどれですか? モデルの学習速度が速くなる 入力シーケンスの特定の部分に集中して処理することで、翻訳精度を向上させる モデルの出力層のパラメータ数が減少する 時系列データを処理するための新しい手法である None 90. セマンティックセグメンテーションにおける「クラス不均衡」を解決するために使用される手法はどれですか? 学習率の増加 データ拡張 クラス重み付け クロスバリデーション None 91. CNNにおける「フィルタサイズ」と「ストライド」の関係について正しい説明はどれですか? ストライドが大きくなると出力サイズが大きくなる ストライドが大きくなると出力サイズが小さくなる フィルタサイズが小さいと出力サイズが増える フィルタサイズが大きいとストライドが小さくなる None 92. 次のうち、自然言語処理において「Word2Vec」で学習されるものは何ですか? 単語のベクトル表現 文全体の意味 単語の出現頻度 単語の順序 None 93. サポートベクターマシン(SVM)はどのような問題に使用されますか? 主に回帰問題 主にクラスタリング問題 主に分類問題 主に次元削減問題 None 94. 順伝播型ネットワークにおける「ミニバッチ学習」とは何ですか? 全ての訓練データを一度にモデルに入力する手法 訓練データを少数のサブセットに分け、それぞれで学習を行う手法 訓練データをランダムに並べ替える手法 訓練データを正規化する手法 None 95. 物体検出において、1枚の画像に複数の物体を検出する手法として、最もよく使われる手法はどれですか? YOLO CNN LSTM RNN None 96. 次のうち、畳み込み層のフィルタ数を増やすと、どのような影響があるか? 計算コストが減少する モデルがより複雑になり、抽出される特徴の数が増える モデルが単純化され、汎化性能が向上する モデルのトレーニング時間が短縮される None 97. 次のうち、教師なし学習の手法として最も適切なのはどれですか? ロジスティック回帰 サポートベクターマシン 線形回帰 K-平均法 None 98. 物体検出における「アンカー(Anchor)」の役割は何ですか? 画像を小さく分割する バウンディングボックスの初期候補を提供する 物体のサイズを正規化する 出力層の勾配を安定化させる None 99. 次のうち、ResNetにおいて使用されていない要素はどれですか? 残差ブロック スキップ接続 ドロップアウト バッチ正規化 None 100. ドロップアウトを使用する主な理由はどれですか? 学習速度を上げるため モデルのパラメータ数を増やすため モデルの汎化性能を向上させるため モデルの誤差を最小化するため None Time's up