E資格~模擬試験①~ 2024年12月7日2024年12月7日 ailearn 1. CNNにおける「転移学習」の利点は何ですか? モデルの計算コストを削減できる 訓練済みモデルを利用することで、少ないデータでも高精度のモデルを得られる CNNのフィルタサイズを自動調整できる 重みの更新を省略できる None 2. 順伝播型ネットワークにおけるドロップアウト(Dropout)の役割は何ですか? ニューロンをランダムに無効化して過学習を防ぐ 学習率を調整する 訓練データの一部を削除する モデルの精度を向上させるためにニューロンを追加する None 3. a b c d None 4. L2正則化とドロップアウトのどちらかを使用すべき場面として最も適切な状況はどれですか? データが非常に多く、過学習のリスクが低い場合 ニューラルネットワークの深さを増やしたい場合 モデルの訓練時間を短縮したい場合 データが少なく、過学習のリスクが高い場合 None 5. セマンティックセグメンテーションにおいて、評価指標として使用される「IoU(Intersection over Union)」とは何を表しますか? 予測された領域と正解領域の重なり具合を評価する指標 画像の解像度を表す指標 モデルの精度を評価する指標 計算コストを表す指標 None 6. 順伝播型ネットワークにおいて、重みの初期化が不適切な場合、学習にどのような影響がありますか? 学習が全く行われない モデルの学習速度が極端に遅くなるか、適切に収束しない モデルがすべてのデータを無視する モデルの重みが自動で調整される None 7. CNNのプーリング層で最大プーリング(Max Pooling)を使う利点は何ですか? 全ての入力データを平均化できる 最も重要な特徴を強調し、空間次元を縮小できる 訓練データの分散を均等にする モデルの精度を常に向上させる None 8. 正則化の導入により、どのようにしてモデルのバイアス-バリアンストレードオフが影響を受けますか? 正則化によりバイアスが減少し、バリアンスが増加する 正則化によりバイアスが増加し、バリアンスが減少する バイアスとバリアンスの両方が増加する バイアスとバリアンスの両方が減少する None 9. 符号化における「冗長性」とは何を意味しますか? 情報を追加することでデータの信頼性を高めること 符号化したデータの長さを最小化すること 情報量が最小になるようにデータを圧縮すること 必要以上に多くのビットで符号化されている部分 None 10. 物体検出における「アンカー(Anchor)」の役割は何ですか? 画像を小さく分割する バウンディングボックスの初期候補を提供する 物体のサイズを正規化する 出力層の勾配を安定化させる None 11. A、B という2つの事象が互いに独立であるとき、P(A) = 0.3, P(B) = 0.4 のとき、A か B の少なくとも1つが起こる確率はどれですか? 0.12 0.58 0.70 0.10 None 12. 順伝播型ネットワーク(Feedforward Neural Network)で最も基本的な構造はどれですか? 入力層、隠れ層、出力層 入力層と出力層のみ 入力層と2つの出力層 隠れ層と出力層のみ None 13. L1正則化とL2正則化を組み合わせた「Elastic Net」が特に有効な場面はどれですか? モデルの学習速度を上げたい場合 特徴量が多く、スパースな解を得たい場合 重みがすべてゼロになる場合 勾配消失問題を完全に防ぎたい場合 None 14. 「畳み込みカーネル(フィルタ)」が複数の層で共有される場合の利点は何ですか? モデルのパラメータ数が減少し、効率が向上する モデルが過学習しやすくなる 畳み込み演算が高速化される モデルの複雑さが増す None 15. 次のうち、VGG16やResNetなどの深層CNNモデルで重要視されるテクニックはどれですか? 残差学習 学習率減衰 入力データの圧縮 ドロップアウト None 16. 次のうち、「Self-Attention Mechanism」が使用される目的として最も適切なものはどれですか? 文全体の文脈を考慮し、各単語間の依存関係を効率的に捉えるため 文章を効率的に要約するため 単語の出現頻度を学習するため テキストデータを前処理するため None 17. 順伝播型ネットワークにおける「エポック」とは何ですか? モデルの性能を評価するためのテストデータ 訓練データ全体を1度モデルに与えて学習するプロセス 重みを初期化するプロセス モデルのパラメータをチューニングするプロセス None 18. 最適化手法の1つである「モーメンタム法」の主な目的は何ですか? 勾配の振動を抑え、学習を加速するため モデルの複雑さを抑えるため 勾配爆発を防ぐため モデルの損失を増やすため None 19. 次のうち、U-Netの主な応用先として正しいものはどれですか? 画像の分類 画像の拡大縮小 画像のセグメンテーション 画像の変換 None 20. 情報量の単位として「ビット」が使われる理由は何ですか? 2つの可能な結果を区別するのに必要な情報量が1ビットだから 情報の量を測定するための物理的単位であるため 情報の伝送速度を示す指標であるため 情報源のエントロピーを表すため None 21. エントロピー H(X) の値が最大になるのはどのような場合ですか? 確率分布が偏っている場合 確率分布が 0 に近い場合 確率分布が均一な場合 確率分布が無限大の場合 None 22. 決定木モデルにおいて、エントロピーが最も低い分割の重要性は何ですか? データの分散を最大化するため 分割後の不確実性が最も低くなるため、より純粋なグループが得られる モデルの複雑さを減少させるため 決定木の深さを増やすため None 23. 独立な事象 A と B の同時発生確率は、次のうちどれですか? P(A) + P(B) P(A | B) × P(B) P(A) - P(B) P(A) × P(B) None 24. KNN(K-Nearest Neighbors)アルゴリズムにおいて、K の値を大きく設定すると何が起こりますか? モデルのバイアスが大きくなり、過剰に単純化される可能性がある モデルがより過学習しやすくなる モデルの複雑さが増し、学習速度が低下する モデルの精度が常に向上する None 25. 物体検出タスクにおける「NMS(Non-Maximum Suppression)」の目的は何ですか? 学習率を最適化する 画像の解像度を上げる 重複するバウンディングボックスを削除し、最も信頼度の高いボックスを選択する データのノイズを除去する None 26. 画像認識における「転移学習」の利点として正しいものはどれですか? 学習をゼロから行う モデルの構造を変更する 学習率を高める 少ないデータでも高い精度を実現できる None 27. セマンティックセグメンテーションにおいて、「DeepLab」モデルの特徴は何ですか? 単純なCNNを使用している 空間的ピラミッドプーリング(SPP)を採用し、異なるスケールでの特徴抽出を行う 全結合層を多用する モデルの深さが浅い None 28. 物体検出において「バックボーンネットワーク」の役割として正しいものはどれですか? 物体の分類を行う 画像から特徴を抽出する バウンディングボックスを生成する 出力層を設計する None 29. 「Global Average Pooling」が用いられる目的は何ですか? 全結合層をなくし、モデルの過学習を防ぐ 入力データを正規化する モデルの計算コストを増やす 活性化関数を調整する None 30. セマンティックセグメンテーションとは何ですか? 画像内の個々の物体を検出する 画像の各ピクセルにクラスラベルを割り当てる 画像を前処理する手法 画像の解像度を上げるための手法 None 31. 順伝播型ネットワークにおいて、ミニバッチのサイズが大きすぎると、学習にどのような影響がありますか? 学習が不安定になり、損失関数が振動する 勾配の更新が速くなり、過学習が発生しやすくなる 勾配の更新が遅くなり、学習が効率的に進まない モデルが過学習するリスクが低くなる None 32. CNNの「畳み込みフィルタの数」を増やすと、モデルにどのような影響がありますか? モデルの学習速度が大幅に低下する モデルが捉える特徴の種類が増加し、精度が向上する可能性がある モデルが過学習しやすくなる ニューロンが無効化される None 33. 情報理論における「相互情報量」とは何を意味しますか? 2つの変数がどれだけ同時に発生するかを示す 2つのデータセット間の距離 2つの確率変数間で共有される情報量 情報量を圧縮する際の削減率 None 34. 標準偏差が示す意味として最も適切なのはどれですか? データの平均からの偏差の最大値 データの最小値 データの平均からの値のばらつきの程度 データの最大値 None 35. 「アダム(Adam)」最適化アルゴリズムにおけるバイアス補正の役割は何ですか? 勾配の過大評価を防ぐため モデルの重みを固定するため 損失関数を補正するため 勾配の初期段階での過小評価を防ぎ、より正確な更新を行うため None 36. ある通信路で、信号対雑音比 (SNR) が 20dB、帯域幅が 2kHz であるとき、シャノンの通信路容量はおよそどれですか? 20 kbps 26.6 kbps 13.3 kbps 40 kbps None 37. セマンティックセグメンテーションモデルにおいて、Skip Connectionを導入することによる効果として正しいものはどれですか? モデルの計算負荷を増加させるが、精度は変わらない モデルの精度を向上させ、詳細な特徴を保持する モデルの学習速度が著しく低下する 全結合層を追加する必要がある None 38. 期待値とは何を意味しますか? 確率変数の可能な値の中で最も高い値 確率変数が取る可能性のある値の平均値 事象が発生する確率 確率変数が取る値の最小値 None 39. 「RNN(Recurrent Neural Network)」が自然言語処理においてよく使用される理由として正しいものはどれですか? 単語の順序を無視する 計算コストが非常に低い シーケンスデータを処理でき、過去の情報を保持できる 単語の関係性を学習できない None 40. YOLOのような1ステージ物体検出アルゴリズムにおいて、バウンディングボックスの信頼度スコアが高いにもかかわらず誤検出が発生する原因として考えられる要素はどれですか? NMSの適用が不適切だった アンカーサイズが不適切だった 物体の位置が正確にラベル付けされていなかった フィルタサイズが小さすぎた None 41. CNNにおける「ReLU関数」が学習効率を高める理由はどれですか? 出力をゼロに制限するため データを正規化するため 重みをゼロにするため 非線形性を導入し、勾配消失を防ぐため None 42. 画像認識タスクで最も一般的に使用される損失関数はどれですか? 平均二乗誤差 クロスエントロピー誤差 ヒンジ損失 ハブ損失 None 43. セマンティックセグメンテーションにおける「U-Net」の特徴は何ですか? 画像分類に特化したネットワーク ピクセルレベルのセグメンテーションを行うネットワーク 画像の解像度を下げるためのネットワーク 時系列データを扱うネットワーク None 44. バッチ正規化(Batch Normalization)が勾配消失問題に対して効果的な理由は何ですか? ニューロンの出力を無効化するため モデルの重みをゼロにするため 各層の出力を正規化することで、勾配が消失しにくくなるため 学習率を動的に調整するため None 45. CNNの「パディング」が重要な理由は何ですか? 畳み込み演算後の出力サイズを調整し、特徴の損失を防ぐため フィルタサイズを変更するため モデルの重みを自動更新するため データを無作為に削除するため None 46. a b c d None 47. 物体検出タスクにおいて、精度と速度のバランスが取れているモデルとして知られているのはどれですか? ResNet Faster R-CNN VGG16 YOLO None 48. ニューラルネットワークの訓練において、「重みの初期化」が重要な理由は何ですか? 適切な初期化を行わないと、勾配消失問題や勾配爆発が発生しやすくなるため 重みがランダムでないとモデルが過学習するため 重みの初期化が適切でないと、学習率が収束しないため 重みを初期化しないと、モデルの計算ができないため None 49. 順伝播型ネットワークにおいて、出力層で使用されるソフトマックス関数が持つ主な利点は何ですか? 2つのクラスのみを処理できる 出力を確率として解釈できるため、多クラス分類に適している 勾配爆発を防ぐ 重みの更新速度を遅くする None 50. L2正則化を導入した場合、モデルの重みに対してどのような効果がありますか? 重みがすべてゼロになる 大きな重みが抑制され、モデルがより滑らかになる 学習速度が向上する モデルの出力が倍増する None 51. 順伝播型ネットワークにおいて、バイアスユニットの役割は何ですか? 入力データのスケールを調整する モデルの複雑さを減らす 関数のオフセットを調整し、モデルがより多様な入力に対応できるようにする モデルの学習速度を向上させる None 52. 順伝播型ネットワークの出力層でよく使用される活性化関数は次のうちどれですか? ReLU シグモイド関数 ソフトマックス関数 タンジェント関数 None 53. CNNにおいて、畳み込み層とプーリング層の組み合わせはどのような効果をもたらしますか? データの次元を削減し、重要な特徴を抽出する モデルの精度を低下させる モデルの計算速度を遅くする モデルの重みを無作為に変更する None 54. ドロップアウト(Dropout)の役割は何ですか? モデルの精度を向上させるためにニューロンを追加する モデルの重みをランダムに変更する ニューロンをランダムに無効化することで、過学習を防ぐ 重みを初期化する None 55. CNNにおける「転置畳み込み層(Transposed Convolutional Layer)」の目的は何ですか? データの次元を削減する ニューロンを無効化する 出力層での活性化をゼロにする 入力データを拡大し、元の空間解像度を再構成する None 56. セマンティックセグメンテーションにおいて、完全畳み込みネットワーク(Fully Convolutional Network, FCN)が導入された目的は何ですか? 画像の分類を行うため 画像のサイズを正規化するため ピクセル単位での予測を効率的に行うため 計算コストを削減するため None 57. 勾配降下法において、学習率が大きすぎると何が起こりますか? モデルが過学習する 勾配が無限大になる 損失関数の最小値に収束せず、振動してしまう 訓練データが不足する None 58. 畳み込み層(Convolutional Layer)の主な役割は何ですか? データの次元を削減する 入力画像から特徴を抽出する データを正規化する 全てのニューロンをランダムに無効化する None 59. 順伝播型ネットワークにおけるドロップアウト率が高すぎる場合、どのような影響がありますか? モデルが過学習しやすくなる モデルの重みがゼロに収束する モデルの精度が向上する モデルの学習が困難になり、収束しない可能性がある None 60. 勾配降下法において、学習率の役割は何ですか? 重みの初期値を設定するため モデルの複雑さを調整するため データのサイズを調整するため 重みの更新量を決定するため None 61. CNNで使用される「バッチ正規化(Batch Normalization)」の主な効果は何ですか? データを無作為に抽出する 重みをゼロにリセットする ニューロンをランダムに無効化する 畳み込み層での出力を正規化し、学習を安定させる None 62. 機械学習における「教師あり学習」とは何ですか? ラベル付きデータを使ってモデルを訓練する手法 ラベルなしデータを使ってモデルを訓練する手法 データを自動生成する手法 モデルを評価する手法 None 63. 機械学習モデルの評価において、テストデータを使う理由は何ですか? モデルの性能を過大評価するため モデルが未知のデータに対してどの程度適切に予測できるかを評価するため 訓練データの誤差を確認するため データを削減するため None 64. 次のうち、畳み込みニューラルネットワーク(CNN)の学習において、画像の「正規化」の目的は何ですか? 画像の色調を揃える 画像の詳細を強調する 出力を拡大する 学習の安定化と勾配消失問題の軽減 None 65. 畳み込みニューラルネットワークにおける「フィルタ(カーネル)」のサイズが大きくなると、何が起こりますか? モデルが捉える特徴がより大きな範囲に渡る モデルが過学習しやすくなる モデルの計算量が減少する ニューロンの数が増加する None 66. 順伝播型ニューラルネットワークで、ドロップアウト率を適切に設定する理由は何ですか? 過学習を防ぎつつ、モデルの精度を維持するため 勾配の爆発を防ぐため モデルの複雑さを減少させるため モデルの精度を向上させるため None 67. 自然言語処理において「ELMo(Embeddings from Language Models)」の最大の特徴は何ですか? 単方向の文脈を考慮する 双方向の文脈を考慮し、動的な単語埋め込みを生成する 単語の出現頻度に基づいてベクトルを生成する 計算コストが非常に低い None 68. 勾配降下法(Gradient Descent)における主な目的は何ですか? モデルの学習速度を上げる 損失関数の値を最小化するために重みを更新する モデルの複雑さを減らす データの分布を正規化する None 69. アダム(Adam)の利点として正しいものはどれですか? すべての学習問題で最高のパフォーマンスを発揮する 学習率を手動で調整する必要がない 勾配の過去の値に基づいて学習率を自動調整し、効率的に学習する どのような損失関数にも適用できる None 70. ドロップアウトがリカレントニューラルネットワーク(RNN)に対して効果的な理由は何ですか? 過学習を防ぎ、ネットワークが長期間の依存関係を捉えるのを助ける 重みの初期化を行うため 訓練データのサイズを増加させるため 勾配消失を完全に防ぐため None 71. エントロピー H(X) = 2.5 のとき、この情報源の平均情報量はどれですか? 2.5ビット 5ビット 10ビット 1.25ビット None 72. 物体検出において、1枚の画像に複数の物体を検出する手法として、最もよく使われる手法はどれですか? YOLO CNN LSTM RNN None 73. L2正則化(リッジ回帰)の主な目的は何ですか? モデルの重みを増加させる モデルの重みを抑え、過学習を防ぐ 勾配を大きくする モデルの複雑さを減らすため None 74. バギング(Bagging)を用いることで得られる主なメリットは何ですか? モデルのバイアスを減らす モデルの過学習を促進する モデルの学習速度を遅くする モデルのバリアンスを減らし、安定性を向上させる None 75. a b c d None 76. 物体検出において、マルチスケール特徴マップを利用するモデルの利点として正しいものはどれですか? 計算コストを削減できる データ拡張が不要になる モデルが深くなるため精度が低下する 小さな物体や大きな物体の両方を検出できる None 77. a b c d None 78. プーリング層の主な役割は何ですか? パラメータの数を増やす 画像の解像度を高める 特徴マップの次元を縮小し、計算量を削減する 画像の色調を調整する None 79. 情報圧縮におけるハフマン符号の役割は何ですか? データのエントロピーを減らす データを効率的に符号化するために最適な可変長符号を生成する データを復元する データをランダムに並べ替える None 80. 次のうち、画像認識モデルでよく使われる「データ拡張」の技術に含まれないものはどれですか? 画像の回転 画像の平滑化 画像の拡大縮小 画像の反転 None 81. CNNモデルにおいて、過学習を防ぐために広く用いられるテクニックはどれですか? ドロップアウト バッチ正規化 プーリング 活性化関数の変更 None 82. CNNにおいて、学習中に重みを更新する手法として一般的に使用されるのはどれですか? 勾配降下法(Gradient Descent) k-meansクラスタリング 主成分分析(PCA) サポートベクターマシン(SVM) None 83. セマンティックセグメンテーションの評価において、精度を高めるための一般的な前処理手法として適切なものはどれですか? データの正規化 モデルの再訓練 ピクセル値のランダムシフト デコーダーの再設計 None 84. 自然言語処理において「Attention Mechanism」の役割は何ですか? 単語の重要度を測定し、重要な単語に焦点を当てる 単語の出現頻度を学習する 文全体の長さを調整する 文章の要約を行う None 85. サポートベクターマシン(SVM)はどのような問題に使用されますか? 主に回帰問題 主にクラスタリング問題 主に分類問題 主に次元削減問題 None 86. セマンティックセグメンテーションにおいて、「ピクセルワイズソフトマックス(Pixel-wise Softmax)」が必要とされる理由は何ですか? 画像全体に同一のラベルを割り当てるため モデルの出力を正規化するため デコーダー部分での計算コストを削減するため 各ピクセルごとにクラス確率を計算し、最も高いクラスを予測するため None 87. ドロップアウト率を0.5に設定した場合、訓練時の挙動として正しいのはどれですか? 各訓練ステップで50%の重みがリセットされる ニューロンの出力が半減する 各訓練ステップでランダムに50%のニューロンが無効化される モデルの精度が常に向上する None 88. アダム(Adam)最適化アルゴリズムで使用される「1次モーメント推定」と「2次モーメント推定」の役割は何ですか? 勾配の平均と分散を計算し、適応的な学習率を提供するため モデルの重みを初期化するため モデルの誤差を最小化するため ニューラルネットワークの層数を増やすため None 89. モデルの汎化性能を向上させるために、L2正則化とドロップアウトを組み合わせる理由は何ですか? モデルの複雑さを抑え、過学習を防ぐため モデルの学習速度を上げるため 重みを無作為に更新するため モデルの出力を正規化するため None 90. 情報理論における「無記憶(メモリーレス)通信路」とは何ですか? 通信路が過去の入力に依存しない通信路 データが記録されない通信路 情報を保存しない通信路 通信中にデータが消失する通信路 None 91. カイ二乗分布はどのような場面で使用されますか? 分散の検定や独立性の検定に使用される 平均の差を検定するとき 相関係数を計算するとき 標本の大きさを決定するとき None 92. CNNにおいて「ReLU(Rectified Linear Unit)」が活性化関数として好まれる理由は何ですか? 出力が常に0になるため 勾配の爆発を防ぐため 計算が簡単で、勾配消失問題を軽減できるため データを正規化するため None 93. 畳み込みニューラルネットワーク(CNN)において、畳み込み層の役割は何ですか? 入力データの次元を削減する 入力画像の特徴を抽出する ノイズを除去する 出力を正規化する None 94. 自然言語処理において「シーケンス・トゥ・シーケンス(Seq2Seq)」モデルがよく使用されるタスクはどれですか? 画像認識 音声認識 自動翻訳 データ前処理 None 95. 順伝播型ネットワークにおいて、勾配降下法の「ミニバッチサイズ」を大きく設定した場合の利点はどれですか? モデルが過学習しやすくなる データの分散が大きくなる 勾配の更新が安定しやすくなり、収束速度が向上する可能性がある 訓練データがランダムに変更される None 96. モデルにおいて、L2正則化を導入することでどのような効果が得られますか? モデルの複雑さを増やし、データに適合させる 重みがすべてゼロになる モデルの複雑さを抑え、過学習を防ぐ ニューロンの数を増加させる None 97. ニューラルネットワークの最適化で、重みの初期化方法として「He初期化」が特に有効な理由は何ですか? ReLUなどの非線形活性化関数を使用する場合、勾配消失問題を防ぐため 学習率を調整しやすくするため バッチサイズを減少させるため 出力層の精度を向上させるため None 98. セマンティックセグメンテーションで、アトリウムネットワーク(Atrous Convolution)が使用される理由として最も適切なものはどれですか? 高解像度の特徴を維持しながら、広い受容野を確保するため 計算コストを削減するため 全結合層を減らすため モデルのサイズを縮小するため None 99. CNNで「データ拡張(Data Augmentation)」を使用する目的は何ですか? データセットを増やし、モデルの汎化性能を向上させる モデルの計算速度を向上させる モデルの学習率を自動で調整するため ニューロンの数を増やすため None 100. ニューラルネットワークの学習において、「重みの初期化」が適切でないと、どのような現象が発生する可能性が最も高いですか? 学習速度が非常に速くなる 勾配消失や勾配爆発が発生し、モデルの学習が進まなくなる モデルが常に最適解に収束する 学習が停止してしまう None Time's up