E資格~模擬試験①~ 2024年12月7日2024年12月7日 ailearn 1. CNNにおいて、フィルタ(カーネル)の役割は何ですか? 特徴マップの次元を減らす 入力画像から特徴を抽出する モデルの精度を低下させる データのノイズを増やす None 2. 物体検出において「バックボーンネットワーク」の役割として正しいものはどれですか? 物体の分類を行う 画像から特徴を抽出する バウンディングボックスを生成する 出力層を設計する None 3. 勾配降下法において、学習率の役割は何ですか? 重みの初期値を設定するため モデルの複雑さを調整するため データのサイズを調整するため 重みの更新量を決定するため None 4. 「バッチ正規化」の主な目的は何ですか? データのスケールを均一にすることで、学習を安定させる 重みの初期化を行うため データを無作為に抽出するため モデルの複雑さを増加させるため None 5. 「誤り訂正符号」とは何ですか? 情報を圧縮するための符号 通信速度を向上させるための符号 データに冗長性を追加し、誤りを検出し修正できる符号 データの圧縮率を向上させる符号 None 6. セマンティックセグメンテーションにおける「Dilated Convolution(膨張畳み込み)」の主な目的は何ですか? 解像度を下げずに受容野を広げる ピクセルのスパース性を高める モデルの計算負荷を減らす モデルのパラメータ数を削減する None 7. 自然言語処理において「TF-IDF」の目的は何ですか? 単語の出現頻度を基に重要な単語を見つける 単語の順序を無視する 単語間の関係を学習する 単語の意味を変換する None 8. 順伝播型ネットワークにおいて、ミニバッチのサイズが大きすぎると、学習にどのような影響がありますか? 学習が不安定になり、損失関数が振動する 勾配の更新が速くなり、過学習が発生しやすくなる 勾配の更新が遅くなり、学習が効率的に進まない モデルが過学習するリスクが低くなる None 9. 情報理論における「無記憶(メモリーレス)通信路」とは何ですか? 通信路が過去の入力に依存しない通信路 データが記録されない通信路 情報を保存しない通信路 通信中にデータが消失する通信路 None 10. 勾配降下法における「学習率」が大きすぎると何が起こりますか? モデルが過学習する 損失関数が最適な値に急速に収束する 損失関数が最適な値に収束せず、振動する 勾配が爆発し、学習が停止する None 11. PCA(主成分分析)の主な目的は何ですか? データの分類精度を高めること 高次元データを低次元に変換し、データの重要な情報を保持しつつ次元削減を行うこと データのクラスラベルを予測すること データのクラスタを見つけること None 12. 勾配降下法の「アダグラード(Adagrad)」アルゴリズムが効果的な場合はどれですか? データのクラス数が非常に多い場合 モデルが深層ニューラルネットワークの場合 クラスごとのデータが均一である場合 特徴量ごとのスケールが大きく異なる場合 None 13. 順伝播型ネットワークにおいて、ReLU関数が活性化関数として好まれる理由は次のうちどれですか? 負の値に対しても出力があるため すべての出力が1になるため モデルの重みを正規化するため 勾配消失問題を軽減できるため None 14. 次のうち、セマンティックセグメンテーションにおいて「パッチベースのアプローチ」が適しているシナリオはどれですか? リアルタイム予測が必要な場合 単純なオブジェクト分類 高解像度の大規模画像のセグメンテーション 計算リソースが限られている場合 None 15. 次のうち、BERTやGPTなどの事前学習済みモデルを特定のタスクに適応させるための技術はどれですか? ドメイン適応 ファインチューニング クロスバリデーション データ拡張 None 16. 自然言語処理において、テキストデータの前処理として一般的に行われる「トークン化」とは何を指しますか? テキストをエンコードする テキストを単語や文に分割する テキストを辞書に変換する テキストを圧縮する None 17. 畳み込みニューラルネットワークにおける「フィルタ(カーネル)」のサイズが大きくなると、何が起こりますか? モデルが捉える特徴がより大きな範囲に渡る モデルが過学習しやすくなる モデルの計算量が減少する ニューロンの数が増加する None 18. 情報理論における「相互情報量」とは何を意味しますか? 2つの変数がどれだけ同時に発生するかを示す 2つのデータセット間の距離 2つの確率変数間で共有される情報量 情報量を圧縮する際の削減率 None 19. 「Fine-Tuning(ファインチューニング)」の効果として最も適切なものはどれですか? モデル全体をゼロから再学習する 事前学習済みモデルを新しいタスクに適応させる 学習データを増加させる モデルのサイズを削減する None 20. a b c d None 21. ニューラルネットワークの最適化で、重みの初期化方法として「He初期化」が特に有効な理由は何ですか? ReLUなどの非線形活性化関数を使用する場合、勾配消失問題を防ぐため 学習率を調整しやすくするため バッチサイズを減少させるため 出力層の精度を向上させるため None 22. バッチ正規化とL2正則化を組み合わせる理由として最も適切なものはどれですか? モデルの出力を一定にするため モデルの複雑さを増加させるため 勾配爆発を防ぐため 過学習を抑えつつ、学習速度を向上させるため None 23. 「Transformer」がLSTMやGRUに比べて自然言語処理で優れている点として最も適切なものはどれですか? 時系列データの扱いが得意 計算コストが低い モデルの構造が単純である 並列計算が可能で、長いシーケンスも効率的に処理できる None 24. バギング(Bagging)を用いることで得られる主なメリットは何ですか? モデルのバイアスを減らす モデルの過学習を促進する モデルの学習速度を遅くする モデルのバリアンスを減らし、安定性を向上させる None 25. L2正則化(リッジ回帰)の主な目的は何ですか? モデルの重みを増加させる モデルの重みを抑え、過学習を防ぐ 勾配を大きくする モデルの複雑さを減らすため None 26. セマンティックセグメンテーションにおいてよく使用される損失関数はどれですか? 平均二乗誤差 クロスエントロピー損失 ヒンジ損失 ハブ損失 None 27. a b c d None 28. 物体検出において、「多段階検出モデル」とは何を指しますか? 画像を複数の段階で処理し、各段階で異なる特徴を学習するモデル モデルの層を追加し、複数の物体を検出するモデル データセットを分割して学習するモデル 異なる解像度の画像を同時に学習するモデル None 29. a b c d None 30. 条件付き確率 P(A | B) の定義はどれですか? P(A) × P(B) P(A) / P(B) P(A ∩ B) / P(B) P(A) - P(B) None 31. a b c d None 32. 自然言語処理において、次の中で「Seq2Seq」モデルにおける「Attention Mechanism」の導入効果として正しいものはどれですか? モデルの学習速度が速くなる 入力シーケンスの特定の部分に集中して処理することで、翻訳精度を向上させる モデルの出力層のパラメータ数が減少する 時系列データを処理するための新しい手法である None 33. 機械学習における「過学習」とは何ですか? 訓練データに対してモデルが過剰に適合し、新しいデータに対しては性能が低下する現象 モデルが十分に訓練されていない現象 データが不足している状態 訓練データとテストデータが同じ場合にのみ発生する現象 None 34. CNNのプーリング層で最大プーリング(Max Pooling)を使う利点は何ですか? 全ての入力データを平均化できる 最も重要な特徴を強調し、空間次元を縮小できる 訓練データの分散を均等にする モデルの精度を常に向上させる None 35. 中心極限定理が示す内容として最も正しいのはどれですか? 標本のサイズを大きくすると、標本平均の分布が正規分布に近づく 標本のサイズを大きくすると、データはすべてゼロに収束する 標本の分散は無限に増大する 標本の標準偏差はすべて同じになる None 36. CNNにおいて、畳み込み層とプーリング層の組み合わせはどのような効果をもたらしますか? データの次元を削減し、重要な特徴を抽出する モデルの精度を低下させる モデルの計算速度を遅くする モデルの重みを無作為に変更する None 37. 順伝播型ネットワークにおける「勾配クリッピング」の主な目的は何ですか? 勾配消失を防ぐため モデルの重みを初期化するため 勾配爆発を防ぎ、学習を安定させるため 学習率を自動調整するため None 38. 最適化手法の1つである「モーメンタム法」の主な目的は何ですか? 勾配の振動を抑え、学習を加速するため モデルの複雑さを抑えるため 勾配爆発を防ぐため モデルの損失を増やすため None 39. セマンティックセグメンテーションで、アトリウムネットワーク(Atrous Convolution)が使用される理由として最も適切なものはどれですか? 高解像度の特徴を維持しながら、広い受容野を確保するため 計算コストを削減するため 全結合層を減らすため モデルのサイズを縮小するため None 40. 畳み込み層(Convolutional Layer)の主な役割は何ですか? データの次元を削減する 入力画像から特徴を抽出する データを正規化する 全てのニューロンをランダムに無効化する None 41. 正則化が効果を発揮する場面はどれですか? データセットが大規模であり、過学習のリスクが低い場合 モデルが過小適合している場合 損失関数が適切に収束していない場合 訓練データが少なく、モデルが過学習する場合 None 42. 機械学習における「バイアス-バリアンストレードオフ」とは何ですか? モデルの複雑さとデータの量に関するトレードオフ 訓練データとテストデータのサイズのバランス モデルの誤差のうち、バイアスとバリアンスをバランスさせる必要がある現象 モデルのパラメータと予測性能のバランス None 43. 自然言語処理における「ネガティブサンプリング」の目的として正しいものはどれですか? モデルの計算速度を高速化するため 低頻度単語の重みを減少させるため 単語の埋め込みを計算する際、全単語を考慮せずに一部の単語だけを使用することで効率化するため ノイズの多いデータを除外するため None 44. a b c d None 45. 符号化率 R = 5 kbps、通信路容量 C = 8 kbps のとき、この通信の信頼性はどうなりますか? 伝送誤りが発生する可能性が高い 伝送は誤りなく行われる可能性が高い 通信が遅くなる 通信が中断される None 46. 自然言語処理において「Attention Mechanism」の役割は何ですか? 単語の重要度を測定し、重要な単語に焦点を当てる 単語の出現頻度を学習する 文全体の長さを調整する 文章の要約を行う None 47. カイ二乗分布はどのような場面で使用されますか? 分散の検定や独立性の検定に使用される 平均の差を検定するとき 相関係数を計算するとき 標本の大きさを決定するとき None 48. a b c d None 49. 順伝播型ネットワークにおいて、バイアスユニットの役割は何ですか? 入力データのスケールを調整する モデルの複雑さを減らす 関数のオフセットを調整し、モデルがより多様な入力に対応できるようにする モデルの学習速度を向上させる None 50. アダム(Adam)の利点として正しいものはどれですか? すべての学習問題で最高のパフォーマンスを発揮する 学習率を手動で調整する必要がない 勾配の過去の値に基づいて学習率を自動調整し、効率的に学習する どのような損失関数にも適用できる None 51. 「ImageNet」の役割として正しいものはどれですか? 画像の生成 画像のノイズ除去 画像の圧縮 大規模な画像認識データセットと、事前学習済みモデルの基盤を提供する None 52. ある通信路で、信号対雑音比 (SNR) が 20dB、帯域幅が 2kHz であるとき、シャノンの通信路容量はおよそどれですか? 20 kbps 26.6 kbps 13.3 kbps 40 kbps None 53. 物体検出における「平均適合率(mAP: mean Average Precision)」とは何を指しますか? モデルの学習速度を測定する指標 モデルの誤差を評価する指標 モデルの検出速度を評価する指標 モデルが異なるクラスの物体を検出する際の精度を平均した指標 None 54. 独立な事象 A と B の同時発生確率は、次のうちどれですか? P(A) + P(B) P(A | B) × P(B) P(A) - P(B) P(A) × P(B) None 55. 勾配降下法(Gradient Descent)における主な目的は何ですか? モデルの学習速度を上げる 損失関数の値を最小化するために重みを更新する モデルの複雑さを減らす データの分布を正規化する None 56. モデルの汎化性能を向上させるために、L1とL2のどちらの正則化を使用すべきか判断する際の主な基準は何ですか? 特徴量の数と重要度 モデルの計算コスト データセットのサイズ モデルのアーキテクチャの複雑さ None 57. 「LSTM(Long Short-Term Memory)」がRNNに比べて優れている点は何ですか? 計算速度が速い 単語の出現頻度を学習できる 長期的な依存関係をより効果的に学習できる テキストの分類を効率化する None 58. ドロップアウトとL2正則化の主な違いは何ですか? ドロップアウトはランダムにニューロンを無効化し、L2正則化は重みにペナルティを課す ドロップアウトは重みにペナルティを課し、L2正則化はニューロンを無効化する 両方ともモデルの複雑さを増加させる 両方とも重みをゼロにする None 59. RMSPropの特徴は何ですか? 勾配の二乗平均を使用して学習率を調整する 一定の学習率で更新を行う モデルの重みをランダムに更新する 過去の重みを使用しない None 60. 物体検出において、マルチスケール特徴マップを利用するモデルの利点として正しいものはどれですか? 計算コストを削減できる データ拡張が不要になる モデルが深くなるため精度が低下する 小さな物体や大きな物体の両方を検出できる None 61. CNNにおいて「ReLU(Rectified Linear Unit)」が活性化関数として好まれる理由は何ですか? 出力が常に0になるため 勾配の爆発を防ぐため 計算が簡単で、勾配消失問題を軽減できるため データを正規化するため None 62. A、B という2つの事象が互いに独立であるとき、P(A) = 0.3, P(B) = 0.4 のとき、A か B の少なくとも1つが起こる確率はどれですか? 0.12 0.58 0.70 0.10 None 63. 順伝播型ネットワークにおけるドロップアウト(Dropout)の役割は何ですか? ニューロンをランダムに無効化して過学習を防ぐ 学習率を調整する 訓練データの一部を削除する モデルの精度を向上させるためにニューロンを追加する None 64. 標準偏差が示す意味として最も適切なのはどれですか? データの平均からの偏差の最大値 データの最小値 データの平均からの値のばらつきの程度 データの最大値 None 65. SSD(Single Shot Multibox Detector)の主な利点は何ですか? RPNを使用しないことで、物体検出が高速である 精度が非常に高いが、速度は遅い バウンディングボックスの候補が少ないため、計算負荷が低い 一度に1つの物体しか検出できない None 66. 次のうち、GPT(Generative Pretrained Transformer)が持つ最大の特徴はどれですか? 双方向の文脈を捉える 一方向(左から右)のみで文脈を捉え、文章生成に特化している 画像処理に特化している 単語の出現頻度を基に文を生成する None 67. RMSProp最適化アルゴリズムがアダグラードの改良版とされる理由は何ですか? 累積された勾配が過度に蓄積されるのを防ぐため モデルの精度を常に向上させるため 学習率を一定に保つため 損失関数の形状に依存しないため None 68. 次のうち、「BPE(Byte Pair Encoding)」が自然言語処理で使用される理由として正しいものはどれですか? テキストデータを圧縮するため 単語の出現頻度を学習するため テキストデータの前処理を自動化するため 未知の単語や希少な単語を処理するためのサブワード分割手法 None 69. 順伝播型ネットワークにおいて、出力層で使用されるソフトマックス関数が持つ主な利点は何ですか? 2つのクラスのみを処理できる 出力を確率として解釈できるため、多クラス分類に適している 勾配爆発を防ぐ 重みの更新速度を遅くする None 70. 順伝播型ネットワークにおいて、出力層にシグモイド関数を使用する場合、どのような状況が適していますか? 回帰問題 2クラス分類問題 多クラス分類問題 次元削減問題 None 71. 符号化における「冗長性」とは何を意味しますか? 情報を追加することでデータの信頼性を高めること 符号化したデータの長さを最小化すること 情報量が最小になるようにデータを圧縮すること 必要以上に多くのビットで符号化されている部分 None 72. ドロップアウトを使用する主な理由はどれですか? 学習速度を上げるため モデルのパラメータ数を増やすため モデルの汎化性能を向上させるため モデルの誤差を最小化するため None 73. 平均 μ=0、標準偏差 σ=1 の標準正規分布の範囲 [-2, 2] に含まれる確率は約何%ですか? 68% 95% 99.7% 50% None 74. CNNにおける「転移学習」の利点は何ですか? モデルの計算コストを削減できる 訓練済みモデルを利用することで、少ないデータでも高精度のモデルを得られる CNNのフィルタサイズを自動調整できる 重みの更新を省略できる None 75. セマンティックセグメンテーションの評価において、精度を高めるための一般的な前処理手法として適切なものはどれですか? データの正規化 モデルの再訓練 ピクセル値のランダムシフト デコーダーの再設計 None 76. サポートベクターマシン(SVM)はどのような問題に使用されますか? 主に回帰問題 主にクラスタリング問題 主に分類問題 主に次元削減問題 None 77. 畳み込みニューラルネットワーク(CNN)において、畳み込み層の役割は何ですか? 入力データの次元を削減する 入力画像の特徴を抽出する ノイズを除去する 出力を正規化する None 78. 自然言語処理において「シーケンス・トゥ・シーケンス(Seq2Seq)」モデルがよく使用されるタスクはどれですか? 画像認識 音声認識 自動翻訳 データ前処理 None 79. CNNモデルにおいて、過学習を防ぐために広く用いられるテクニックはどれですか? ドロップアウト バッチ正規化 プーリング 活性化関数の変更 None 80. CNNで「フィルタ数」を増加させることによる主な影響は何ですか? モデルの計算量が減少する 過学習のリスクが減る モデルがより多様な特徴を捉えられるようになる モデルが重みを自動調整できるようになる None 81. ドロップアウト率を0.5に設定した場合、訓練時の挙動として正しいのはどれですか? 各訓練ステップで50%の重みがリセットされる ニューロンの出力が半減する 各訓練ステップでランダムに50%のニューロンが無効化される モデルの精度が常に向上する None 82. モデルの汎化性能を向上させるために、L2正則化とドロップアウトを組み合わせる理由は何ですか? モデルの複雑さを抑え、過学習を防ぐため モデルの学習速度を上げるため 重みを無作為に更新するため モデルの出力を正規化するため None 83. 2つの独立した確率変数 X と Y の期待値 E(X) = 3, E(Y) = 5 のとき、X + Y の期待値はどれですか? 15 3 8 5 None 84. BERTを使用した質問応答タスクにおいて、モデルが行う最も基本的な処理は次のうちどれですか? 質問と回答の文脈を無視して直接予測する 回答文の出現頻度を基に最適な単語を選ぶ 質問と回答の文章をエンコードし、最適な回答位置を予測する 質問文を翻訳して回答する None 85. セマンティックセグメンテーションモデルにおいて、Skip Connectionを導入することによる効果として正しいものはどれですか? モデルの計算負荷を増加させるが、精度は変わらない モデルの精度を向上させ、詳細な特徴を保持する モデルの学習速度が著しく低下する 全結合層を追加する必要がある None 86. 物体検出タスクで使用される「RPN(Region Proposal Network)」の目的は何ですか? 画像から物体領域の候補を抽出する 画像のノイズを除去する 物体のラベルを分類する 画像のサイズを調整する None 87. YOLOv3では、どのようにして異なるサイズの物体を検出していますか? アンカーのサイズを増やす RPNを使用して異なるスケールを提案する 全ての物体を同じスケールで検出する 異なる解像度の3つのスケールで予測を行う None 88. 物体検出モデルのトレーニングにおいて、精度向上のために「ハードネガティブマイニング」が使用される理由は何ですか? モデルのパラメータ数を削減するため 学習データの一部を無視するため モデルが誤検出しやすい難しいネガティブ例を重点的に学習するため ネガティブ例を削除して学習を効率化するため None 89. L2正則化(リッジ回帰)の目的は何ですか? モデルのパラメータを増やすため モデルの複雑さを抑え、過学習を防ぐため 勾配の振動を抑えるため 学習速度を上げるため None 90. 次のうち、画像認識モデルでよく使われる「データ拡張」の技術に含まれないものはどれですか? 画像の回転 画像の平滑化 画像の拡大縮小 画像の反転 None 91. 正規分布 N(0, 1) の上で、z スコアが -1.96 から 1.96 の範囲に入る確率はおよそどれですか? 0.68 0.99 0.50 0.95 None 92. Faster R-CNNの特徴として正しいものはどれですか? 1ステージの物体検出アルゴリズムである YOLOよりも高速だが、精度は低い RPNを用いて物体の候補領域を生成する 物体の数に応じてニューラルネットワークを動的に構築する None 93. 「Mask R-CNN」の主な用途として正しいものはどれですか? 物体検出とセグメンテーションの両方を同時に行う 物体検出のみを行う 画像分類を行う 時系列データの解析を行う None 94. 順伝播型ネットワークにおけるドロップアウト率が高すぎる場合、どのような影響がありますか? モデルが過学習しやすくなる モデルの重みがゼロに収束する モデルの精度が向上する モデルの学習が困難になり、収束しない可能性がある None 95. 順伝播型ネットワークでの重み更新のための典型的な手法は次のうちどれですか? 勾配降下法 k-means法 主成分分析 ブートストラップ法 None 96. セマンティックセグメンテーションにおける「U-Net」の特徴は何ですか? 画像分類に特化したネットワーク ピクセルレベルのセグメンテーションを行うネットワーク 画像の解像度を下げるためのネットワーク 時系列データを扱うネットワーク None 97. 順伝播型ネットワークで使用される活性化関数の役割は何ですか? 重みを更新するため 非線形性を導入し、モデルに複雑なパターンを学習させるため モデルの重みを初期化するため 入力データを正規化するため None 98. CNNの「パディング」が重要な理由は何ですか? 畳み込み演算後の出力サイズを調整し、特徴の損失を防ぐため フィルタサイズを変更するため モデルの重みを自動更新するため データを無作為に削除するため None 99. セマンティックセグメンテーションにおいて、「DeepLab」モデルの特徴は何ですか? 単純なCNNを使用している 空間的ピラミッドプーリング(SPP)を採用し、異なるスケールでの特徴抽出を行う 全結合層を多用する モデルの深さが浅い None 100. L1正則化とL2正則化を組み合わせた「Elastic Net」が特に有効な場面はどれですか? モデルの学習速度を上げたい場合 特徴量が多く、スパースな解を得たい場合 重みがすべてゼロになる場合 勾配消失問題を完全に防ぎたい場合 None Time's up