E資格~模擬試験①~ 2024年12月7日2024年12月7日 ailearn 1. セマンティックセグメンテーションとは何ですか? 画像内の個々の物体を検出する 画像の各ピクセルにクラスラベルを割り当てる 画像を前処理する手法 画像の解像度を上げるための手法 None 2. 順伝播型ネットワークにおける「勾配クリッピング」の主な目的は何ですか? 勾配消失を防ぐため モデルの重みを初期化するため 勾配爆発を防ぎ、学習を安定させるため 学習率を自動調整するため None 3. ドロップアウトのドロップ率が低すぎると、モデルにどのような影響がありますか? 過学習のリスクが増える モデルが学習しなくなる 学習率が増加する モデルが複雑すぎて収束しなくなる None 4. 順伝播型ネットワークにおいて、ReLU関数が活性化関数として好まれる理由は次のうちどれですか? 負の値に対しても出力があるため すべての出力が1になるため モデルの重みを正規化するため 勾配消失問題を軽減できるため None 5. 次のうち、教師なし学習の手法として最も適切なのはどれですか? ロジスティック回帰 サポートベクターマシン 線形回帰 K-平均法 None 6. 「Global Average Pooling」が用いられる目的は何ですか? 全結合層をなくし、モデルの過学習を防ぐ 入力データを正規化する モデルの計算コストを増やす 活性化関数を調整する None 7. 次の中で、BERTとGPTの主な違いとして正しいものはどれですか? BERTは双方向、GPTは一方向の文脈を学習する BERTは文章生成に特化しており、GPTは文章理解に特化している BERTは主に画像認識で使用され、GPTは音声認識で使用される BERTは小規模データで学習され、GPTは大規模データで学習される None 8. YOLOv3では、どのようにして異なるサイズの物体を検出していますか? アンカーのサイズを増やす RPNを使用して異なるスケールを提案する 全ての物体を同じスケールで検出する 異なる解像度の3つのスケールで予測を行う None 9. a b c d None 10. CNNで「フィルタ数」を増加させることによる主な影響は何ですか? モデルの計算量が減少する 過学習のリスクが減る モデルがより多様な特徴を捉えられるようになる モデルが重みを自動調整できるようになる None 11. モデルにおいて、L2正則化を導入することでどのような効果が得られますか? モデルの複雑さを増やし、データに適合させる 重みがすべてゼロになる モデルの複雑さを抑え、過学習を防ぐ ニューロンの数を増加させる None 12. 物体検出タスクにおける「NMS(Non-Maximum Suppression)」の目的は何ですか? 学習率を最適化する 画像の解像度を上げる 重複するバウンディングボックスを削除し、最も信頼度の高いボックスを選択する データのノイズを除去する None 13. 順伝播型ニューラルネットワークで、ドロップアウト率を適切に設定する理由は何ですか? 過学習を防ぎつつ、モデルの精度を維持するため 勾配の爆発を防ぐため モデルの複雑さを減少させるため モデルの精度を向上させるため None 14. 物体検出において、マルチスケール特徴マップを利用するモデルの利点として正しいものはどれですか? 計算コストを削減できる データ拡張が不要になる モデルが深くなるため精度が低下する 小さな物体や大きな物体の両方を検出できる None 15. 物体検出における「IoU(Intersection over Union)」とは何を表しますか? 学習率の調整 予測バウンディングボックスと正解バウンディングボックスの重なり度合い 畳み込み層のフィルタ数 物体の大きさを正規化する指標 None 16. エントロピー符号化の目的は何ですか? データの信頼性を向上させること データの不確実性を増やすこと エントロピーに基づいて、情報量に応じた符号を割り当てることで、データの圧縮率を高めること データの雑音を増やすこと None 17. 順伝播型ネットワークにおける活性化関数「シグモイド関数」が深層学習であまり使われない理由は何ですか? 勾配消失問題を引き起こしやすいため 勾配爆発を引き起こすため 計算コストが高いため 非線形性が低いため None 18. 順伝播型ネットワークにおいて、出力層で使用されるソフトマックス関数が持つ主な利点は何ですか? 2つのクラスのみを処理できる 出力を確率として解釈できるため、多クラス分類に適している 勾配爆発を防ぐ 重みの更新速度を遅くする None 19. 「LSTM(Long Short-Term Memory)」がRNNに比べて優れている点は何ですか? 計算速度が速い 単語の出現頻度を学習できる 長期的な依存関係をより効果的に学習できる テキストの分類を効率化する None 20. 次のうち、自然言語処理において「Word2Vec」で学習されるものは何ですか? 単語のベクトル表現 文全体の意味 単語の出現頻度 単語の順序 None 21. 畳み込みニューラルネットワーク(CNN)で一般的に使用されるプーリング層の目的は何ですか? データの空間次元を削減し、モデルの計算量を抑えるため データの正規化を行うため 入力画像を拡大するため 重みを更新するため None 22. モデルの汎化性能を向上させるために、L2正則化とドロップアウトを組み合わせる理由は何ですか? モデルの複雑さを抑え、過学習を防ぐため モデルの学習速度を上げるため 重みを無作為に更新するため モデルの出力を正規化するため None 23. CNNにおいて「ReLU(Rectified Linear Unit)」が活性化関数として好まれる理由は何ですか? 出力が常に0になるため 勾配の爆発を防ぐため 計算が簡単で、勾配消失問題を軽減できるため データを正規化するため None 24. アダム(Adam)最適化アルゴリズムで使用される「1次モーメント推定」と「2次モーメント推定」の役割は何ですか? 勾配の平均と分散を計算し、適応的な学習率を提供するため モデルの重みを初期化するため モデルの誤差を最小化するため ニューラルネットワークの層数を増やすため None 25. a b c d None 26. CNNにおける「転置畳み込み層(Transposed Convolutional Layer)」の目的は何ですか? データの次元を削減する ニューロンを無効化する 出力層での活性化をゼロにする 入力データを拡大し、元の空間解像度を再構成する None 27. 物体検出タスクにおいて、精度と速度のバランスが取れているモデルとして知られているのはどれですか? ResNet Faster R-CNN VGG16 YOLO None 28. 符号化率 R = 5 kbps、通信路容量 C = 8 kbps のとき、この通信の信頼性はどうなりますか? 伝送誤りが発生する可能性が高い 伝送は誤りなく行われる可能性が高い 通信が遅くなる 通信が中断される None 29. プーリング層の主な役割は何ですか? パラメータの数を増やす 画像の解像度を高める 特徴マップの次元を縮小し、計算量を削減する 画像の色調を調整する None 30. ニューラルネットワークの最適化で、重みの初期化方法として「He初期化」が特に有効な理由は何ですか? ReLUなどの非線形活性化関数を使用する場合、勾配消失問題を防ぐため 学習率を調整しやすくするため バッチサイズを減少させるため 出力層の精度を向上させるため None 31. 「畳み込みカーネル(フィルタ)」が複数の層で共有される場合の利点は何ですか? モデルのパラメータ数が減少し、効率が向上する モデルが過学習しやすくなる 畳み込み演算が高速化される モデルの複雑さが増す None 32. 「Mask R-CNN」の主な用途として正しいものはどれですか? 物体検出とセグメンテーションの両方を同時に行う 物体検出のみを行う 画像分類を行う 時系列データの解析を行う None 33. CNNで使用される「バッチ正規化(Batch Normalization)」の主な効果は何ですか? データを無作為に抽出する 重みをゼロにリセットする ニューロンをランダムに無効化する 畳み込み層での出力を正規化し、学習を安定させる None 34. CNNで「データ拡張(Data Augmentation)」を使用する目的は何ですか? データセットを増やし、モデルの汎化性能を向上させる モデルの計算速度を向上させる モデルの学習率を自動で調整するため ニューロンの数を増やすため None 35. エントロピー H(X) の値が最大になるのはどのような場合ですか? 確率分布が偏っている場合 確率分布が 0 に近い場合 確率分布が均一な場合 確率分布が無限大の場合 None 36. 物体検出アルゴリズムであるYOLOのバージョン3(YOLOv3)の主な改良点として正しいものはどれですか? 1つの解像度でのみ予測を行う 異なるスケールで予測を行い、より小さな物体も検出できる 物体の位置情報のみを予測する RPNを使用して速度を改善した None 37. 大数の法則は何を示していますか? 大きな数は常に正しい 標本の数を増やすと、標本平均が母平均に近づく 母集団分布の形状が標本サイズに依存する 標本の数を増やすと、分散が増大する None 38. 順伝播型ネットワークでの重み更新のための典型的な手法は次のうちどれですか? 勾配降下法 k-means法 主成分分析 ブートストラップ法 None 39. 情報理論において、雑音が多い通信路でエラーを減らすための典型的な方法はどれですか? 符号化の冗長性を減らす データを削除する 符号を短くする より多くの冗長性を追加する None 40. 次のうち、GPT(Generative Pretrained Transformer)が持つ最大の特徴はどれですか? 双方向の文脈を捉える 一方向(左から右)のみで文脈を捉え、文章生成に特化している 画像処理に特化している 単語の出現頻度を基に文を生成する None 41. KNN(K-Nearest Neighbors)アルゴリズムにおいて、K の値を大きく設定すると何が起こりますか? モデルのバイアスが大きくなり、過剰に単純化される可能性がある モデルがより過学習しやすくなる モデルの複雑さが増し、学習速度が低下する モデルの精度が常に向上する None 42. 機械学習において、L2正則化(リッジ回帰)が効果的な理由として最も適切なのはどれですか? モデルのパラメータをより複雑にするため モデルのパラメータに対するペナルティを課し、過学習を防ぐため データを正規化するため 学習速度を上げるため None 43. ニューラルネットワークにおける「勾配消失問題」とは何ですか? 訓練データが不足する現象 勾配が増大しすぎる現象 勾配が極端に小さくなり、重みが更新されなくなる現象 訓練データに対する誤差が無限大になる現象 None 44. ドロップアウト(Dropout)の役割は何ですか? ニューロンをランダムに無効化し、過学習を防ぐ モデルの学習率を調整する 勾配の更新を加速する データの正規化を行う None 45. 次のうち、セマンティックセグメンテーションで頻繁に使用される「Skip Connection」の役割として正しいものはどれですか? ネットワークの計算速度を向上させる エンコーダーからデコーダーに直接特徴を伝達し、詳細情報を補完する ピクセルごとの分類精度を下げる モデルのパラメータ数を減らす None 46. ドロップアウトがリカレントニューラルネットワーク(RNN)に対して効果的な理由は何ですか? 過学習を防ぎ、ネットワークが長期間の依存関係を捉えるのを助ける 重みの初期化を行うため 訓練データのサイズを増加させるため 勾配消失を完全に防ぐため None 47. 回帰分析において、目的変数が連続値である場合、適切な手法は次のどれですか? ロジスティック回帰 線形回帰 サポートベクターマシン K-最近傍法 None 48. L1正則化(ラッソ回帰)の特徴として正しいものはどれですか? モデルの重みがゼロになることがある 重みが減少するが、ゼロにはならない 勾配を一定に保つ モデルの精度を低下させる None 49. PCA(主成分分析)の主な目的は何ですか? データの分類精度を高めること 高次元データを低次元に変換し、データの重要な情報を保持しつつ次元削減を行うこと データのクラスラベルを予測すること データのクラスタを見つけること None 50. 「Fine-Tuning(ファインチューニング)」の効果として最も適切なものはどれですか? モデル全体をゼロから再学習する 事前学習済みモデルを新しいタスクに適応させる 学習データを増加させる モデルのサイズを削減する None 51. 情報量の単位として「ビット」が使われる理由は何ですか? 2つの可能な結果を区別するのに必要な情報量が1ビットだから 情報の量を測定するための物理的単位であるため 情報の伝送速度を示す指標であるため 情報源のエントロピーを表すため None 52. 自然言語処理における「ネガティブサンプリング」の目的として正しいものはどれですか? モデルの計算速度を高速化するため 低頻度単語の重みを減少させるため 単語の埋め込みを計算する際、全単語を考慮せずに一部の単語だけを使用することで効率化するため ノイズの多いデータを除外するため None 53. L2正則化(リッジ回帰)の目的は何ですか? モデルのパラメータを増やすため モデルの複雑さを抑え、過学習を防ぐため 勾配の振動を抑えるため 学習速度を上げるため None 54. ドロップアウトとL2正則化の主な違いは何ですか? ドロップアウトはランダムにニューロンを無効化し、L2正則化は重みにペナルティを課す ドロップアウトは重みにペナルティを課し、L2正則化はニューロンを無効化する 両方ともモデルの複雑さを増加させる 両方とも重みをゼロにする None 55. 「ImageNet」の役割として正しいものはどれですか? 画像の生成 画像のノイズ除去 画像の圧縮 大規模な画像認識データセットと、事前学習済みモデルの基盤を提供する None 56. 順伝播型ネットワークにおいて、バイアスユニットの役割は何ですか? 入力データのスケールを調整する モデルの複雑さを減らす 関数のオフセットを調整し、モデルがより多様な入力に対応できるようにする モデルの学習速度を向上させる None 57. 順伝播型ネットワークにおいて、重みの初期化が不適切な場合、学習にどのような影響がありますか? 学習が全く行われない モデルの学習速度が極端に遅くなるか、適切に収束しない モデルがすべてのデータを無視する モデルの重みが自動で調整される None 58. 畳み込み層(Convolutional Layer)の主な役割は何ですか? データの次元を削減する 入力画像から特徴を抽出する データを正規化する 全てのニューロンをランダムに無効化する None 59. カイ二乗分布はどのような場面で使用されますか? 分散の検定や独立性の検定に使用される 平均の差を検定するとき 相関係数を計算するとき 標本の大きさを決定するとき None 60. CNNにおける「ReLU関数」が学習効率を高める理由はどれですか? 出力をゼロに制限するため データを正規化するため 重みをゼロにするため 非線形性を導入し、勾配消失を防ぐため None 61. RMSPropの特徴は何ですか? 勾配の二乗平均を使用して学習率を調整する 一定の学習率で更新を行う モデルの重みをランダムに更新する 過去の重みを使用しない None 62. 物体検出モデルにおいて「マルチスケール予測」とは何ですか? 物体を異なるスケールで検出する手法 物体を異なる解像度で分類する手法 学習データを複数のスケールで処理する手法 モデルを異なる学習率で訓練する手法 None 63. セマンティックセグメンテーションにおいて、「アップサンプリング」はどの段階で行われますか? 特徴抽出の前 エンコーダー部分で デコーダー部分で モデルの出力層で None 64. 次のうち、「Self-Attention Mechanism」が使用される目的として最も適切なものはどれですか? 文全体の文脈を考慮し、各単語間の依存関係を効率的に捉えるため 文章を効率的に要約するため 単語の出現頻度を学習するため テキストデータを前処理するため None 65. a b c d None 66. 次のうち、VGG16やResNetなどの深層CNNモデルで重要視されるテクニックはどれですか? 残差学習 学習率減衰 入力データの圧縮 ドロップアウト None 67. 中心極限定理が示す内容として最も正しいのはどれですか? 標本のサイズを大きくすると、標本平均の分布が正規分布に近づく 標本のサイズを大きくすると、データはすべてゼロに収束する 標本の分散は無限に増大する 標本の標準偏差はすべて同じになる None 68. 自然言語処理において、次の中で「Seq2Seq」モデルにおける「Attention Mechanism」の導入効果として正しいものはどれですか? モデルの学習速度が速くなる 入力シーケンスの特定の部分に集中して処理することで、翻訳精度を向上させる モデルの出力層のパラメータ数が減少する 時系列データを処理するための新しい手法である None 69. 「誤り訂正符号」とは何ですか? 情報を圧縮するための符号 通信速度を向上させるための符号 データに冗長性を追加し、誤りを検出し修正できる符号 データの圧縮率を向上させる符号 None 70. セマンティックセグメンテーションにおいて、「ピクセルワイズソフトマックス(Pixel-wise Softmax)」が必要とされる理由は何ですか? 画像全体に同一のラベルを割り当てるため モデルの出力を正規化するため デコーダー部分での計算コストを削減するため 各ピクセルごとにクラス確率を計算し、最も高いクラスを予測するため None 71. シャノンの通信理論における「通信路容量」とは何ですか? 通信路で誤りなく伝送できる最大のデータ量 通信路で送信できる最大のエントロピー 通信路で使用できる最大の帯域幅 通信路の信号対雑音比 None 72. 次のうち、畳み込み層のフィルタ数を増やすと、どのような影響があるか? 計算コストが減少する モデルがより複雑になり、抽出される特徴の数が増える モデルが単純化され、汎化性能が向上する モデルのトレーニング時間が短縮される None 73. モデルの汎化性能を向上させるために、L1とL2のどちらの正則化を使用すべきか判断する際の主な基準は何ですか? 特徴量の数と重要度 モデルの計算コスト データセットのサイズ モデルのアーキテクチャの複雑さ None 74. バッチ正規化とL2正則化を組み合わせる理由として最も適切なものはどれですか? モデルの出力を一定にするため モデルの複雑さを増加させるため 勾配爆発を防ぐため 過学習を抑えつつ、学習速度を向上させるため None 75. セマンティックセグメンテーションにおける「クラス不均衡」を解決するために使用される手法はどれですか? 学習率の増加 データ拡張 クラス重み付け クロスバリデーション None 76. 情報理論における「無記憶(メモリーレス)通信路」とは何ですか? 通信路が過去の入力に依存しない通信路 データが記録されない通信路 情報を保存しない通信路 通信中にデータが消失する通信路 None 77. 順伝播型ネットワークの出力層でよく使用される活性化関数は次のうちどれですか? ReLU シグモイド関数 ソフトマックス関数 タンジェント関数 None 78. 次のうち、BERTやGPTなどの事前学習済みモデルを特定のタスクに適応させるための技術はどれですか? ドメイン適応 ファインチューニング クロスバリデーション データ拡張 None 79. 畳み込みニューラルネットワークにおける「フィルタ(カーネル)」のサイズが大きくなると、何が起こりますか? モデルが捉える特徴がより大きな範囲に渡る モデルが過学習しやすくなる モデルの計算量が減少する ニューロンの数が増加する None 80. 機械学習モデルの評価において、テストデータを使う理由は何ですか? モデルの性能を過大評価するため モデルが未知のデータに対してどの程度適切に予測できるかを評価するため 訓練データの誤差を確認するため データを削減するため None 81. 「セマンティックセグメンテーション」とは何を指しますか? 画像内の個別の物体を検出する 画像の各ピクセルにラベルを割り当て、物体の領域を予測する 画像の解像度を上げる 画像のノイズを除去する None 82. CNNにおいて、フィルタ(カーネル)の役割は何ですか? 特徴マップの次元を減らす 入力画像から特徴を抽出する モデルの精度を低下させる データのノイズを増やす None 83. a b c d None 84. セマンティックセグメンテーションにおいて、「CRF(Conditional Random Field)」が使用される主な理由は何ですか? セグメンテーション結果のスムーズさを向上させるため 学習速度を向上させるため モデルのパラメータ数を削減するため ピクセルごとのラベルを正規化するため None 85. 物体検出における「平均適合率(mAP: mean Average Precision)」とは何を指しますか? モデルの学習速度を測定する指標 モデルの誤差を評価する指標 モデルの検出速度を評価する指標 モデルが異なるクラスの物体を検出する際の精度を平均した指標 None 86. 情報源符号化において、符号の平均長がエントロピーに等しいとき、どのような符号化が達成されていますか? 冗長な符号化 無駄のない最適な符号化 情報の損失を含む符号化 長すぎる符号化 None 87. ある通信路で、信号対雑音比 (SNR) が 20dB、帯域幅が 2kHz であるとき、シャノンの通信路容量はおよそどれですか? 20 kbps 26.6 kbps 13.3 kbps 40 kbps None 88. 順伝播型ネットワークにおいて、ミニバッチのサイズが大きすぎると、学習にどのような影響がありますか? 学習が不安定になり、損失関数が振動する 勾配の更新が速くなり、過学習が発生しやすくなる 勾配の更新が遅くなり、学習が効率的に進まない モデルが過学習するリスクが低くなる None 89. L1正則化とL2正則化を組み合わせた「Elastic Net」が特に有効な場面はどれですか? モデルの学習速度を上げたい場合 特徴量が多く、スパースな解を得たい場合 重みがすべてゼロになる場合 勾配消失問題を完全に防ぎたい場合 None 90. CNNにおける「転移学習」の利点は何ですか? モデルの計算コストを削減できる 訓練済みモデルを利用することで、少ないデータでも高精度のモデルを得られる CNNのフィルタサイズを自動調整できる 重みの更新を省略できる None 91. 順伝播型ネットワークにおける「ミニバッチ学習」とは何ですか? 全ての訓練データを一度にモデルに入力する手法 訓練データを少数のサブセットに分け、それぞれで学習を行う手法 訓練データをランダムに並べ替える手法 訓練データを正規化する手法 None 92. a b c d None 93. 物体検出における「アンカー(Anchor)」の役割は何ですか? 画像を小さく分割する バウンディングボックスの初期候補を提供する 物体のサイズを正規化する 出力層の勾配を安定化させる None 94. SSD(Single Shot Multibox Detector)の主な利点は何ですか? RPNを使用しないことで、物体検出が高速である 精度が非常に高いが、速度は遅い バウンディングボックスの候補が少ないため、計算負荷が低い 一度に1つの物体しか検出できない None 95. CNNにおける活性化関数として最もよく使用されるものはどれですか? ReLU関数 シグモイド関数 ソフトマックス関数 タンジェントハイパボリック関数 None 96. 2つの独立した確率変数 X と Y の期待値 E(X) = 3, E(Y) = 5 のとき、X + Y の期待値はどれですか? 15 3 8 5 None 97. セマンティックセグメンテーションにおいて、評価指標として使用される「IoU(Intersection over Union)」とは何を表しますか? 予測された領域と正解領域の重なり具合を評価する指標 画像の解像度を表す指標 モデルの精度を評価する指標 計算コストを表す指標 None 98. 自然言語処理において「Attention Mechanism」の役割は何ですか? 単語の重要度を測定し、重要な単語に焦点を当てる 単語の出現頻度を学習する 文全体の長さを調整する 文章の要約を行う None 99. 平均 μ=0、標準偏差 σ=1 の標準正規分布の範囲 [-2, 2] に含まれる確率は約何%ですか? 68% 95% 99.7% 50% None 100. 正規分布 N(0, 1) の上で、z スコアが -1.96 から 1.96 の範囲に入る確率はおよそどれですか? 0.68 0.99 0.50 0.95 None Time's up