E資格~模擬試験①~ 2024年12月7日2024年12月7日 ailearn 1. YOLOv3では、どのようにして異なるサイズの物体を検出していますか? アンカーのサイズを増やす RPNを使用して異なるスケールを提案する 全ての物体を同じスケールで検出する 異なる解像度の3つのスケールで予測を行う None 2. 「誤り訂正符号」とは何ですか? 情報を圧縮するための符号 通信速度を向上させるための符号 データに冗長性を追加し、誤りを検出し修正できる符号 データの圧縮率を向上させる符号 None 3. 確率の定義において、サンプルスペース(標本空間)とは何ですか? 発生しうる全ての結果の集合 確率が0になる事象の集合 予想される結果の集合 可能な事象の一部を集めたもの None 4. a b c d None 5. 勾配降下法において、学習率の役割は何ですか? 重みの初期値を設定するため モデルの複雑さを調整するため データのサイズを調整するため 重みの更新量を決定するため None 6. シャノンの通信理論における「通信路容量」とは何ですか? 通信路で誤りなく伝送できる最大のデータ量 通信路で送信できる最大のエントロピー 通信路で使用できる最大の帯域幅 通信路の信号対雑音比 None 7. 情報源符号化において、符号の平均長がエントロピーに等しいとき、どのような符号化が達成されていますか? 冗長な符号化 無駄のない最適な符号化 情報の損失を含む符号化 長すぎる符号化 None 8. BERTを使用した質問応答タスクにおいて、モデルが行う最も基本的な処理は次のうちどれですか? 質問と回答の文脈を無視して直接予測する 回答文の出現頻度を基に最適な単語を選ぶ 質問と回答の文章をエンコードし、最適な回答位置を予測する 質問文を翻訳して回答する None 9. プーリング層の主な役割は何ですか? パラメータの数を増やす 画像の解像度を高める 特徴マップの次元を縮小し、計算量を削減する 画像の色調を調整する None 10. アダム(Adam)最適化アルゴリズムで使用される「1次モーメント推定」と「2次モーメント推定」の役割は何ですか? 勾配の平均と分散を計算し、適応的な学習率を提供するため モデルの重みを初期化するため モデルの誤差を最小化するため ニューラルネットワークの層数を増やすため None 11. 自然言語処理において「Bag of Words(BoW)」モデルの特徴として正しいものはどれですか? 単語の順序を考慮する 単語の頻度だけを考慮し、順序を無視する 文全体の意味を考慮する テキストを分割する None 12. 自然言語処理において「Attention Mechanism」の役割は何ですか? 単語の重要度を測定し、重要な単語に焦点を当てる 単語の出現頻度を学習する 文全体の長さを調整する 文章の要約を行う None 13. 「Mask R-CNN」の主な用途として正しいものはどれですか? 物体検出とセグメンテーションの両方を同時に行う 物体検出のみを行う 画像分類を行う 時系列データの解析を行う None 14. 情報量の単位として「ビット」が使われる理由は何ですか? 2つの可能な結果を区別するのに必要な情報量が1ビットだから 情報の量を測定するための物理的単位であるため 情報の伝送速度を示す指標であるため 情報源のエントロピーを表すため None 15. CNNで「データ拡張(Data Augmentation)」を使用する目的は何ですか? データセットを増やし、モデルの汎化性能を向上させる モデルの計算速度を向上させる モデルの学習率を自動で調整するため ニューロンの数を増やすため None 16. 標準偏差が示す意味として最も適切なのはどれですか? データの平均からの偏差の最大値 データの最小値 データの平均からの値のばらつきの程度 データの最大値 None 17. CNNにおける「フィルタサイズ」と「ストライド」の関係について正しい説明はどれですか? ストライドが大きくなると出力サイズが大きくなる ストライドが大きくなると出力サイズが小さくなる フィルタサイズが小さいと出力サイズが増える フィルタサイズが大きいとストライドが小さくなる None 18. 決定木モデルにおいて、エントロピーが最も低い分割の重要性は何ですか? データの分散を最大化するため 分割後の不確実性が最も低くなるため、より純粋なグループが得られる モデルの複雑さを減少させるため 決定木の深さを増やすため None 19. Faster R-CNNの特徴として正しいものはどれですか? 1ステージの物体検出アルゴリズムである YOLOよりも高速だが、精度は低い RPNを用いて物体の候補領域を生成する 物体の数に応じてニューラルネットワークを動的に構築する None 20. ドロップアウトがリカレントニューラルネットワーク(RNN)に対して効果的な理由は何ですか? 過学習を防ぎ、ネットワークが長期間の依存関係を捉えるのを助ける 重みの初期化を行うため 訓練データのサイズを増加させるため 勾配消失を完全に防ぐため None 21. ある情報源が4つの異なる事象 {A, B, C, D} を等確率で生成する場合、この情報源のエントロピーはどれですか? 1ビット 2ビット 4ビット 8ビット None 22. L2正則化(リッジ回帰)の主な目的は何ですか? モデルの重みを増加させる モデルの重みを抑え、過学習を防ぐ 勾配を大きくする モデルの複雑さを減らすため None 23. モデルの汎化性能を向上させるために、L2正則化とドロップアウトを組み合わせる理由は何ですか? モデルの複雑さを抑え、過学習を防ぐため モデルの学習速度を上げるため 重みを無作為に更新するため モデルの出力を正規化するため None 24. 次のうち、自然言語処理において「Word2Vec」で学習されるものは何ですか? 単語のベクトル表現 文全体の意味 単語の出現頻度 単語の順序 None 25. 順伝播型ネットワーク(Feedforward Neural Network)で最も基本的な構造はどれですか? 入力層、隠れ層、出力層 入力層と出力層のみ 入力層と2つの出力層 隠れ層と出力層のみ None 26. 順伝播型ネットワークにおけるドロップアウト(Dropout)の役割は何ですか? ニューロンをランダムに無効化して過学習を防ぐ 学習率を調整する 訓練データの一部を削除する モデルの精度を向上させるためにニューロンを追加する None 27. 順伝播型ネットワークにおいて、勾配消失問題が深層学習の学習速度にどのような影響を与えるか、最も適切な説明はどれですか? 勾配が消失すると、ネットワークの学習速度が劇的に遅くなる 勾配消失問題は学習速度には影響しない 勾配が消失すると、ネットワークの学習速度が高速になる 勾配が消失しても、学習速度にはわずかな影響しかない None 28. 「アダム(Adam)」最適化アルゴリズムにおけるバイアス補正の役割は何ですか? 勾配の過大評価を防ぐため モデルの重みを固定するため 損失関数を補正するため 勾配の初期段階での過小評価を防ぎ、より正確な更新を行うため None 29. モデルにおいて、L2正則化を導入することでどのような効果が得られますか? モデルの複雑さを増やし、データに適合させる 重みがすべてゼロになる モデルの複雑さを抑え、過学習を防ぐ ニューロンの数を増加させる None 30. 「ImageNet」の役割として正しいものはどれですか? 画像の生成 画像のノイズ除去 画像の圧縮 大規模な画像認識データセットと、事前学習済みモデルの基盤を提供する None 31. 次のうち、セマンティックセグメンテーションにおいて「パッチベースのアプローチ」が適しているシナリオはどれですか? リアルタイム予測が必要な場合 単純なオブジェクト分類 高解像度の大規模画像のセグメンテーション 計算リソースが限られている場合 None 32. a b c d None 33. L2正則化(リッジ回帰)の目的は何ですか? モデルのパラメータを増やすため モデルの複雑さを抑え、過学習を防ぐため 勾配の振動を抑えるため 学習速度を上げるため None 34. ミニバッチ勾配降下法(Mini-batch Gradient Descent)はどのような手法ですか? 訓練データ全体を使用して一度に学習する手法 データセット全体を小さなバッチに分割し、それぞれで勾配を計算して学習する手法 データを1つずつ順番に使って学習する手法 勾配を無視して重みを更新する手法 None 35. a b c d None 36. 情報理論における「エントロピー」の定義は何ですか? システムの乱雑さや不確実性を測る尺度 データを圧縮するアルゴリズム 情報の内容量 伝送速度を表す指標 None 37. ニューラルネットワークの訓練において、「重みの初期化」が重要な理由は何ですか? 適切な初期化を行わないと、勾配消失問題や勾配爆発が発生しやすくなるため 重みがランダムでないとモデルが過学習するため 重みの初期化が適切でないと、学習率が収束しないため 重みを初期化しないと、モデルの計算ができないため None 38. セマンティックセグメンテーションにおいて、「ピクセルワイズソフトマックス(Pixel-wise Softmax)」が必要とされる理由は何ですか? 画像全体に同一のラベルを割り当てるため モデルの出力を正規化するため デコーダー部分での計算コストを削減するため 各ピクセルごとにクラス確率を計算し、最も高いクラスを予測するため None 39. 畳み込みニューラルネットワークにおける「フィルタ(カーネル)」のサイズが大きくなると、何が起こりますか? モデルが捉える特徴がより大きな範囲に渡る モデルが過学習しやすくなる モデルの計算量が減少する ニューロンの数が増加する None 40. 機械学習における「バイアス-バリアンストレードオフ」とは何ですか? モデルの複雑さとデータの量に関するトレードオフ 訓練データとテストデータのサイズのバランス モデルの誤差のうち、バイアスとバリアンスをバランスさせる必要がある現象 モデルのパラメータと予測性能のバランス None 41. a b c d None 42. セマンティックセグメンテーションにおいて、「アップサンプリング」はどの段階で行われますか? 特徴抽出の前 エンコーダー部分で デコーダー部分で モデルの出力層で None 43. 物体検出タスクにおける「NMS(Non-Maximum Suppression)」の目的は何ですか? 学習率を最適化する 画像の解像度を上げる 重複するバウンディングボックスを削除し、最も信頼度の高いボックスを選択する データのノイズを除去する None 44. セマンティックセグメンテーションにおいて、「CRF(Conditional Random Field)」が使用される主な理由は何ですか? セグメンテーション結果のスムーズさを向上させるため 学習速度を向上させるため モデルのパラメータ数を削減するため ピクセルごとのラベルを正規化するため None 45. モデルの汎化性能を向上させるために、L1とL2のどちらの正則化を使用すべきか判断する際の主な基準は何ですか? 特徴量の数と重要度 モデルの計算コスト データセットのサイズ モデルのアーキテクチャの複雑さ None 46. 順伝播型ネットワークにおける活性化関数「シグモイド関数」が深層学習であまり使われない理由は何ですか? 勾配消失問題を引き起こしやすいため 勾配爆発を引き起こすため 計算コストが高いため 非線形性が低いため None 47. ニューラルネットワークにおける「勾配消失問題」とは何ですか? 訓練データが不足する現象 勾配が増大しすぎる現象 勾配が極端に小さくなり、重みが更新されなくなる現象 訓練データに対する誤差が無限大になる現象 None 48. CNNにおける活性化関数として最もよく使用されるものはどれですか? ReLU関数 シグモイド関数 ソフトマックス関数 タンジェントハイパボリック関数 None 49. CNNにおける「ソフトマックス関数」の役割は何ですか? ニューラルネットワークの全てのニューロンを活性化する データを正規化する データの次元を削減する 出力層において、複数クラスの分類を確率として出力する None 50. 物体検出における「平均適合率(mAP: mean Average Precision)」とは何を指しますか? モデルの学習速度を測定する指標 モデルの誤差を評価する指標 モデルの検出速度を評価する指標 モデルが異なるクラスの物体を検出する際の精度を平均した指標 None 51. 強化学習における「Q学習」の目的は何ですか? データのラベルを予測すること 次元削減を行うこと モデルのバイアスを減らすこと すべての状態と行動の組み合わせに対して最適な価値を学習すること None 52. 自然言語処理において、テキストデータの前処理として一般的に行われる「トークン化」とは何を指しますか? テキストをエンコードする テキストを単語や文に分割する テキストを辞書に変換する テキストを圧縮する None 53. 次の中で、BERTとGPTの主な違いとして正しいものはどれですか? BERTは双方向、GPTは一方向の文脈を学習する BERTは文章生成に特化しており、GPTは文章理解に特化している BERTは主に画像認識で使用され、GPTは音声認識で使用される BERTは小規模データで学習され、GPTは大規模データで学習される None 54. 順伝播型ネットワークにおいて、重みの初期化が不適切な場合、学習にどのような影響がありますか? 学習が全く行われない モデルの学習速度が極端に遅くなるか、適切に収束しない モデルがすべてのデータを無視する モデルの重みが自動で調整される None 55. 順伝播型ネットワークにおける「エポック」とは何ですか? モデルの性能を評価するためのテストデータ 訓練データ全体を1度モデルに与えて学習するプロセス 重みを初期化するプロセス モデルのパラメータをチューニングするプロセス None 56. CNNで「フィルタ数」を増加させることによる主な影響は何ですか? モデルの計算量が減少する 過学習のリスクが減る モデルがより多様な特徴を捉えられるようになる モデルが重みを自動調整できるようになる None 57. 次のうち、VGG16やResNetなどの深層CNNモデルで重要視されるテクニックはどれですか? 残差学習 学習率減衰 入力データの圧縮 ドロップアウト None 58. 機械学習において、交差検証を行う主な理由は何ですか? 訓練データの誤差を最小化するため テストデータをより有効に使うため モデルの過学習を防ぐため モデルのハイパーパラメータを最適化するため None 59. RMSPropの特徴は何ですか? 勾配の二乗平均を使用して学習率を調整する 一定の学習率で更新を行う モデルの重みをランダムに更新する 過去の重みを使用しない None 60. 大数の法則は何を示していますか? 大きな数は常に正しい 標本の数を増やすと、標本平均が母平均に近づく 母集団分布の形状が標本サイズに依存する 標本の数を増やすと、分散が増大する None 61. 物体検出タスクにおいて、精度と速度のバランスが取れているモデルとして知られているのはどれですか? ResNet Faster R-CNN VGG16 YOLO None 62. 勾配降下法の「アダグラード(Adagrad)」アルゴリズムが効果的な場合はどれですか? データのクラス数が非常に多い場合 モデルが深層ニューラルネットワークの場合 クラスごとのデータが均一である場合 特徴量ごとのスケールが大きく異なる場合 None 63. 物体検出における「IoU(Intersection over Union)」とは何を表しますか? 学習率の調整 予測バウンディングボックスと正解バウンディングボックスの重なり度合い 畳み込み層のフィルタ数 物体の大きさを正規化する指標 None 64. セマンティックセグメンテーションにおける「U-Net」の特徴は何ですか? 画像分類に特化したネットワーク ピクセルレベルのセグメンテーションを行うネットワーク 画像の解像度を下げるためのネットワーク 時系列データを扱うネットワーク None 65. 雑音が含まれる通信路において、符号化率 R が通信路容量 C より小さい場合、次のうち正しい記述はどれですか? 伝送誤りが発生する 通信が誤りなく行われる 通信が停止する データの圧縮率が向上する None 66. セマンティックセグメンテーションにおける「クラス不均衡」を解決するために使用される手法はどれですか? 学習率の増加 データ拡張 クラス重み付け クロスバリデーション None 67. 次のうち、教師なし学習の手法として最も適切なのはどれですか? ロジスティック回帰 サポートベクターマシン 線形回帰 K-平均法 None 68. ドロップアウト率を0.5に設定した場合、訓練時の挙動として正しいのはどれですか? 各訓練ステップで50%の重みがリセットされる ニューロンの出力が半減する 各訓練ステップでランダムに50%のニューロンが無効化される モデルの精度が常に向上する None 69. セマンティックセグメンテーションにおける「ダウンサンプリング」とは何ですか? 画像の解像度を高めること 画像の次元を増加させること 画像をスケールアップすること 画像の特徴を圧縮し、情報を要約すること None 70. 期待値とは何を意味しますか? 確率変数の可能な値の中で最も高い値 確率変数が取る可能性のある値の平均値 事象が発生する確率 確率変数が取る値の最小値 None 71. 順伝播型ネットワークの最適化アルゴリズム「Adam」の特徴として正しいものはどれですか? 学習率を固定している 勾配の過去の動きを利用し、自動で学習率を調整する 高い学習率でも常に収束する 勾配を無視して重みを更新する None 72. 自然言語処理において「シーケンス・トゥ・シーケンス(Seq2Seq)」モデルがよく使用されるタスクはどれですか? 画像認識 音声認識 自動翻訳 データ前処理 None 73. 順伝播型ネットワークにおいて、バイアスユニットの役割は何ですか? 入力データのスケールを調整する モデルの複雑さを減らす 関数のオフセットを調整し、モデルがより多様な入力に対応できるようにする モデルの学習速度を向上させる None 74. サポートベクターマシン(SVM)はどのような問題に使用されますか? 主に回帰問題 主にクラスタリング問題 主に分類問題 主に次元削減問題 None 75. ドロップアウトを使用する主な理由はどれですか? 学習速度を上げるため モデルのパラメータ数を増やすため モデルの汎化性能を向上させるため モデルの誤差を最小化するため None 76. 情報圧縮におけるハフマン符号の役割は何ですか? データのエントロピーを減らす データを効率的に符号化するために最適な可変長符号を生成する データを復元する データをランダムに並べ替える None 77. 正規分布 N(0, 1) の上で、z スコアが -1.96 から 1.96 の範囲に入る確率はおよそどれですか? 0.68 0.99 0.50 0.95 None 78. CNNにおいて、次のうち「バックプロパゲーション」を行う際に重要なプロセスはどれですか? 各フィルタの勾配を計算し、フィルタを更新する 出力層のノイズを削減する 活性化関数を変更する 入力データを拡張する None 79. L1正則化の効果で特に重要なものはどれですか? モデルの学習速度を向上させる 特徴量の選択を自動的に行う 重みをランダムに調整する 学習率を低下させる None 80. 「Transformer」がLSTMやGRUに比べて自然言語処理で優れている点として最も適切なものはどれですか? 時系列データの扱いが得意 計算コストが低い モデルの構造が単純である 並列計算が可能で、長いシーケンスも効率的に処理できる None 81. ドロップアウト(Dropout)の役割は何ですか? ニューロンをランダムに無効化し、過学習を防ぐ モデルの学習率を調整する 勾配の更新を加速する データの正規化を行う None 82. 次のうち、「Self-Attention Mechanism」が使用される目的として最も適切なものはどれですか? 文全体の文脈を考慮し、各単語間の依存関係を効率的に捉えるため 文章を効率的に要約するため 単語の出現頻度を学習するため テキストデータを前処理するため None 83. 機械学習における「教師あり学習」とは何ですか? ラベル付きデータを使ってモデルを訓練する手法 ラベルなしデータを使ってモデルを訓練する手法 データを自動生成する手法 モデルを評価する手法 None 84. 次のうち、BERTのトレーニングに使用される主なタスクはどれですか? 画像分類 マスクされた単語の予測(Masked Language Model, MLM) 文章の圧縮 音声認識 None 85. 情報理論において、雑音が多い通信路でエラーを減らすための典型的な方法はどれですか? 符号化の冗長性を減らす データを削除する 符号を短くする より多くの冗長性を追加する None 86. ドロップアウト(Dropout)の主な役割は何ですか? 訓練中にニューロンをランダムに無効化することで、過学習を防ぐ 学習率を自動調整する 訓練データの一部を削除する モデルの精度を向上させるためにニューロンを追加する None 87. 勾配降下法(Gradient Descent)における主な目的は何ですか? モデルの学習速度を上げる 損失関数の値を最小化するために重みを更新する モデルの複雑さを減らす データの分布を正規化する None 88. 条件付き確率 P(A | B) の定義はどれですか? P(A) × P(B) P(A) / P(B) P(A ∩ B) / P(B) P(A) - P(B) None 89. 順伝播型ネットワークにおける「ミニバッチ学習」とは何ですか? 全ての訓練データを一度にモデルに入力する手法 訓練データを少数のサブセットに分け、それぞれで学習を行う手法 訓練データをランダムに並べ替える手法 訓練データを正規化する手法 None 90. バッチ正規化とL2正則化を組み合わせる理由として最も適切なものはどれですか? モデルの出力を一定にするため モデルの複雑さを増加させるため 勾配爆発を防ぐため 過学習を抑えつつ、学習速度を向上させるため None 91. エントロピー H(X) の値が最大になるのはどのような場合ですか? 確率分布が偏っている場合 確率分布が 0 に近い場合 確率分布が均一な場合 確率分布が無限大の場合 None 92. L1正則化とL2正則化を組み合わせた「Elastic Net」が特に有効な場面はどれですか? モデルの学習速度を上げたい場合 特徴量が多く、スパースな解を得たい場合 重みがすべてゼロになる場合 勾配消失問題を完全に防ぎたい場合 None 93. 「LSTM(Long Short-Term Memory)」がRNNに比べて優れている点は何ですか? 計算速度が速い 単語の出現頻度を学習できる 長期的な依存関係をより効果的に学習できる テキストの分類を効率化する None 94. 次のうち、「BPE(Byte Pair Encoding)」が自然言語処理で使用される理由として正しいものはどれですか? テキストデータを圧縮するため 単語の出現頻度を学習するため テキストデータの前処理を自動化するため 未知の単語や希少な単語を処理するためのサブワード分割手法 None 95. 順伝播型ニューラルネットワークで、ドロップアウト率を適切に設定する理由は何ですか? 過学習を防ぎつつ、モデルの精度を維持するため 勾配の爆発を防ぐため モデルの複雑さを減少させるため モデルの精度を向上させるため None 96. Faster R-CNNにおいて、RPNで生成された候補領域(Region Proposals)の数が多すぎると、どのような影響が考えられますか? 検出精度が向上するが、計算コストが増加する 検出精度が低下し、計算コストも増加する 候補領域が多いほど、精度は一定のままで計算速度が向上する 候補領域が増えると、NMSの効果がなくなる None 97. L1正則化(ラッソ回帰)の特徴として正しいものはどれですか? モデルの重みがゼロになることがある 重みが減少するが、ゼロにはならない 勾配を一定に保つ モデルの精度を低下させる None 98. ドロップアウトのドロップ率が低すぎると、モデルにどのような影響がありますか? 過学習のリスクが増える モデルが学習しなくなる 学習率が増加する モデルが複雑すぎて収束しなくなる None 99. 畳み込み層(Convolutional Layer)の主な役割は何ですか? データの次元を削減する 入力画像から特徴を抽出する データを正規化する 全てのニューロンをランダムに無効化する None 100. 順伝播型ネットワークでの重み更新のための典型的な手法は次のうちどれですか? 勾配降下法 k-means法 主成分分析 ブートストラップ法 None Time's up