E資格~模擬試験①~ 2024年12月7日2024年12月7日 ailearn 1. VGG16とResNetの主な違いは何ですか? VGG16は非常に浅いネットワークで、ResNetは非常に深いネットワークである VGG16はスキップ接続を使用し、ResNetは使用しない VGG16はクロスエントロピー誤差を使用せず、ResNetは使用する VGG16は全結合層を多用し、ResNetは残差学習を採用している None 2. 畳み込み層(Convolutional Layer)の主な役割は何ですか? データの次元を削減する 入力画像から特徴を抽出する データを正規化する 全てのニューロンをランダムに無効化する None 3. シャノンの定理に基づき、ある通信路の容量が C = 10 kbps、信号対雑音比 (SNR) が 30 dB であるとき、この通信路の帯域幅はおよそどれですか? 500 Hz 1 kHz 2 kHz 5 kHz None 4. 畳み込みニューラルネットワーク(CNN)で一般的に使用されるプーリング層の目的は何ですか? データの空間次元を削減し、モデルの計算量を抑えるため データの正規化を行うため 入力画像を拡大するため 重みを更新するため None 5. 符号化における「冗長性」とは何を意味しますか? 情報を追加することでデータの信頼性を高めること 符号化したデータの長さを最小化すること 情報量が最小になるようにデータを圧縮すること 必要以上に多くのビットで符号化されている部分 None 6. 次のうち、自然言語処理において「Word2Vec」で学習されるものは何ですか? 単語のベクトル表現 文全体の意味 単語の出現頻度 単語の順序 None 7. 情報理論における「エントロピー」の定義は何ですか? システムの乱雑さや不確実性を測る尺度 データを圧縮するアルゴリズム 情報の内容量 伝送速度を表す指標 None 8. 順伝播型ネットワークにおける「勾配クリッピング」の主な目的は何ですか? 勾配消失を防ぐため モデルの重みを初期化するため 勾配爆発を防ぎ、学習を安定させるため 学習率を自動調整するため None 9. 物体検出モデルにおいて「マルチスケール予測」とは何ですか? 物体を異なるスケールで検出する手法 物体を異なる解像度で分類する手法 学習データを複数のスケールで処理する手法 モデルを異なる学習率で訓練する手法 None 10. 順伝播型ニューラルネットワークで、ドロップアウト率を適切に設定する理由は何ですか? 過学習を防ぎつつ、モデルの精度を維持するため 勾配の爆発を防ぐため モデルの複雑さを減少させるため モデルの精度を向上させるため None 11. 順伝播型ネットワークにおいて、重みの初期化が不適切な場合、学習にどのような影響がありますか? 学習が全く行われない モデルの学習速度が極端に遅くなるか、適切に収束しない モデルがすべてのデータを無視する モデルの重みが自動で調整される None 12. 正規分布 N(0, 1) の上で、z スコアが -1.96 から 1.96 の範囲に入る確率はおよそどれですか? 0.68 0.99 0.50 0.95 None 13. 標準偏差が示す意味として最も適切なのはどれですか? データの平均からの偏差の最大値 データの最小値 データの平均からの値のばらつきの程度 データの最大値 None 14. a b c d None 15. 自然言語処理において「Attention Mechanism」の役割は何ですか? 単語の重要度を測定し、重要な単語に焦点を当てる 単語の出現頻度を学習する 文全体の長さを調整する 文章の要約を行う None 16. ドロップアウトを使用する主な理由はどれですか? 学習速度を上げるため モデルのパラメータ数を増やすため モデルの汎化性能を向上させるため モデルの誤差を最小化するため None 17. 自然言語処理において「TF-IDF」の目的は何ですか? 単語の出現頻度を基に重要な単語を見つける 単語の順序を無視する 単語間の関係を学習する 単語の意味を変換する None 18. 勾配降下法(Gradient Descent)における主な目的は何ですか? モデルの学習速度を上げる 損失関数の値を最小化するために重みを更新する モデルの複雑さを減らす データの分布を正規化する None 19. ドロップアウト(Dropout)の主な役割は何ですか? 訓練中にニューロンをランダムに無効化することで、過学習を防ぐ 学習率を自動調整する 訓練データの一部を削除する モデルの精度を向上させるためにニューロンを追加する None 20. CNNモデルにおいて、過学習を防ぐために広く用いられるテクニックはどれですか? ドロップアウト バッチ正規化 プーリング 活性化関数の変更 None 21. ドロップアウト率が高すぎると、どのような影響がありますか? モデルが過学習しやすくなる ニューロンが過度に活性化する モデルが十分に学習できなくなる モデルの汎化性能が向上する None 22. 符号化定理に基づき、帯域幅 B と通信路容量 C の関係に影響を与える要因は何ですか? 信号対雑音比 (SNR) データの種類 情報源のエントロピー 通信プロトコル None 23. 順伝播型ネットワークにおいて、ReLU関数が活性化関数として好まれる理由は次のうちどれですか? 負の値に対しても出力があるため すべての出力が1になるため モデルの重みを正規化するため 勾配消失問題を軽減できるため None 24. L1正則化とL2正則化を組み合わせた「Elastic Net」が特に有効な場面はどれですか? モデルの学習速度を上げたい場合 特徴量が多く、スパースな解を得たい場合 重みがすべてゼロになる場合 勾配消失問題を完全に防ぎたい場合 None 25. CNNにおける「ストライド」とは何ですか? プーリング層でのデータ抽出範囲 重みの更新方法 フィルタが畳み込む際の移動距離 活性化関数の種類 None 26. 次のうち、畳み込み層のフィルタ数を増やすと、どのような影響があるか? 計算コストが減少する モデルがより複雑になり、抽出される特徴の数が増える モデルが単純化され、汎化性能が向上する モデルのトレーニング時間が短縮される None 27. 順伝播型ネットワークでの重み更新のための典型的な手法は次のうちどれですか? 勾配降下法 k-means法 主成分分析 ブートストラップ法 None 28. エントロピー H(X) = 2.5 のとき、この情報源の平均情報量はどれですか? 2.5ビット 5ビット 10ビット 1.25ビット None 29. 次のうち、教師なし学習の手法として最も適切なのはどれですか? ロジスティック回帰 サポートベクターマシン 線形回帰 K-平均法 None 30. 次のうち、画像認識モデルでよく使われる「データ拡張」の技術に含まれないものはどれですか? 画像の回転 画像の平滑化 画像の拡大縮小 画像の反転 None 31. CNNにおける「ReLU関数」が学習効率を高める理由はどれですか? 出力をゼロに制限するため データを正規化するため 重みをゼロにするため 非線形性を導入し、勾配消失を防ぐため None 32. 「Global Average Pooling」が用いられる目的は何ですか? 全結合層をなくし、モデルの過学習を防ぐ 入力データを正規化する モデルの計算コストを増やす 活性化関数を調整する None 33. セマンティックセグメンテーションで使用される「Pyramid Scene Parsing Network(PSPNet)」の利点は何ですか? オブジェクトのサイズにかかわらず、正確なセグメンテーションを実現できる 高速なリアルタイム予測が可能である 簡単なアーキテクチャを持つ 全結合層を使用せず、セグメンテーション精度を高める None 34. CNNで使用される「バッチ正規化(Batch Normalization)」の主な効果は何ですか? データを無作為に抽出する 重みをゼロにリセットする ニューロンをランダムに無効化する 畳み込み層での出力を正規化し、学習を安定させる None 35. ResNetで導入された「スキップ接続(Skip Connection)」の主な目的は何ですか? モデルの計算コストを削減する モデルのパラメータ数を増やす 勾配消失問題を軽減し、非常に深いネットワークでも学習を可能にする 入力データを強化する None 36. 次のうち、セマンティックセグメンテーションで頻繁に使用される「Skip Connection」の役割として正しいものはどれですか? ネットワークの計算速度を向上させる エンコーダーからデコーダーに直接特徴を伝達し、詳細情報を補完する ピクセルごとの分類精度を下げる モデルのパラメータ数を減らす None 37. 次の中で、BERTとGPTの主な違いとして正しいものはどれですか? BERTは双方向、GPTは一方向の文脈を学習する BERTは文章生成に特化しており、GPTは文章理解に特化している BERTは主に画像認識で使用され、GPTは音声認識で使用される BERTは小規模データで学習され、GPTは大規模データで学習される None 38. バッチ正規化とL2正則化を組み合わせる理由として最も適切なものはどれですか? モデルの出力を一定にするため モデルの複雑さを増加させるため 勾配爆発を防ぐため 過学習を抑えつつ、学習速度を向上させるため None 39. 確率の定義において、サンプルスペース(標本空間)とは何ですか? 発生しうる全ての結果の集合 確率が0になる事象の集合 予想される結果の集合 可能な事象の一部を集めたもの None 40. 期待値とは何を意味しますか? 確率変数の可能な値の中で最も高い値 確率変数が取る可能性のある値の平均値 事象が発生する確率 確率変数が取る値の最小値 None 41. 次のうち、BERTのトレーニングに使用される主なタスクはどれですか? 画像分類 マスクされた単語の予測(Masked Language Model, MLM) 文章の圧縮 音声認識 None 42. 順伝播型ネットワークにおいて、勾配降下法の「ミニバッチサイズ」を大きく設定した場合の利点はどれですか? モデルが過学習しやすくなる データの分散が大きくなる 勾配の更新が安定しやすくなり、収束速度が向上する可能性がある 訓練データがランダムに変更される None 43. 情報源符号化において、符号の平均長がエントロピーに等しいとき、どのような符号化が達成されていますか? 冗長な符号化 無駄のない最適な符号化 情報の損失を含む符号化 長すぎる符号化 None 44. 「セマンティックセグメンテーション」とは何を指しますか? 画像内の個別の物体を検出する 画像の各ピクセルにラベルを割り当て、物体の領域を予測する 画像の解像度を上げる 画像のノイズを除去する None 45. 順伝播型ネットワークにおいて、出力層で使用されるソフトマックス関数が持つ主な利点は何ですか? 2つのクラスのみを処理できる 出力を確率として解釈できるため、多クラス分類に適している 勾配爆発を防ぐ 重みの更新速度を遅くする None 46. セマンティックセグメンテーションにおいて、完全畳み込みネットワーク(Fully Convolutional Network, FCN)が導入された目的は何ですか? 画像の分類を行うため 画像のサイズを正規化するため ピクセル単位での予測を効率的に行うため 計算コストを削減するため None 47. セマンティックセグメンテーションにおいて、「DeepLab」モデルの特徴は何ですか? 単純なCNNを使用している 空間的ピラミッドプーリング(SPP)を採用し、異なるスケールでの特徴抽出を行う 全結合層を多用する モデルの深さが浅い None 48. 物体検出における「IoU(Intersection over Union)」とは何を表しますか? 学習率の調整 予測バウンディングボックスと正解バウンディングボックスの重なり度合い 畳み込み層のフィルタ数 物体の大きさを正規化する指標 None 49. 順伝播型ネットワークの最適化アルゴリズム「Adam」の特徴として正しいものはどれですか? 学習率を固定している 勾配の過去の動きを利用し、自動で学習率を調整する 高い学習率でも常に収束する 勾配を無視して重みを更新する None 50. L2正則化を導入した場合、モデルの重みに対してどのような効果がありますか? 重みがすべてゼロになる 大きな重みが抑制され、モデルがより滑らかになる 学習速度が向上する モデルの出力が倍増する None 51. セマンティックセグメンテーションにおいて、「CRF(Conditional Random Field)」が使用される主な理由は何ですか? セグメンテーション結果のスムーズさを向上させるため 学習速度を向上させるため モデルのパラメータ数を削減するため ピクセルごとのラベルを正規化するため None 52. ドロップアウトがリカレントニューラルネットワーク(RNN)に対して効果的な理由は何ですか? 過学習を防ぎ、ネットワークが長期間の依存関係を捉えるのを助ける 重みの初期化を行うため 訓練データのサイズを増加させるため 勾配消失を完全に防ぐため None 53. 物体検出モデルのトレーニングにおいて、精度向上のために「ハードネガティブマイニング」が使用される理由は何ですか? モデルのパラメータ数を削減するため 学習データの一部を無視するため モデルが誤検出しやすい難しいネガティブ例を重点的に学習するため ネガティブ例を削除して学習を効率化するため None 54. 正則化が効果を発揮する場面はどれですか? データセットが大規模であり、過学習のリスクが低い場合 モデルが過小適合している場合 損失関数が適切に収束していない場合 訓練データが少なく、モデルが過学習する場合 None 55. 機械学習において、交差検証を行う主な理由は何ですか? 訓練データの誤差を最小化するため テストデータをより有効に使うため モデルの過学習を防ぐため モデルのハイパーパラメータを最適化するため None 56. Faster R-CNNの特徴として正しいものはどれですか? 1ステージの物体検出アルゴリズムである YOLOよりも高速だが、精度は低い RPNを用いて物体の候補領域を生成する 物体の数に応じてニューラルネットワークを動的に構築する None 57. ある情報源が4つの異なる事象 {A, B, C, D} を等確率で生成する場合、この情報源のエントロピーはどれですか? 1ビット 2ビット 4ビット 8ビット None 58. 自然言語処理における「ネガティブサンプリング」の目的として正しいものはどれですか? モデルの計算速度を高速化するため 低頻度単語の重みを減少させるため 単語の埋め込みを計算する際、全単語を考慮せずに一部の単語だけを使用することで効率化するため ノイズの多いデータを除外するため None 59. Faster R-CNNにおいて、RPNで生成された候補領域(Region Proposals)の数が多すぎると、どのような影響が考えられますか? 検出精度が向上するが、計算コストが増加する 検出精度が低下し、計算コストも増加する 候補領域が多いほど、精度は一定のままで計算速度が向上する 候補領域が増えると、NMSの効果がなくなる None 60. 物体検出アルゴリズムであるYOLOのバージョン3(YOLOv3)の主な改良点として正しいものはどれですか? 1つの解像度でのみ予測を行う 異なるスケールで予測を行い、より小さな物体も検出できる 物体の位置情報のみを予測する RPNを使用して速度を改善した None 61. 勾配降下法において、学習率の役割は何ですか? 重みの初期値を設定するため モデルの複雑さを調整するため データのサイズを調整するため 重みの更新量を決定するため None 62. 「畳み込みカーネル(フィルタ)」が複数の層で共有される場合の利点は何ですか? モデルのパラメータ数が減少し、効率が向上する モデルが過学習しやすくなる 畳み込み演算が高速化される モデルの複雑さが増す None 63. 順伝播型ネットワークにおいて、バイアスユニットの役割は何ですか? 入力データのスケールを調整する モデルの複雑さを減らす 関数のオフセットを調整し、モデルがより多様な入力に対応できるようにする モデルの学習速度を向上させる None 64. YOLOv3では、どのようにして異なるサイズの物体を検出していますか? アンカーのサイズを増やす RPNを使用して異なるスケールを提案する 全ての物体を同じスケールで検出する 異なる解像度の3つのスケールで予測を行う None 65. 次のうち、ResNetにおいて使用されていない要素はどれですか? 残差ブロック スキップ接続 ドロップアウト バッチ正規化 None 66. ドロップアウト(Dropout)の役割は何ですか? ニューロンをランダムに無効化し、過学習を防ぐ モデルの学習率を調整する 勾配の更新を加速する データの正規化を行う None 67. 回帰分析において、目的変数が連続値である場合、適切な手法は次のどれですか? ロジスティック回帰 線形回帰 サポートベクターマシン K-最近傍法 None 68. KNN(K-Nearest Neighbors)アルゴリズムにおいて、K の値を大きく設定すると何が起こりますか? モデルのバイアスが大きくなり、過剰に単純化される可能性がある モデルがより過学習しやすくなる モデルの複雑さが増し、学習速度が低下する モデルの精度が常に向上する None 69. 次のうち、U-Netの主な応用先として正しいものはどれですか? 画像の分類 画像の拡大縮小 画像のセグメンテーション 画像の変換 None 70. 2つの独立した確率変数 X と Y の期待値 E(X) = 3, E(Y) = 5 のとき、X + Y の期待値はどれですか? 15 3 8 5 None 71. L2正則化とドロップアウトのどちらかを使用すべき場面として最も適切な状況はどれですか? データが非常に多く、過学習のリスクが低い場合 ニューラルネットワークの深さを増やしたい場合 モデルの訓練時間を短縮したい場合 データが少なく、過学習のリスクが高い場合 None 72. CNNにおいて、次のうち「バックプロパゲーション」を行う際に重要なプロセスはどれですか? 各フィルタの勾配を計算し、フィルタを更新する 出力層のノイズを削減する 活性化関数を変更する 入力データを拡張する None 73. a b c d None 74. CNNにおける「パディング」の主な目的は何ですか? 入力画像のサイズを増加させる 畳み込み演算後の出力サイズを保持するために入力データの周りをゼロで埋める 出力層での正規化を行う ニューロンの活性化を抑える None 75. 画像認識タスクで最も一般的に使用される損失関数はどれですか? 平均二乗誤差 クロスエントロピー誤差 ヒンジ損失 ハブ損失 None 76. ある通信路で、信号対雑音比 (SNR) が 20dB、帯域幅が 2kHz であるとき、シャノンの通信路容量はおよそどれですか? 20 kbps 26.6 kbps 13.3 kbps 40 kbps None 77. CNNにおいて、学習中に重みを更新する手法として一般的に使用されるのはどれですか? 勾配降下法(Gradient Descent) k-meansクラスタリング 主成分分析(PCA) サポートベクターマシン(SVM) None 78. CNNにおける「転移学習」の利点は何ですか? モデルの計算コストを削減できる 訓練済みモデルを利用することで、少ないデータでも高精度のモデルを得られる CNNのフィルタサイズを自動調整できる 重みの更新を省略できる None 79. 次のうち、「Self-Attention Mechanism」が使用される目的として最も適切なものはどれですか? 文全体の文脈を考慮し、各単語間の依存関係を効率的に捉えるため 文章を効率的に要約するため 単語の出現頻度を学習するため テキストデータを前処理するため None 80. シャノンの通信理論における「通信路容量」とは何ですか? 通信路で誤りなく伝送できる最大のデータ量 通信路で送信できる最大のエントロピー 通信路で使用できる最大の帯域幅 通信路の信号対雑音比 None 81. 「Mask R-CNN」の主な用途として正しいものはどれですか? 物体検出とセグメンテーションの両方を同時に行う 物体検出のみを行う 画像分類を行う 時系列データの解析を行う None 82. YOLOのような1ステージ物体検出アルゴリズムにおいて、バウンディングボックスの信頼度スコアが高いにもかかわらず誤検出が発生する原因として考えられる要素はどれですか? NMSの適用が不適切だった アンカーサイズが不適切だった 物体の位置が正確にラベル付けされていなかった フィルタサイズが小さすぎた None 83. ドロップアウト率を0.5に設定した場合、訓練時の挙動として正しいのはどれですか? 各訓練ステップで50%の重みがリセットされる ニューロンの出力が半減する 各訓練ステップでランダムに50%のニューロンが無効化される モデルの精度が常に向上する None 84. a b c d None 85. セマンティックセグメンテーションにおいて、バウンダリーピクセルの誤りを最小化するために効果的な手法はどれですか? データ拡張 スキップ接続 CRFによる後処理 ドロップアウト None 86. 「Transformer」がLSTMやGRUに比べて自然言語処理で優れている点として最も適切なものはどれですか? 時系列データの扱いが得意 計算コストが低い モデルの構造が単純である 並列計算が可能で、長いシーケンスも効率的に処理できる None 87. 「バッチ正規化」の主な目的は何ですか? データのスケールを均一にすることで、学習を安定させる 重みの初期化を行うため データを無作為に抽出するため モデルの複雑さを増加させるため None 88. セマンティックセグメンテーションとは何ですか? 画像内の個々の物体を検出する 画像の各ピクセルにクラスラベルを割り当てる 画像を前処理する手法 画像の解像度を上げるための手法 None 89. セマンティックセグメンテーションで、アトリウムネットワーク(Atrous Convolution)が使用される理由として最も適切なものはどれですか? 高解像度の特徴を維持しながら、広い受容野を確保するため 計算コストを削減するため 全結合層を減らすため モデルのサイズを縮小するため None 90. SSD(Single Shot Multibox Detector)の主な利点は何ですか? RPNを使用しないことで、物体検出が高速である 精度が非常に高いが、速度は遅い バウンディングボックスの候補が少ないため、計算負荷が低い 一度に1つの物体しか検出できない None 91. 順伝播型ネットワークでのバッチ正規化(Batch Normalization)の主な効果は何ですか? 訓練データの正規化を行い、データの分布を揃える 各層の出力を正規化し、学習の安定性を向上させる モデルの過学習を防ぐ モデルの重みをランダムに初期化する None 92. ニューラルネットワークの最適化で、重みの初期化方法として「He初期化」が特に有効な理由は何ですか? ReLUなどの非線形活性化関数を使用する場合、勾配消失問題を防ぐため 学習率を調整しやすくするため バッチサイズを減少させるため 出力層の精度を向上させるため None 93. 物体検出アルゴリズムにおいて、画像の解像度が非常に高い場合に注意すべき点はどれですか? 計算コストの増加と、細かい物体の誤検出 物体が見つからない モデルのパラメータ数が減少する 検出結果が一貫しなくなる None 94. 独立な事象 A と B の同時発生確率は、次のうちどれですか? P(A) + P(B) P(A | B) × P(B) P(A) - P(B) P(A) × P(B) None 95. 畳み込みニューラルネットワークにおける「フィルタ(カーネル)」のサイズが大きくなると、何が起こりますか? モデルが捉える特徴がより大きな範囲に渡る モデルが過学習しやすくなる モデルの計算量が減少する ニューロンの数が増加する None 96. ニューラルネットワークにおける「勾配消失問題」とは何ですか? 訓練データが不足する現象 勾配が増大しすぎる現象 勾配が極端に小さくなり、重みが更新されなくなる現象 訓練データに対する誤差が無限大になる現象 None 97. 順伝播型ネットワークにおけるドロップアウト率が高すぎる場合、どのような影響がありますか? モデルが過学習しやすくなる モデルの重みがゼロに収束する モデルの精度が向上する モデルの学習が困難になり、収束しない可能性がある None 98. CNNにおいて、フィルタ(カーネル)の役割は何ですか? 特徴マップの次元を減らす 入力画像から特徴を抽出する モデルの精度を低下させる データのノイズを増やす None 99. CNNの「パディング」が重要な理由は何ですか? 畳み込み演算後の出力サイズを調整し、特徴の損失を防ぐため フィルタサイズを変更するため モデルの重みを自動更新するため データを無作為に削除するため None 100. モデルの汎化性能を向上させるために、L2正則化とドロップアウトを組み合わせる理由は何ですか? モデルの複雑さを抑え、過学習を防ぐため モデルの学習速度を上げるため 重みを無作為に更新するため モデルの出力を正規化するため None Time's up