E資格~模擬試験①~ 2024年12月7日2024年12月7日 ailearn 1. 条件付き確率 P(A | B) の定義はどれですか? P(A) × P(B) P(A) / P(B) P(A ∩ B) / P(B) P(A) - P(B) None 2. a b c d None 3. セマンティックセグメンテーションにおいて、Encoder-Decoderアーキテクチャの利点として正しいものはどれですか? 学習データを減らすことができる 予測速度を上げることができる 複雑なオブジェクトのセグメンテーションに有効である モデルの精度を犠牲にする None 4. カイ二乗分布はどのような場面で使用されますか? 分散の検定や独立性の検定に使用される 平均の差を検定するとき 相関係数を計算するとき 標本の大きさを決定するとき None 5. 機械学習モデルの評価指標である「精度(accuracy)」は何を意味しますか? モデルが正しく分類したデータの割合 モデルの複雑さ モデルが学習したデータの量 モデルの訓練速度 None 6. セマンティックセグメンテーションとは何ですか? 画像内の個々の物体を検出する 画像の各ピクセルにクラスラベルを割り当てる 画像を前処理する手法 画像の解像度を上げるための手法 None 7. KNN(K-Nearest Neighbors)アルゴリズムにおいて、K の値を大きく設定すると何が起こりますか? モデルのバイアスが大きくなり、過剰に単純化される可能性がある モデルがより過学習しやすくなる モデルの複雑さが増し、学習速度が低下する モデルの精度が常に向上する None 8. 自然言語処理において「ELMo(Embeddings from Language Models)」の最大の特徴は何ですか? 単方向の文脈を考慮する 双方向の文脈を考慮し、動的な単語埋め込みを生成する 単語の出現頻度に基づいてベクトルを生成する 計算コストが非常に低い None 9. 機械学習において、交差検証を行う主な理由は何ですか? 訓練データの誤差を最小化するため テストデータをより有効に使うため モデルの過学習を防ぐため モデルのハイパーパラメータを最適化するため None 10. ニューラルネットワークの学習において、「重みの初期化」が適切でないと、どのような現象が発生する可能性が最も高いですか? 学習速度が非常に速くなる 勾配消失や勾配爆発が発生し、モデルの学習が進まなくなる モデルが常に最適解に収束する 学習が停止してしまう None 11. 自然言語処理における「ネガティブサンプリング」の目的として正しいものはどれですか? モデルの計算速度を高速化するため 低頻度単語の重みを減少させるため 単語の埋め込みを計算する際、全単語を考慮せずに一部の単語だけを使用することで効率化するため ノイズの多いデータを除外するため None 12. ニューラルネットワークの訓練において、「重みの初期化」が重要な理由は何ですか? 適切な初期化を行わないと、勾配消失問題や勾配爆発が発生しやすくなるため 重みがランダムでないとモデルが過学習するため 重みの初期化が適切でないと、学習率が収束しないため 重みを初期化しないと、モデルの計算ができないため None 13. 勾配降下法の「アダグラード(Adagrad)」アルゴリズムが効果的な場合はどれですか? データのクラス数が非常に多い場合 モデルが深層ニューラルネットワークの場合 クラスごとのデータが均一である場合 特徴量ごとのスケールが大きく異なる場合 None 14. L2正則化とドロップアウトのどちらかを使用すべき場面として最も適切な状況はどれですか? データが非常に多く、過学習のリスクが低い場合 ニューラルネットワークの深さを増やしたい場合 モデルの訓練時間を短縮したい場合 データが少なく、過学習のリスクが高い場合 None 15. Faster R-CNNにおいて、RPNで生成された候補領域(Region Proposals)の数が多すぎると、どのような影響が考えられますか? 検出精度が向上するが、計算コストが増加する 検出精度が低下し、計算コストも増加する 候補領域が多いほど、精度は一定のままで計算速度が向上する 候補領域が増えると、NMSの効果がなくなる None 16. 符号化定理に基づき、帯域幅 B と通信路容量 C の関係に影響を与える要因は何ですか? 信号対雑音比 (SNR) データの種類 情報源のエントロピー 通信プロトコル None 17. PCA(主成分分析)の主な目的は何ですか? データの分類精度を高めること 高次元データを低次元に変換し、データの重要な情報を保持しつつ次元削減を行うこと データのクラスラベルを予測すること データのクラスタを見つけること None 18. モデルにおいて、L2正則化を導入することでどのような効果が得られますか? モデルの複雑さを増やし、データに適合させる 重みがすべてゼロになる モデルの複雑さを抑え、過学習を防ぐ ニューロンの数を増加させる None 19. 強化学習における「Q学習」の目的は何ですか? データのラベルを予測すること 次元削減を行うこと モデルのバイアスを減らすこと すべての状態と行動の組み合わせに対して最適な価値を学習すること None 20. 雑音が含まれる通信路において、符号化率 R が通信路容量 C より小さい場合、次のうち正しい記述はどれですか? 伝送誤りが発生する 通信が誤りなく行われる 通信が停止する データの圧縮率が向上する None 21. 次のうち、「Self-Attention Mechanism」が使用される目的として最も適切なものはどれですか? 文全体の文脈を考慮し、各単語間の依存関係を効率的に捉えるため 文章を効率的に要約するため 単語の出現頻度を学習するため テキストデータを前処理するため None 22. 正規分布 N(0, 1) の上で、z スコアが -1.96 から 1.96 の範囲に入る確率はおよそどれですか? 0.68 0.99 0.50 0.95 None 23. プーリング層の主な役割は何ですか? パラメータの数を増やす 画像の解像度を高める 特徴マップの次元を縮小し、計算量を削減する 画像の色調を調整する None 24. 次のうち、BERTのトレーニングに使用される主なタスクはどれですか? 画像分類 マスクされた単語の予測(Masked Language Model, MLM) 文章の圧縮 音声認識 None 25. SSD(Single Shot Multibox Detector)の主な利点は何ですか? RPNを使用しないことで、物体検出が高速である 精度が非常に高いが、速度は遅い バウンディングボックスの候補が少ないため、計算負荷が低い 一度に1つの物体しか検出できない None 26. a b c d None 27. シャノンの定理に基づき、ある通信路の容量が C = 10 kbps、信号対雑音比 (SNR) が 30 dB であるとき、この通信路の帯域幅はおよそどれですか? 500 Hz 1 kHz 2 kHz 5 kHz None 28. 「セマンティックセグメンテーション」とは何を指しますか? 画像内の個別の物体を検出する 画像の各ピクセルにラベルを割り当て、物体の領域を予測する 画像の解像度を上げる 画像のノイズを除去する None 29. 「Transformer」がLSTMやGRUに比べて自然言語処理で優れている点として最も適切なものはどれですか? 時系列データの扱いが得意 計算コストが低い モデルの構造が単純である 並列計算が可能で、長いシーケンスも効率的に処理できる None 30. CNNにおける「ソフトマックス関数」の役割は何ですか? ニューラルネットワークの全てのニューロンを活性化する データを正規化する データの次元を削減する 出力層において、複数クラスの分類を確率として出力する None 31. ミニバッチ勾配降下法(Mini-batch Gradient Descent)はどのような手法ですか? 訓練データ全体を使用して一度に学習する手法 データセット全体を小さなバッチに分割し、それぞれで勾配を計算して学習する手法 データを1つずつ順番に使って学習する手法 勾配を無視して重みを更新する手法 None 32. 「ImageNet」の役割として正しいものはどれですか? 画像の生成 画像のノイズ除去 画像の圧縮 大規模な画像認識データセットと、事前学習済みモデルの基盤を提供する None 33. CNNモデルにおいて、過学習を防ぐために広く用いられるテクニックはどれですか? ドロップアウト バッチ正規化 プーリング 活性化関数の変更 None 34. 順伝播型ネットワークにおける活性化関数「シグモイド関数」が深層学習であまり使われない理由は何ですか? 勾配消失問題を引き起こしやすいため 勾配爆発を引き起こすため 計算コストが高いため 非線形性が低いため None 35. セマンティックセグメンテーションにおいて、「ピクセルワイズソフトマックス(Pixel-wise Softmax)」が必要とされる理由は何ですか? 画像全体に同一のラベルを割り当てるため モデルの出力を正規化するため デコーダー部分での計算コストを削減するため 各ピクセルごとにクラス確率を計算し、最も高いクラスを予測するため None 36. 次のうち、セマンティックセグメンテーションで頻繁に使用される「Skip Connection」の役割として正しいものはどれですか? ネットワークの計算速度を向上させる エンコーダーからデコーダーに直接特徴を伝達し、詳細情報を補完する ピクセルごとの分類精度を下げる モデルのパラメータ数を減らす None 37. 畳み込みニューラルネットワーク(CNN)で一般的に使用されるプーリング層の目的は何ですか? データの空間次元を削減し、モデルの計算量を抑えるため データの正規化を行うため 入力画像を拡大するため 重みを更新するため None 38. 次のうち、セマンティックセグメンテーションにおいて「パッチベースのアプローチ」が適しているシナリオはどれですか? リアルタイム予測が必要な場合 単純なオブジェクト分類 高解像度の大規模画像のセグメンテーション 計算リソースが限られている場合 None 39. a b c d None 40. a b c d None 41. 物体検出における「IoU(Intersection over Union)」とは何を表しますか? 学習率の調整 予測バウンディングボックスと正解バウンディングボックスの重なり度合い 畳み込み層のフィルタ数 物体の大きさを正規化する指標 None 42. サポートベクターマシン(SVM)はどのような問題に使用されますか? 主に回帰問題 主にクラスタリング問題 主に分類問題 主に次元削減問題 None 43. 物体検出において、1枚の画像に複数の物体を検出する手法として、最もよく使われる手法はどれですか? YOLO CNN LSTM RNN None 44. ドロップアウト(Dropout)の主な役割は何ですか? 訓練中にニューロンをランダムに無効化することで、過学習を防ぐ 学習率を自動調整する 訓練データの一部を削除する モデルの精度を向上させるためにニューロンを追加する None 45. CNNの「畳み込みフィルタの数」を増やすと、モデルにどのような影響がありますか? モデルの学習速度が大幅に低下する モデルが捉える特徴の種類が増加し、精度が向上する可能性がある モデルが過学習しやすくなる ニューロンが無効化される None 46. 次のうち、U-Netの主な応用先として正しいものはどれですか? 画像の分類 画像の拡大縮小 画像のセグメンテーション 画像の変換 None 47. アダム(Adam)最適化アルゴリズムはどのような特徴を持っていますか? 定数学習率を使用する 勾配の過去の動きに基づいて学習率を自動で調整する 常に学習速度を遅くする 損失関数の形状に依存しない None 48. 勾配降下法における「学習率」が大きすぎると何が起こりますか? モデルが過学習する 損失関数が最適な値に急速に収束する 損失関数が最適な値に収束せず、振動する 勾配が爆発し、学習が停止する None 49. 物体検出タスクにおいて、精度と速度のバランスが取れているモデルとして知られているのはどれですか? ResNet Faster R-CNN VGG16 YOLO None 50. CNNにおける「ストライド」とは何ですか? プーリング層でのデータ抽出範囲 重みの更新方法 フィルタが畳み込む際の移動距離 活性化関数の種類 None 51. 次のうち、画像認識モデルでよく使われる「データ拡張」の技術に含まれないものはどれですか? 画像の回転 画像の平滑化 画像の拡大縮小 画像の反転 None 52. BERT(Bidirectional Encoder Representations from Transformers)の最大の特徴は何ですか? 単方向の文脈を捉える 画像認識に特化している 単語の出現頻度を考慮する 双方向の文脈を捉える None 53. CNNで使用される「バッチ正規化(Batch Normalization)」の主な効果は何ですか? データを無作為に抽出する 重みをゼロにリセットする ニューロンをランダムに無効化する 畳み込み層での出力を正規化し、学習を安定させる None 54. バッチ正規化(Batch Normalization)が勾配消失問題に対して効果的な理由は何ですか? ニューロンの出力を無効化するため モデルの重みをゼロにするため 各層の出力を正規化することで、勾配が消失しにくくなるため 学習率を動的に調整するため None 55. 順伝播型ネットワークにおいて、勾配降下法の「ミニバッチサイズ」を大きく設定した場合の利点はどれですか? モデルが過学習しやすくなる データの分散が大きくなる 勾配の更新が安定しやすくなり、収束速度が向上する可能性がある 訓練データがランダムに変更される None 56. 中心極限定理が示す内容として最も正しいのはどれですか? 標本のサイズを大きくすると、標本平均の分布が正規分布に近づく 標本のサイズを大きくすると、データはすべてゼロに収束する 標本の分散は無限に増大する 標本の標準偏差はすべて同じになる None 57. セマンティックセグメンテーションにおいて、「CRF(Conditional Random Field)」が使用される主な理由は何ですか? セグメンテーション結果のスムーズさを向上させるため 学習速度を向上させるため モデルのパラメータ数を削減するため ピクセルごとのラベルを正規化するため None 58. セマンティックセグメンテーションにおいて、完全畳み込みネットワーク(Fully Convolutional Network, FCN)が導入された目的は何ですか? 画像の分類を行うため 画像のサイズを正規化するため ピクセル単位での予測を効率的に行うため 計算コストを削減するため None 59. 最適化手法の1つである「モーメンタム法」の主な目的は何ですか? 勾配の振動を抑え、学習を加速するため モデルの複雑さを抑えるため 勾配爆発を防ぐため モデルの損失を増やすため None 60. セマンティックセグメンテーションにおける「U-Net」の特徴は何ですか? 画像分類に特化したネットワーク ピクセルレベルのセグメンテーションを行うネットワーク 画像の解像度を下げるためのネットワーク 時系列データを扱うネットワーク None 61. 決定木モデルにおいて、エントロピーが最も低い分割の重要性は何ですか? データの分散を最大化するため 分割後の不確実性が最も低くなるため、より純粋なグループが得られる モデルの複雑さを減少させるため 決定木の深さを増やすため None 62. ドロップアウトを使用する主な理由はどれですか? 学習速度を上げるため モデルのパラメータ数を増やすため モデルの汎化性能を向上させるため モデルの誤差を最小化するため None 63. セマンティックセグメンテーションにおいて、評価指標として使用される「IoU(Intersection over Union)」とは何を表しますか? 予測された領域と正解領域の重なり具合を評価する指標 画像の解像度を表す指標 モデルの精度を評価する指標 計算コストを表す指標 None 64. 次のうち、畳み込みニューラルネットワーク(CNN)の学習において、画像の「正規化」の目的は何ですか? 画像の色調を揃える 画像の詳細を強調する 出力を拡大する 学習の安定化と勾配消失問題の軽減 None 65. セマンティックセグメンテーションにおいて、「アップサンプリング」はどの段階で行われますか? 特徴抽出の前 エンコーダー部分で デコーダー部分で モデルの出力層で None 66. 情報圧縮におけるハフマン符号の役割は何ですか? データのエントロピーを減らす データを効率的に符号化するために最適な可変長符号を生成する データを復元する データをランダムに並べ替える None 67. 自然言語処理において「Attention Mechanism」の役割は何ですか? 単語の重要度を測定し、重要な単語に焦点を当てる 単語の出現頻度を学習する 文全体の長さを調整する 文章の要約を行う None 68. 機械学習において、L2正則化(リッジ回帰)が効果的な理由として最も適切なのはどれですか? モデルのパラメータをより複雑にするため モデルのパラメータに対するペナルティを課し、過学習を防ぐため データを正規化するため 学習速度を上げるため None 69. 順伝播型ネットワークの出力層でよく使用される活性化関数は次のうちどれですか? ReLU シグモイド関数 ソフトマックス関数 タンジェント関数 None 70. 情報理論における「無記憶(メモリーレス)通信路」とは何ですか? 通信路が過去の入力に依存しない通信路 データが記録されない通信路 情報を保存しない通信路 通信中にデータが消失する通信路 None 71. 順伝播型ネットワークにおいて、重みの初期化が不適切な場合、学習にどのような影響がありますか? 学習が全く行われない モデルの学習速度が極端に遅くなるか、適切に収束しない モデルがすべてのデータを無視する モデルの重みが自動で調整される None 72. ロジスティック回帰において、シグモイド関数の役割は何ですか? 線形回帰の誤差を最小化するため モデルの複雑さを抑えるため データを正規化するため 予測値を確率に変換するため None 73. 順伝播型ネットワークにおけるドロップアウト(Dropout)の役割は何ですか? ニューロンをランダムに無効化して過学習を防ぐ 学習率を調整する 訓練データの一部を削除する モデルの精度を向上させるためにニューロンを追加する None 74. セマンティックセグメンテーションで、アトリウムネットワーク(Atrous Convolution)が使用される理由として最も適切なものはどれですか? 高解像度の特徴を維持しながら、広い受容野を確保するため 計算コストを削減するため 全結合層を減らすため モデルのサイズを縮小するため None 75. 「Fine-Tuning(ファインチューニング)」の効果として最も適切なものはどれですか? モデル全体をゼロから再学習する 事前学習済みモデルを新しいタスクに適応させる 学習データを増加させる モデルのサイズを削減する None 76. 「アダム(Adam)」最適化アルゴリズムにおけるバイアス補正の役割は何ですか? 勾配の過大評価を防ぐため モデルの重みを固定するため 損失関数を補正するため 勾配の初期段階での過小評価を防ぎ、より正確な更新を行うため None 77. セマンティックセグメンテーションモデルにおいて、Skip Connectionを導入することによる効果として正しいものはどれですか? モデルの計算負荷を増加させるが、精度は変わらない モデルの精度を向上させ、詳細な特徴を保持する モデルの学習速度が著しく低下する 全結合層を追加する必要がある None 78. 画像認識における「転移学習」の利点として正しいものはどれですか? 学習をゼロから行う モデルの構造を変更する 学習率を高める 少ないデータでも高い精度を実現できる None 79. 順伝播型ニューラルネットワークで、ドロップアウト率を適切に設定する理由は何ですか? 過学習を防ぎつつ、モデルの精度を維持するため 勾配の爆発を防ぐため モデルの複雑さを減少させるため モデルの精度を向上させるため None 80. 「RNN(Recurrent Neural Network)」が自然言語処理においてよく使用される理由として正しいものはどれですか? 単語の順序を無視する 計算コストが非常に低い シーケンスデータを処理でき、過去の情報を保持できる 単語の関係性を学習できない None 81. CNNにおいて「ReLU(Rectified Linear Unit)」が活性化関数として好まれる理由は何ですか? 出力が常に0になるため 勾配の爆発を防ぐため 計算が簡単で、勾配消失問題を軽減できるため データを正規化するため None 82. 物体検出における「アンカー(Anchor)」の役割は何ですか? 画像を小さく分割する バウンディングボックスの初期候補を提供する 物体のサイズを正規化する 出力層の勾配を安定化させる None 83. セマンティックセグメンテーションにおいて、「DeepLab」モデルの特徴は何ですか? 単純なCNNを使用している 空間的ピラミッドプーリング(SPP)を採用し、異なるスケールでの特徴抽出を行う 全結合層を多用する モデルの深さが浅い None 84. Faster R-CNNの特徴として正しいものはどれですか? 1ステージの物体検出アルゴリズムである YOLOよりも高速だが、精度は低い RPNを用いて物体の候補領域を生成する 物体の数に応じてニューラルネットワークを動的に構築する None 85. 自然言語処理において「シーケンス・トゥ・シーケンス(Seq2Seq)」モデルがよく使用されるタスクはどれですか? 画像認識 音声認識 自動翻訳 データ前処理 None 86. 次のうち、自然言語処理において「Word2Vec」で学習されるものは何ですか? 単語のベクトル表現 文全体の意味 単語の出現頻度 単語の順序 None 87. 物体検出モデルにおいて「マルチスケール予測」とは何ですか? 物体を異なるスケールで検出する手法 物体を異なる解像度で分類する手法 学習データを複数のスケールで処理する手法 モデルを異なる学習率で訓練する手法 None 88. 順伝播型ネットワークにおける「ミニバッチ学習」とは何ですか? 全ての訓練データを一度にモデルに入力する手法 訓練データを少数のサブセットに分け、それぞれで学習を行う手法 訓練データをランダムに並べ替える手法 訓練データを正規化する手法 None 89. a b c d None 90. セマンティックセグメンテーションにおいてよく使用される損失関数はどれですか? 平均二乗誤差 クロスエントロピー損失 ヒンジ損失 ハブ損失 None 91. ニューラルネットワークの最適化で、重みの初期化方法として「He初期化」が特に有効な理由は何ですか? ReLUなどの非線形活性化関数を使用する場合、勾配消失問題を防ぐため 学習率を調整しやすくするため バッチサイズを減少させるため 出力層の精度を向上させるため None 92. セマンティックセグメンテーションにおける「ダウンサンプリング」とは何ですか? 画像の解像度を高めること 画像の次元を増加させること 画像をスケールアップすること 画像の特徴を圧縮し、情報を要約すること None 93. 順伝播型ネットワークにおいて、ReLU関数が活性化関数として好まれる理由は次のうちどれですか? 負の値に対しても出力があるため すべての出力が1になるため モデルの重みを正規化するため 勾配消失問題を軽減できるため None 94. a b c d None 95. 物体検出タスクで使用される「RPN(Region Proposal Network)」の目的は何ですか? 画像から物体領域の候補を抽出する 画像のノイズを除去する 物体のラベルを分類する 画像のサイズを調整する None 96. 「Global Average Pooling」が用いられる目的は何ですか? 全結合層をなくし、モデルの過学習を防ぐ 入力データを正規化する モデルの計算コストを増やす 活性化関数を調整する None 97. RMSPropの特徴は何ですか? 勾配の二乗平均を使用して学習率を調整する 一定の学習率で更新を行う モデルの重みをランダムに更新する 過去の重みを使用しない None 98. 物体検出において、マルチスケール特徴マップを利用するモデルの利点として正しいものはどれですか? 計算コストを削減できる データ拡張が不要になる モデルが深くなるため精度が低下する 小さな物体や大きな物体の両方を検出できる None 99. ドロップアウトとL2正則化の主な違いは何ですか? ドロップアウトはランダムにニューロンを無効化し、L2正則化は重みにペナルティを課す ドロップアウトは重みにペナルティを課し、L2正則化はニューロンを無効化する 両方ともモデルの複雑さを増加させる 両方とも重みをゼロにする None 100. 次のうち、BERTやGPTなどの事前学習済みモデルを特定のタスクに適応させるための技術はどれですか? ドメイン適応 ファインチューニング クロスバリデーション データ拡張 None Time's up