E資格~模擬試験①~ 2024年12月7日2024年12月7日 ailearn 1. 物体検出における「平均適合率(mAP: mean Average Precision)」とは何を指しますか? モデルの学習速度を測定する指標 モデルの誤差を評価する指標 モデルの検出速度を評価する指標 モデルが異なるクラスの物体を検出する際の精度を平均した指標 None 2. RMSPropの特徴は何ですか? 勾配の二乗平均を使用して学習率を調整する 一定の学習率で更新を行う モデルの重みをランダムに更新する 過去の重みを使用しない None 3. 確率の定義において、サンプルスペース(標本空間)とは何ですか? 発生しうる全ての結果の集合 確率が0になる事象の集合 予想される結果の集合 可能な事象の一部を集めたもの None 4. ニューラルネットワークの訓練において、「重みの初期化」が重要な理由は何ですか? 適切な初期化を行わないと、勾配消失問題や勾配爆発が発生しやすくなるため 重みがランダムでないとモデルが過学習するため 重みの初期化が適切でないと、学習率が収束しないため 重みを初期化しないと、モデルの計算ができないため None 5. エントロピー H(X) = 2.5 のとき、この情報源の平均情報量はどれですか? 2.5ビット 5ビット 10ビット 1.25ビット None 6. 機械学習モデルの評価指標である「精度(accuracy)」は何を意味しますか? モデルが正しく分類したデータの割合 モデルの複雑さ モデルが学習したデータの量 モデルの訓練速度 None 7. 自然言語処理において、テキストデータの前処理として一般的に行われる「トークン化」とは何を指しますか? テキストをエンコードする テキストを単語や文に分割する テキストを辞書に変換する テキストを圧縮する None 8. CNNモデルにおいて、過学習を防ぐために広く用いられるテクニックはどれですか? ドロップアウト バッチ正規化 プーリング 活性化関数の変更 None 9. 情報理論における「相互情報量」とは何を意味しますか? 2つの変数がどれだけ同時に発生するかを示す 2つのデータセット間の距離 2つの確率変数間で共有される情報量 情報量を圧縮する際の削減率 None 10. A、B という2つの事象が互いに独立であるとき、P(A) = 0.3, P(B) = 0.4 のとき、A か B の少なくとも1つが起こる確率はどれですか? 0.12 0.58 0.70 0.10 None 11. L2正則化を導入した場合、モデルの重みに対してどのような効果がありますか? 重みがすべてゼロになる 大きな重みが抑制され、モデルがより滑らかになる 学習速度が向上する モデルの出力が倍増する None 12. アダム(Adam)の利点として正しいものはどれですか? すべての学習問題で最高のパフォーマンスを発揮する 学習率を手動で調整する必要がない 勾配の過去の値に基づいて学習率を自動調整し、効率的に学習する どのような損失関数にも適用できる None 13. 情報圧縮におけるハフマン符号の役割は何ですか? データのエントロピーを減らす データを効率的に符号化するために最適な可変長符号を生成する データを復元する データをランダムに並べ替える None 14. ニューラルネットワークにおける「勾配消失問題」とは何ですか? 訓練データが不足する現象 勾配が増大しすぎる現象 勾配が極端に小さくなり、重みが更新されなくなる現象 訓練データに対する誤差が無限大になる現象 None 15. 順伝播型ネットワークにおける「ミニバッチ学習」とは何ですか? 全ての訓練データを一度にモデルに入力する手法 訓練データを少数のサブセットに分け、それぞれで学習を行う手法 訓練データをランダムに並べ替える手法 訓練データを正規化する手法 None 16. 順伝播型ネットワークでの重み更新のための典型的な手法は次のうちどれですか? 勾配降下法 k-means法 主成分分析 ブートストラップ法 None 17. L1正則化とL2正則化を組み合わせた「Elastic Net」が特に有効な場面はどれですか? モデルの学習速度を上げたい場合 特徴量が多く、スパースな解を得たい場合 重みがすべてゼロになる場合 勾配消失問題を完全に防ぎたい場合 None 18. セマンティックセグメンテーションで、アトリウムネットワーク(Atrous Convolution)が使用される理由として最も適切なものはどれですか? 高解像度の特徴を維持しながら、広い受容野を確保するため 計算コストを削減するため 全結合層を減らすため モデルのサイズを縮小するため None 19. ResNetで導入された「スキップ接続(Skip Connection)」の主な目的は何ですか? モデルの計算コストを削減する モデルのパラメータ数を増やす 勾配消失問題を軽減し、非常に深いネットワークでも学習を可能にする 入力データを強化する None 20. PCA(主成分分析)の主な目的は何ですか? データの分類精度を高めること 高次元データを低次元に変換し、データの重要な情報を保持しつつ次元削減を行うこと データのクラスラベルを予測すること データのクラスタを見つけること None 21. L1正則化(ラッソ回帰)の特徴として正しいものはどれですか? モデルの重みがゼロになることがある 重みが減少するが、ゼロにはならない 勾配を一定に保つ モデルの精度を低下させる None 22. セマンティックセグメンテーションにおいて、バウンダリーピクセルの誤りを最小化するために効果的な手法はどれですか? データ拡張 スキップ接続 CRFによる後処理 ドロップアウト None 23. セマンティックセグメンテーションにおける「クラス不均衡」を解決するために使用される手法はどれですか? 学習率の増加 データ拡張 クラス重み付け クロスバリデーション None 24. 「セマンティックセグメンテーション」とは何を指しますか? 画像内の個別の物体を検出する 画像の各ピクセルにラベルを割り当て、物体の領域を予測する 画像の解像度を上げる 画像のノイズを除去する None 25. モデルにおいて、L2正則化を導入することでどのような効果が得られますか? モデルの複雑さを増やし、データに適合させる 重みがすべてゼロになる モデルの複雑さを抑え、過学習を防ぐ ニューロンの数を増加させる None 26. 次の中で、BERTとGPTの主な違いとして正しいものはどれですか? BERTは双方向、GPTは一方向の文脈を学習する BERTは文章生成に特化しており、GPTは文章理解に特化している BERTは主に画像認識で使用され、GPTは音声認識で使用される BERTは小規模データで学習され、GPTは大規模データで学習される None 27. 「バッチ正規化」の主な目的は何ですか? データのスケールを均一にすることで、学習を安定させる 重みの初期化を行うため データを無作為に抽出するため モデルの複雑さを増加させるため None 28. 次のうち、セマンティックセグメンテーションで頻繁に使用される「Skip Connection」の役割として正しいものはどれですか? ネットワークの計算速度を向上させる エンコーダーからデコーダーに直接特徴を伝達し、詳細情報を補完する ピクセルごとの分類精度を下げる モデルのパラメータ数を減らす None 29. 正規分布 N(0, 1) の上で、z スコアが -1.96 から 1.96 の範囲に入る確率はおよそどれですか? 0.68 0.99 0.50 0.95 None 30. 次のうち、セマンティックセグメンテーションにおいて「パッチベースのアプローチ」が適しているシナリオはどれですか? リアルタイム予測が必要な場合 単純なオブジェクト分類 高解像度の大規模画像のセグメンテーション 計算リソースが限られている場合 None 31. ニューラルネットワークの最適化で、重みの初期化方法として「He初期化」が特に有効な理由は何ですか? ReLUなどの非線形活性化関数を使用する場合、勾配消失問題を防ぐため 学習率を調整しやすくするため バッチサイズを減少させるため 出力層の精度を向上させるため None 32. エントロピー符号化の目的は何ですか? データの信頼性を向上させること データの不確実性を増やすこと エントロピーに基づいて、情報量に応じた符号を割り当てることで、データの圧縮率を高めること データの雑音を増やすこと None 33. 独立な事象 A と B の同時発生確率は、次のうちどれですか? P(A) + P(B) P(A | B) × P(B) P(A) - P(B) P(A) × P(B) None 34. 「ImageNet」の役割として正しいものはどれですか? 画像の生成 画像のノイズ除去 画像の圧縮 大規模な画像認識データセットと、事前学習済みモデルの基盤を提供する None 35. 「RNN(Recurrent Neural Network)」が自然言語処理においてよく使用される理由として正しいものはどれですか? 単語の順序を無視する 計算コストが非常に低い シーケンスデータを処理でき、過去の情報を保持できる 単語の関係性を学習できない None 36. 順伝播型ネットワークにおいて、勾配降下法の「ミニバッチサイズ」を大きく設定した場合の利点はどれですか? モデルが過学習しやすくなる データの分散が大きくなる 勾配の更新が安定しやすくなり、収束速度が向上する可能性がある 訓練データがランダムに変更される None 37. CNNにおける「ソフトマックス関数」の役割は何ですか? ニューラルネットワークの全てのニューロンを活性化する データを正規化する データの次元を削減する 出力層において、複数クラスの分類を確率として出力する None 38. 順伝播型ニューラルネットワークにおけるL1正則化の効果はどれですか? 重みの一部がゼロになり、特徴量選択の役割を果たす 重みの絶対値がすべて減少する モデルの訓練速度が遅くなる モデルが過学習しやすくなる None 39. 物体検出において「バックボーンネットワーク」の役割として正しいものはどれですか? 物体の分類を行う 画像から特徴を抽出する バウンディングボックスを生成する 出力層を設計する None 40. 順伝播型ネットワークにおいて、ReLU関数が活性化関数として好まれる理由は次のうちどれですか? 負の値に対しても出力があるため すべての出力が1になるため モデルの重みを正規化するため 勾配消失問題を軽減できるため None 41. ドロップアウト(Dropout)の役割は何ですか? モデルの精度を向上させるためにニューロンを追加する モデルの重みをランダムに変更する ニューロンをランダムに無効化することで、過学習を防ぐ 重みを初期化する None 42. 符号化における「冗長性」とは何を意味しますか? 情報を追加することでデータの信頼性を高めること 符号化したデータの長さを最小化すること 情報量が最小になるようにデータを圧縮すること 必要以上に多くのビットで符号化されている部分 None 43. 勾配降下法における「学習率」が大きすぎると何が起こりますか? モデルが過学習する 損失関数が最適な値に急速に収束する 損失関数が最適な値に収束せず、振動する 勾配が爆発し、学習が停止する None 44. 次のうち、畳み込みニューラルネットワーク(CNN)の学習において、画像の「正規化」の目的は何ですか? 画像の色調を揃える 画像の詳細を強調する 出力を拡大する 学習の安定化と勾配消失問題の軽減 None 45. ドロップアウトとL2正則化の主な違いは何ですか? ドロップアウトはランダムにニューロンを無効化し、L2正則化は重みにペナルティを課す ドロップアウトは重みにペナルティを課し、L2正則化はニューロンを無効化する 両方ともモデルの複雑さを増加させる 両方とも重みをゼロにする None 46. a b c d None 47. セマンティックセグメンテーションにおいて、「CRF(Conditional Random Field)」が使用される主な理由は何ですか? セグメンテーション結果のスムーズさを向上させるため 学習速度を向上させるため モデルのパラメータ数を削減するため ピクセルごとのラベルを正規化するため None 48. 「Fine-Tuning(ファインチューニング)」の効果として最も適切なものはどれですか? モデル全体をゼロから再学習する 事前学習済みモデルを新しいタスクに適応させる 学習データを増加させる モデルのサイズを削減する None 49. セマンティックセグメンテーションにおいて、「DeepLab」モデルの特徴は何ですか? 単純なCNNを使用している 空間的ピラミッドプーリング(SPP)を採用し、異なるスケールでの特徴抽出を行う 全結合層を多用する モデルの深さが浅い None 50. 「Mask R-CNN」の主な用途として正しいものはどれですか? 物体検出とセグメンテーションの両方を同時に行う 物体検出のみを行う 画像分類を行う 時系列データの解析を行う None 51. 「誤り訂正符号」とは何ですか? 情報を圧縮するための符号 通信速度を向上させるための符号 データに冗長性を追加し、誤りを検出し修正できる符号 データの圧縮率を向上させる符号 None 52. モデルの汎化性能を向上させるために、L2正則化とドロップアウトを組み合わせる理由は何ですか? モデルの複雑さを抑え、過学習を防ぐため モデルの学習速度を上げるため 重みを無作為に更新するため モデルの出力を正規化するため None 53. 順伝播型ネットワークにおいて、出力層にシグモイド関数を使用する場合、どのような状況が適していますか? 回帰問題 2クラス分類問題 多クラス分類問題 次元削減問題 None 54. L2正則化とドロップアウトのどちらかを使用すべき場面として最も適切な状況はどれですか? データが非常に多く、過学習のリスクが低い場合 ニューラルネットワークの深さを増やしたい場合 モデルの訓練時間を短縮したい場合 データが少なく、過学習のリスクが高い場合 None 55. CNNにおける「転移学習」の利点は何ですか? モデルの計算コストを削減できる 訓練済みモデルを利用することで、少ないデータでも高精度のモデルを得られる CNNのフィルタサイズを自動調整できる 重みの更新を省略できる None 56. シャノンの定理に基づき、ある通信路の容量が C = 10 kbps、信号対雑音比 (SNR) が 30 dB であるとき、この通信路の帯域幅はおよそどれですか? 500 Hz 1 kHz 2 kHz 5 kHz None 57. 勾配降下法において、学習率が大きすぎると何が起こりますか? モデルが過学習する 勾配が無限大になる 損失関数の最小値に収束せず、振動してしまう 訓練データが不足する None 58. 次のうち、自然言語処理において「Word2Vec」で学習されるものは何ですか? 単語のベクトル表現 文全体の意味 単語の出現頻度 単語の順序 None 59. 畳み込みニューラルネットワークにおける「フィルタ(カーネル)」のサイズが大きくなると、何が起こりますか? モデルが捉える特徴がより大きな範囲に渡る モデルが過学習しやすくなる モデルの計算量が減少する ニューロンの数が増加する None 60. KNN(K-Nearest Neighbors)アルゴリズムにおいて、K の値を大きく設定すると何が起こりますか? モデルのバイアスが大きくなり、過剰に単純化される可能性がある モデルがより過学習しやすくなる モデルの複雑さが増し、学習速度が低下する モデルの精度が常に向上する None 61. 物体検出モデルにおいて「マルチスケール予測」とは何ですか? 物体を異なるスケールで検出する手法 物体を異なる解像度で分類する手法 学習データを複数のスケールで処理する手法 モデルを異なる学習率で訓練する手法 None 62. 「畳み込みカーネル(フィルタ)」が複数の層で共有される場合の利点は何ですか? モデルのパラメータ数が減少し、効率が向上する モデルが過学習しやすくなる 畳み込み演算が高速化される モデルの複雑さが増す None 63. 自然言語処理における「ネガティブサンプリング」の目的として正しいものはどれですか? モデルの計算速度を高速化するため 低頻度単語の重みを減少させるため 単語の埋め込みを計算する際、全単語を考慮せずに一部の単語だけを使用することで効率化するため ノイズの多いデータを除外するため None 64. セマンティックセグメンテーションとは何ですか? 画像内の個々の物体を検出する 画像の各ピクセルにクラスラベルを割り当てる 画像を前処理する手法 画像の解像度を上げるための手法 None 65. 畳み込みニューラルネットワーク(CNN)において、畳み込み層の役割は何ですか? 入力データの次元を削減する 入力画像の特徴を抽出する ノイズを除去する 出力を正規化する None 66. 勾配降下法において、学習率の役割は何ですか? 重みの初期値を設定するため モデルの複雑さを調整するため データのサイズを調整するため 重みの更新量を決定するため None 67. 次のうち、画像認識モデルでよく使われる「データ拡張」の技術に含まれないものはどれですか? 画像の回転 画像の平滑化 画像の拡大縮小 画像の反転 None 68. 中心極限定理が示す内容として最も正しいのはどれですか? 標本のサイズを大きくすると、標本平均の分布が正規分布に近づく 標本のサイズを大きくすると、データはすべてゼロに収束する 標本の分散は無限に増大する 標本の標準偏差はすべて同じになる None 69. CNNで「データ拡張(Data Augmentation)」を使用する目的は何ですか? データセットを増やし、モデルの汎化性能を向上させる モデルの計算速度を向上させる モデルの学習率を自動で調整するため ニューロンの数を増やすため None 70. シャノンの通信理論における「通信路容量」とは何ですか? 通信路で誤りなく伝送できる最大のデータ量 通信路で送信できる最大のエントロピー 通信路で使用できる最大の帯域幅 通信路の信号対雑音比 None 71. 次のうち、U-Netの主な応用先として正しいものはどれですか? 画像の分類 画像の拡大縮小 画像のセグメンテーション 画像の変換 None 72. 情報理論における「無記憶(メモリーレス)通信路」とは何ですか? 通信路が過去の入力に依存しない通信路 データが記録されない通信路 情報を保存しない通信路 通信中にデータが消失する通信路 None 73. ドロップアウトを使用する主な理由はどれですか? 学習速度を上げるため モデルのパラメータ数を増やすため モデルの汎化性能を向上させるため モデルの誤差を最小化するため None 74. 「Global Average Pooling」が用いられる目的は何ですか? 全結合層をなくし、モデルの過学習を防ぐ 入力データを正規化する モデルの計算コストを増やす 活性化関数を調整する None 75. 機械学習における「教師あり学習」とは何ですか? ラベル付きデータを使ってモデルを訓練する手法 ラベルなしデータを使ってモデルを訓練する手法 データを自動生成する手法 モデルを評価する手法 None 76. 次のうち、BERTやGPTなどの事前学習済みモデルを特定のタスクに適応させるための技術はどれですか? ドメイン適応 ファインチューニング クロスバリデーション データ拡張 None 77. 回帰分析において、目的変数が連続値である場合、適切な手法は次のどれですか? ロジスティック回帰 線形回帰 サポートベクターマシン K-最近傍法 None 78. 情報理論において、雑音が多い通信路でエラーを減らすための典型的な方法はどれですか? 符号化の冗長性を減らす データを削除する 符号を短くする より多くの冗長性を追加する None 79. 物体検出アルゴリズムであるYOLOのバージョン3(YOLOv3)の主な改良点として正しいものはどれですか? 1つの解像度でのみ予測を行う 異なるスケールで予測を行い、より小さな物体も検出できる 物体の位置情報のみを予測する RPNを使用して速度を改善した None 80. VGG16とResNetの主な違いは何ですか? VGG16は非常に浅いネットワークで、ResNetは非常に深いネットワークである VGG16はスキップ接続を使用し、ResNetは使用しない VGG16はクロスエントロピー誤差を使用せず、ResNetは使用する VGG16は全結合層を多用し、ResNetは残差学習を採用している None 81. 大数の法則は何を示していますか? 大きな数は常に正しい 標本の数を増やすと、標本平均が母平均に近づく 母集団分布の形状が標本サイズに依存する 標本の数を増やすと、分散が増大する None 82. ドロップアウト(Dropout)の主な役割は何ですか? 訓練中にニューロンをランダムに無効化することで、過学習を防ぐ 学習率を自動調整する 訓練データの一部を削除する モデルの精度を向上させるためにニューロンを追加する None 83. セマンティックセグメンテーションにおいて、「アップサンプリング」はどの段階で行われますか? 特徴抽出の前 エンコーダー部分で デコーダー部分で モデルの出力層で None 84. YOLOのような1ステージ物体検出アルゴリズムにおいて、バウンディングボックスの信頼度スコアが高いにもかかわらず誤検出が発生する原因として考えられる要素はどれですか? NMSの適用が不適切だった アンカーサイズが不適切だった 物体の位置が正確にラベル付けされていなかった フィルタサイズが小さすぎた None 85. 順伝播型ネットワークにおいて、ミニバッチのサイズが大きすぎると、学習にどのような影響がありますか? 学習が不安定になり、損失関数が振動する 勾配の更新が速くなり、過学習が発生しやすくなる 勾配の更新が遅くなり、学習が効率的に進まない モデルが過学習するリスクが低くなる None 86. 次のうち、教師なし学習の手法として最も適切なのはどれですか? ロジスティック回帰 サポートベクターマシン 線形回帰 K-平均法 None 87. ドロップアウトのドロップ率が低すぎると、モデルにどのような影響がありますか? 過学習のリスクが増える モデルが学習しなくなる 学習率が増加する モデルが複雑すぎて収束しなくなる None 88. 物体検出において、1枚の画像に複数の物体を検出する手法として、最もよく使われる手法はどれですか? YOLO CNN LSTM RNN None 89. セマンティックセグメンテーションにおける「U-Net」の特徴は何ですか? 画像分類に特化したネットワーク ピクセルレベルのセグメンテーションを行うネットワーク 画像の解像度を下げるためのネットワーク 時系列データを扱うネットワーク None 90. 順伝播型ネットワークにおいて、勾配消失問題が深層学習の学習速度にどのような影響を与えるか、最も適切な説明はどれですか? 勾配が消失すると、ネットワークの学習速度が劇的に遅くなる 勾配消失問題は学習速度には影響しない 勾配が消失すると、ネットワークの学習速度が高速になる 勾配が消失しても、学習速度にはわずかな影響しかない None 91. 自然言語処理において「TF-IDF」の目的は何ですか? 単語の出現頻度を基に重要な単語を見つける 単語の順序を無視する 単語間の関係を学習する 単語の意味を変換する None 92. 次のうち、「BPE(Byte Pair Encoding)」が自然言語処理で使用される理由として正しいものはどれですか? テキストデータを圧縮するため 単語の出現頻度を学習するため テキストデータの前処理を自動化するため 未知の単語や希少な単語を処理するためのサブワード分割手法 None 93. 物体検出において、「多段階検出モデル」とは何を指しますか? 画像を複数の段階で処理し、各段階で異なる特徴を学習するモデル モデルの層を追加し、複数の物体を検出するモデル データセットを分割して学習するモデル 異なる解像度の画像を同時に学習するモデル None 94. ドロップアウト(Dropout)の役割は何ですか? ニューロンをランダムに無効化し、過学習を防ぐ モデルの学習率を調整する 勾配の更新を加速する データの正規化を行う None 95. 画像認識タスクで最も一般的に使用される損失関数はどれですか? 平均二乗誤差 クロスエントロピー誤差 ヒンジ損失 ハブ損失 None 96. ニューラルネットワークの学習において、バッチ正規化が勾配消失問題を軽減する理由は何ですか? 重みの初期化を改善するため 学習率を動的に調整するため 各層の出力を正規化し、勾配が適切に伝播するため 出力層の活性化関数を変更するため None 97. CNNにおける活性化関数として最もよく使用されるものはどれですか? ReLU関数 シグモイド関数 ソフトマックス関数 タンジェントハイパボリック関数 None 98. 機械学習において、L2正則化(リッジ回帰)が効果的な理由として最も適切なのはどれですか? モデルのパラメータをより複雑にするため モデルのパラメータに対するペナルティを課し、過学習を防ぐため データを正規化するため 学習速度を上げるため None 99. ドロップアウト率を0.5に設定した場合、訓練時の挙動として正しいのはどれですか? 各訓練ステップで50%の重みがリセットされる ニューロンの出力が半減する 各訓練ステップでランダムに50%のニューロンが無効化される モデルの精度が常に向上する None 100. 情報理論における「エントロピー」の定義は何ですか? システムの乱雑さや不確実性を測る尺度 データを圧縮するアルゴリズム 情報の内容量 伝送速度を表す指標 None Time's up