E資格~模擬試験~ 2024年10月31日2024年11月3日 ailearn 1. 機械学習における「バイアス-バリアンストレードオフ」とは何ですか? モデルの複雑さとデータの量に関するトレードオフ 訓練データとテストデータのサイズのバランス モデルの誤差のうち、バイアスとバリアンスをバランスさせる必要がある現象 モデルのパラメータと予測性能のバランス None 2. 「セマンティックセグメンテーション」とは何を指しますか? 画像内の個別の物体を検出する 画像の各ピクセルにラベルを割り当て、物体の領域を予測する 画像の解像度を上げる 画像のノイズを除去する None 3. 正則化が効果を発揮する場面はどれですか? データセットが大規模であり、過学習のリスクが低い場合 モデルが過小適合している場合 損失関数が適切に収束していない場合 訓練データが少なく、モデルが過学習する場合 None 4. リカレントニューラルネットワーク(RNN)の最大の特徴は何ですか? 非線形活性化関数を使用すること パラメータの共有がないこと 時系列データに適していること 固定長のデータのみを扱うこと None 5. 「経験再生(Experience Replay)」がDQNに導入される理由として正しいものはどれですか? 訓練データのバイアスを減らし、効率的な学習を行うため 訓練データを削減するため エージェントの方策を改善するため 報酬をリアルタイムで更新するため None 6. エッジコンピューティングにおけるセキュリティ上の課題として正しいものはどれですか? デバイスが分散しているため、物理的なセキュリティが難しい データの一元管理が可能である ネットワーク負荷が軽減される クラウド上で全てのデータを保管する None 7. 分散処理システムにおいて「一貫性、可用性、分断耐性(CAP定理)」に関して正しい説明はどれですか? 一度に全てを満たすことが可能である 一度に全てを満たすことはできず、トレードオフが必要である 可用性だけが重要である 分断耐性は重要ではない None 8. 物体検出における「平均適合率(mAP: mean Average Precision)」とは何を指しますか? モデルの学習速度を測定する指標 モデルの誤差を評価する指標 モデルの検出速度を評価する指標 モデルが異なるクラスの物体を検出する際の精度を平均した指標 None 9. 画像認識における「転移学習」の利点として正しいものはどれですか? 学習をゼロから行う モデルの構造を変更する 学習率を高める 少ないデータでも高い精度を実現できる None 10. ディープラーニングモデルを大規模データセットでトレーニングする際にクラウド環境を選択する利点として適切なものはどれですか? 必要に応じて計算リソースをスケールアップ・スケールダウンできる ローカル環境での計算が常に速い インターネット接続が不要になる ストレージ容量を減らすことができる None 11. 独立な事象 A と B の同時発生確率は、次のうちどれですか? P(A) + P(B) P(A | B) × P(B) P(A) - P(B) P(A) × P(B) None 12. 次のうち、RNNの一種ではないものはどれですか? LSTM GRU Transformer Bidirectional RNN None 13. 物体検出アルゴリズムであるYOLOのバージョン3(YOLOv3)の主な改良点として正しいものはどれですか? 1つの解像度でのみ予測を行う 異なるスケールで予測を行い、より小さな物体も検出できる 物体の位置情報のみを予測する RPNを使用して速度を改善した None 14. 次の中で、GRUとLSTMの主な違いとして正しいものはどれですか? GRUはLSTMに比べてゲートの数が多い GRUは計算コストがLSTMよりも高い GRUは勾配消失問題に弱い GRUは出力ゲートを持たない None 15. ドロップアウト(Dropout)の役割は何ですか? ニューロンをランダムに無効化し、過学習を防ぐ モデルの学習率を調整する 勾配の更新を加速する データの正規化を行う None 16. CNNにおいて、学習中に重みを更新する手法として一般的に使用されるのはどれですか? 勾配降下法(Gradient Descent) k-meansクラスタリング 主成分分析(PCA) サポートベクターマシン(SVM) None 17. a b c d None 18. L2正則化を強くかけすぎると、どのような問題が発生する可能性がありますか? モデルが過学習を起こす モデルが過度に単純化され、アンダーフィッティングする 学習が停止してしまう 勾配消失問題が発生する None 19. Q学習において、Q値(Q-value)は何を表しますか? 状態の予測値 状態-行動ペアの価値 報酬の累積値 行動の確率分布 None 20. RNNで使用される「状態ベクトル」は、どのような役割を果たしますか? パラメータ更新を行う 各タイムステップでの入力データを保持する 各タイムステップでの出力を計算するために使用される 現在の状態を次のタイムステップに伝える None 21. 「HDFS(Hadoop Distributed File System)」の特徴として正しいものはどれですか? データを一元的に保存する従来型のファイルシステム 大規模データを分散して保存し、高い耐障害性を持つファイルシステム データベースの検索を高速化するためのファイルシステム 小規模データの保存に特化したファイルシステム None 22. 物体検出タスクにおける「NMS(Non-Maximum Suppression)」の目的は何ですか? 学習率を最適化する 画像の解像度を上げる 重複するバウンディングボックスを削除し、最も信頼度の高いボックスを選択する データのノイズを除去する None 23. ある情報源が4つの異なる事象 {A, B, C, D} を等確率で生成する場合、この情報源のエントロピーはどれですか? 1ビット 2ビット 4ビット 8ビット None 24. 「Scaled Dot-Product Attention」において、スコアをスケーリングする理由は何ですか? スコアが小さくなりすぎるのを防ぐため スコアが大きくなりすぎるのを防ぐため 勾配消失を防ぐため 計算コストを削減するため None 25. 以下のうち、L1正則化の特徴はどれですか? 大きなパラメータにペナルティを与える モデルのトレーニング速度を向上させる モデルの精度を下げる パラメータをゼロにすることでスパース性を促進する None 26. CNNの「畳み込みフィルタの数」を増やすと、モデルにどのような影響がありますか? モデルの学習速度が大幅に低下する モデルが捉える特徴の種類が増加し、精度が向上する可能性がある モデルが過学習しやすくなる ニューロンが無効化される None 27. 自動運転車におけるエッジコンピューティングの役割として最も重要なものはどれですか? 車両がクラウドサーバーにすべてのデータを送信して処理する 車両内でデータを保管するだけで、クラウドに依存する 車両が他の車両とデータを共有するための手段を提供する 車両内でリアルタイムにデータを処理し、外部ネットワークに依存せずに意思決定を行う None 28. 「説明可能AI」の導入が特に重要視されるケースはどれですか? ゲームAIやチャットボット 音声認識システム 画像処理タスク 医療診断システムや金融スコアリングシステムなどの分野 None 29. CNNで使用される「バッチ正規化(Batch Normalization)」の主な効果は何ですか? データを無作為に抽出する 重みをゼロにリセットする ニューロンをランダムに無効化する 畳み込み層での出力を正規化し、学習を安定させる None 30. 「半教師あり学習」はどのようなデータを用いる学習方法ですか? ラベル付きデータのみを使用する ラベルなしデータのみを使用する 少量のラベル付きデータと大量のラベルなしデータを組み合わせて使用する ラベル付きデータを生成する None 31. 生成モデルとは何を行うモデルですか? データの分類を行うモデル データの生成を行うモデル データの回帰を行うモデル データの削減を行うモデル None 32. 次のうち、深層学習の「解釈性」と「説明性」の違いとして最も正しい説明はどれですか? 解釈性は予測精度の向上に関わるが、説明性は関係しない 解釈性はモデルの内部構造を理解すること、説明性はモデルの予測結果の理由を明示すること 解釈性はブラックボックス性を強化すること、説明性は精度を最大化すること 解釈性はモデルのパフォーマンスを測定し、説明性はモデルを可視化すること None 33. シャノンの通信理論における「通信路容量」とは何ですか? 通信路で誤りなく伝送できる最大のデータ量 通信路で送信できる最大のエントロピー 通信路で使用できる最大の帯域幅 通信路の信号対雑音比 None 34. a b c d None 35. 順伝播型ネットワークにおいて、出力層にシグモイド関数を使用する場合、どのような状況が適していますか? 回帰問題 2クラス分類問題 多クラス分類問題 次元削減問題 None 36. 次のうち、Wasserstein GAN(WGAN)の目的は何ですか? GANのモード崩壊問題を完全に解決する GANの学習の安定性を向上させ、生成データの質を高める GANのトレーニング時間を短縮する VAEと統合するための手法を提供する None 37. 「アダム(Adam)」最適化アルゴリズムにおけるバイアス補正の役割は何ですか? 勾配の過大評価を防ぐため モデルの重みを固定するため 損失関数を補正するため 勾配の初期段階での過小評価を防ぎ、より正確な更新を行うため None 38. 自然言語処理において「Attention Mechanism」の役割は何ですか? 単語の重要度を測定し、重要な単語に焦点を当てる 単語の出現頻度を学習する 文全体の長さを調整する 文章の要約を行う None 39. VGG16とResNetの主な違いは何ですか? VGG16は非常に浅いネットワークで、ResNetは非常に深いネットワークである VGG16はスキップ接続を使用し、ResNetは使用しない VGG16はクロスエントロピー誤差を使用せず、ResNetは使用する VGG16は全結合層を多用し、ResNetは残差学習を採用している None 40. ドロップアウト率が高すぎると、どのような影響がありますか? モデルが過学習しやすくなる ニューロンが過度に活性化する モデルが十分に学習できなくなる モデルの汎化性能が向上する None 41. 「教師あり学習」とはどのような学習方法ですか? ラベル付きデータを用いてモデルを訓練する ラベルなしデータを用いてモデルを訓練する 報酬を最大化するようにモデルを訓練する モデルが自律的にデータを生成する None 42. リカレントニューラルネットワーク(RNN)で頻繁に使用される勾配消失問題とは何ですか? パラメータが増加しすぎる問題 勾配が大きくなりすぎる問題 誤差が伝播しない問題 勾配が非常に小さくなるため、学習が進まない問題 None 43. 次のうち、ブースティングにおける勾配ブースティング(Gradient Boosting)の主な特徴として最も適切なものはどれですか? 勾配消失問題を解決する モデルのパラメータ数を削減する データセットの拡張を行う 前のモデルの予測誤差を利用して次のモデルを改善する None 44. 情報理論における「エントロピー」の定義は何ですか? システムの乱雑さや不確実性を測る尺度 データを圧縮するアルゴリズム 情報の内容量 伝送速度を表す指標 None 45. ニューラルネットワークの訓練において、「重みの初期化」が重要な理由は何ですか? 適切な初期化を行わないと、勾配消失問題や勾配爆発が発生しやすくなるため 重みがランダムでないとモデルが過学習するため 重みの初期化が適切でないと、学習率が収束しないため 重みを初期化しないと、モデルの計算ができないため None 46. 期待値とは何を意味しますか? 確率変数の可能な値の中で最も高い値 確率変数が取る可能性のある値の平均値 事象が発生する確率 確率変数が取る値の最小値 None 47. 勾配降下法において、学習率が大きすぎると何が起こりますか? モデルが過学習する 勾配が無限大になる 損失関数の最小値に収束せず、振動してしまう 訓練データが不足する None 48. ディープラーニングのフレームワーク「TensorFlow」を使用する際に重要なソフトウェアライブラリはどれですか? Flask React CUDA Django None 49. StyleGANの特徴として正しいものはどれですか? 生成される画像のスタイルを自由に制御できる テキスト生成に特化している 判別器を用いない モード崩壊を防ぐための技術が組み込まれている None 50. 物体検出において、1枚の画像に複数の物体を検出する手法として、最もよく使われる手法はどれですか? YOLO CNN LSTM RNN None 51. エッジコンピューティングの課題として最も適切なものはどれですか? データの集中管理が難しい クラウドへの依存度が高い ネットワークの帯域幅を広げる必要がある デバイス側の計算リソースや電力制約 None 52. 次のうち、「REINFORCE」アルゴリズムの特徴として最も適切なものはどれですか? Q値を用いて価値関数を近似する 経験再生を行い、効率的に学習を進める 方策勾配法を使用し、方策を直接最適化する 報酬の割引率を調整する None 53. サポートベクターマシン(SVM)はどのような問題に使用されますか? 主に回帰問題 主にクラスタリング問題 主に分類問題 主に次元削減問題 None 54. 畳み込みニューラルネットワーク(CNN)で一般的に使用されるプーリング層の目的は何ですか? データの空間次元を削減し、モデルの計算量を抑えるため データの正規化を行うため 入力画像を拡大するため 重みを更新するため None 55. ドロップアウトとL2正則化の主な違いは何ですか? ドロップアウトはランダムにニューロンを無効化し、L2正則化は重みにペナルティを課す ドロップアウトは重みにペナルティを課し、L2正則化はニューロンを無効化する 両方ともモデルの複雑さを増加させる 両方とも重みをゼロにする None 56. 順伝播型ネットワークにおける活性化関数「シグモイド関数」が深層学習であまり使われない理由は何ですか? 勾配消失問題を引き起こしやすいため 勾配爆発を引き起こすため 計算コストが高いため 非線形性が低いため None 57. アクセラレータの導入が期待される分野として最も適切なものはどれですか? テキストエディタの開発 ディープラーニングモデルのトレーニングや推論 ウェブブラウジング データベースの管理 None 58. セマンティックセグメンテーションにおいて、評価指標として使用される「IoU(Intersection over Union)」とは何を表しますか? 予測された領域と正解領域の重なり具合を評価する指標 画像の解像度を表す指標 モデルの精度を評価する指標 計算コストを表す指標 None 59. 畳み込みニューラルネットワーク(CNN)において、畳み込み層の役割は何ですか? 入力データの次元を削減する 入力画像の特徴を抽出する ノイズを除去する 出力を正規化する None 60. TPU(Tensor Processing Unit)は主にどのような用途に特化していますか? グラフィック処理に特化したハードウェア 一般的なデータ処理に特化したハードウェア ネットワーク管理に特化したハードウェア ディープラーニングの推論やトレーニングに最適化されたハードウェア None 61. L2正則化(リッジ回帰)の主な目的は何ですか? モデルの重みを増加させる モデルの重みを抑え、過学習を防ぐ 勾配を大きくする モデルの複雑さを減らすため None 62. 物体検出タスクで使用される「RPN(Region Proposal Network)」の目的は何ですか? 画像から物体領域の候補を抽出する 画像のノイズを除去する 物体のラベルを分類する 画像のサイズを調整する None 63. ミニバッチ勾配降下法(Mini-batch Gradient Descent)はどのような手法ですか? 訓練データ全体を使用して一度に学習する手法 データセット全体を小さなバッチに分割し、それぞれで勾配を計算して学習する手法 データを1つずつ順番に使って学習する手法 勾配を無視して重みを更新する手法 None 64. 次のうち、「Self-Attention Mechanism」が使用される目的として最も適切なものはどれですか? 文全体の文脈を考慮し、各単語間の依存関係を効率的に捉えるため 文章を効率的に要約するため 単語の出現頻度を学習するため テキストデータを前処理するため None 65. 条件付き確率 P(A | B) の定義はどれですか? P(A) × P(B) P(A) / P(B) P(A ∩ B) / P(B) P(A) - P(B) None 66. L2正則化を導入した場合、モデルの重みに対してどのような効果がありますか? 重みがすべてゼロになる 大きな重みが抑制され、モデルがより滑らかになる 学習速度が向上する モデルの出力が倍増する None 67. 「Mask R-CNN」の主な用途として正しいものはどれですか? 物体検出とセグメンテーションの両方を同時に行う 物体検出のみを行う 画像分類を行う 時系列データの解析を行う None 68. 大数の法則は何を示していますか? 大きな数は常に正しい 標本の数を増やすと、標本平均が母平均に近づく 母集団分布の形状が標本サイズに依存する 標本の数を増やすと、分散が増大する None 69. CNNで「データ拡張(Data Augmentation)」を使用する目的は何ですか? データセットを増やし、モデルの汎化性能を向上させる モデルの計算速度を向上させる モデルの学習率を自動で調整するため ニューロンの数を増やすため None 70. 「説明可能AI(Explainable AI, XAI)」の主な目的は何ですか? モデルがなぜ特定の予測を行ったのかを理解しやすくすること モデルの学習速度を向上させること モデルの訓練データ量を減らすこと モデルの予測精度を下げること None 71. 「正則化(Regularization)」の目的として正しいものはどれですか? モデルのパラメータ数を増やす モデルの過学習を防ぐ 学習率を高める 勾配消失問題を解決する None 72. CNNにおける「ReLU関数」が学習効率を高める理由はどれですか? 出力をゼロに制限するため データを正規化するため 重みをゼロにするため 非線形性を導入し、勾配消失を防ぐため None 73. 順伝播型ネットワークでの重み更新のための典型的な手法は次のうちどれですか? 勾配降下法 k-means法 主成分分析 ブートストラップ法 None 74. 自然言語処理において「Bag of Words(BoW)」モデルの特徴として正しいものはどれですか? 単語の順序を考慮する 単語の頻度だけを考慮し、順序を無視する 文全体の意味を考慮する テキストを分割する None 75. セマンティックセグメンテーションとは何ですか? 画像内の個々の物体を検出する 画像の各ピクセルにクラスラベルを割り当てる 画像を前処理する手法 画像の解像度を上げるための手法 None 76. 自然言語処理において「TF-IDF」の目的は何ですか? 単語の出現頻度を基に重要な単語を見つける 単語の順序を無視する 単語間の関係を学習する 単語の意味を変換する None 77. 「クロスバリデーション」の目的は何ですか? モデルのパラメータ数を減らす モデルの学習速度を向上させる モデルの性能をより正確に評価する データ拡張を行う None 78. 順伝播型ネットワークにおける「ミニバッチ学習」とは何ですか? 全ての訓練データを一度にモデルに入力する手法 訓練データを少数のサブセットに分け、それぞれで学習を行う手法 訓練データをランダムに並べ替える手法 訓練データを正規化する手法 None 79. エッジデバイスの計算リソースを効率的に活用するために、使用される技術として最も適切なものはどれですか? コンテナ仮想化 クラウドストレージ データウェアハウス データバックアップ None 80. BERT(Bidirectional Encoder Representations from Transformers)の最大の特徴は何ですか? 単方向の文脈を捉える 画像認識に特化している 単語の出現頻度を考慮する 双方向の文脈を捉える None 81. Transformerのマルチヘッド注意機構では、異なる「ヘッド」を使用する利点は何ですか? モデルのパラメータ数を減少させるため 異なる部分の情報に注意を向け、より多様な特徴を学習するため モデルの計算速度を向上させるため 出力層での勾配を安定させるため None 82. ニューラルネットワークの学習において、バッチ正規化が勾配消失問題を軽減する理由は何ですか? 重みの初期化を改善するため 学習率を動的に調整するため 各層の出力を正規化し、勾配が適切に伝播するため 出力層の活性化関数を変更するため None 83. 物体検出モデルにおいて「マルチスケール予測」とは何ですか? 物体を異なるスケールで検出する手法 物体を異なる解像度で分類する手法 学習データを複数のスケールで処理する手法 モデルを異なる学習率で訓練する手法 None 84. 次のうち、データ拡張を行う際に最も適切なシナリオはどれですか? 学習データが非常に多い場合 学習データが少なく、汎化性能が低い場合 モデルが過学習をしていない場合 パラメータが多い場合 None 85. セマンティックセグメンテーションにおける「クラス不均衡」を解決するために使用される手法はどれですか? 学習率の増加 データ拡張 クラス重み付け クロスバリデーション None 86. アダム(Adam)最適化アルゴリズムで使用される「1次モーメント推定」と「2次モーメント推定」の役割は何ですか? 勾配の平均と分散を計算し、適応的な学習率を提供するため モデルの重みを初期化するため モデルの誤差を最小化するため ニューラルネットワークの層数を増やすため None 87. ドロップアウトがリカレントニューラルネットワーク(RNN)に対して効果的な理由は何ですか? 過学習を防ぎ、ネットワークが長期間の依存関係を捉えるのを助ける 重みの初期化を行うため 訓練データのサイズを増加させるため 勾配消失を完全に防ぐため None 88. 確率の定義において、サンプルスペース(標本空間)とは何ですか? 発生しうる全ての結果の集合 確率が0になる事象の集合 予想される結果の集合 可能な事象の一部を集めたもの None 89. 機械学習における「過学習」とは何ですか? 訓練データに対してモデルが過剰に適合し、新しいデータに対しては性能が低下する現象 モデルが十分に訓練されていない現象 データが不足している状態 訓練データとテストデータが同じ場合にのみ発生する現象 None 90. CNNにおいて、フィルタ(カーネル)の役割は何ですか? 特徴マップの次元を減らす 入力画像から特徴を抽出する モデルの精度を低下させる データのノイズを増やす None 91. 次の中で、BERT(Bidirectional Encoder Representations from Transformers)とTransformerの主な違いとして正しいものはどれですか? BERTは双方向の自己注意を使用し、Transformerは単方向の自己注意を使用する BERTはエンコーダー部分のみを使用し、Transformerはエンコーダーとデコーダーの両方を使用する BERTは逐次処理を行い、Transformerは並列処理を行う BERTは画像データ専用で、Transformerはテキストデータ専用である None 92. Bidirectional LSTMのメリットとして、最も適切なものはどれですか? 計算速度が速い 双方向から情報を処理するため、シーケンス全体の文脈を理解できる メモリ消費が少ない 勾配消失問題が完全に解決される None 93. 「カーネルPCA」と通常のPCAの違いは何ですか? カーネルPCAは非線形な次元削減が可能 カーネルPCAは教師あり学習の手法 カーネルPCAはラベル付きデータを使用する カーネルPCAは次元を増加させる手法 None 94. 決定木モデルにおいて、エントロピーが最も低い分割の重要性は何ですか? データの分散を最大化するため 分割後の不確実性が最も低くなるため、より純粋なグループが得られる モデルの複雑さを減少させるため 決定木の深さを増やすため None 95. リカレントニューラルネットワーク(RNN)における「Teacher Forcing」の目的は何ですか? 学習を高速化するため 勾配消失問題を防ぐため モデルが過去の正しい出力に基づいて学習するようにするため 過学習を防ぐため None 96. 次のうち、AIの推論処理に特化したアクセラレータはどれですか? SSD TPU HDD NIC None 97. Gated Recurrent Unit(GRU)の特徴として正しいものはどれですか? 忘却ゲートがない 出力ゲートがない 計算がLSTMより複雑 勾配消失問題を解決しにくい None 98. 勾配降下法における「学習率」が大きすぎると何が起こりますか? モデルが過学習する 損失関数が最適な値に急速に収束する 損失関数が最適な値に収束せず、振動する 勾配が爆発し、学習が停止する None 99. 次のうち、アクセラレータを使用することで予想される課題として最も適切なものはどれですか? ストレージ容量が増える 専用のプログラミングスキルが必要になる場合がある ネットワーク速度が低下する 汎用性が高くなりすぎる None 100. 画像認識タスクで最も一般的に使用される損失関数はどれですか? 平均二乗誤差 クロスエントロピー誤差 ヒンジ損失 ハブ損失 None Time's up