E資格~模擬試験~ 2024年10月31日2024年11月3日 ailearn 1. アクセラレータの導入による計算コスト削減の方法として適切なものはどれですか? ストレージ容量を増加させ、計算時間を短縮する ネットワーク帯域を広げ、データ転送を高速化する CPUのみで処理を行う 特定のタスクに最適化されたハードウェアを使用し、計算効率を向上させる None 2. 次のうち、GPUとFPGAの選択を決定する上で最も重要な要素は何ですか? 計算の性質や目的に応じた適切なハードウェアの選択 ストレージの容量 ネットワーク帯域幅 デバイスの色 None 3. 物体検出における「アンカー(Anchor)」の役割は何ですか? 画像を小さく分割する バウンディングボックスの初期候補を提供する 物体のサイズを正規化する 出力層の勾配を安定化させる None 4. セマンティックセグメンテーションにおいて、「CRF(Conditional Random Field)」が使用される主な理由は何ですか? セグメンテーション結果のスムーズさを向上させるため 学習速度を向上させるため モデルのパラメータ数を削減するため ピクセルごとのラベルを正規化するため None 5. RMSProp最適化アルゴリズムがアダグラードの改良版とされる理由は何ですか? 累積された勾配が過度に蓄積されるのを防ぐため モデルの精度を常に向上させるため 学習率を一定に保つため 損失関数の形状に依存しないため None 6. YOLOv3では、どのようにして異なるサイズの物体を検出していますか? アンカーのサイズを増やす RPNを使用して異なるスケールを提案する 全ての物体を同じスケールで検出する 異なる解像度の3つのスケールで予測を行う None 7. 順伝播型ネットワークにおけるドロップアウト(Dropout)の役割は何ですか? ニューロンをランダムに無効化して過学習を防ぐ 学習率を調整する 訓練データの一部を削除する モデルの精度を向上させるためにニューロンを追加する None 8. セマンティックセグメンテーションにおいて、Encoder-Decoderアーキテクチャの利点として正しいものはどれですか? 学習データを減らすことができる 予測速度を上げることができる 複雑なオブジェクトのセグメンテーションに有効である モデルの精度を犠牲にする None 9. スパース学習において、L1正則化がモデルに与える影響は何ですか? パラメータの値を増加させる モデルの全てのパラメータを均等に更新する モデルの複雑さを増す 多くのパラメータをゼロに近づけ、スパース性を促進する None 10. 物体検出タスクにおける「NMS(Non-Maximum Suppression)」の目的は何ですか? 学習率を最適化する 画像の解像度を上げる 重複するバウンディングボックスを削除し、最も信頼度の高いボックスを選択する データのノイズを除去する None 11. 「ベイズ最適化」がモデルに適用される主な理由は何ですか? データの次元を削減するため ハイパーパラメータの調整を効率的に行うため モデルのパラメータをランダムに設定するため モデルの精度を下げるため None 12. 「教師なし学習」でよく使用される次元削減手法はどれですか? 主成分分析(PCA) K-近傍法 逆強化学習 サポートベクターマシン(SVM) None 13. 次のうち、深層強化学習で多用される「ソフトアクタークリティック(SAC)」の特徴として正しいものはどれですか? 方策を持たない強化学習手法である 最大エントロピー原理に基づき、行動の多様性を保持しつつ学習する 確定論的な方策を使用して学習する 報酬を一定に保ちながら学習を行う None 14. 「カーネルPCA」と通常のPCAの違いは何ですか? カーネルPCAは非線形な次元削減が可能 カーネルPCAは教師あり学習の手法 カーネルPCAはラベル付きデータを使用する カーネルPCAは次元を増加させる手法 None 15. 物体検出において、マルチスケール特徴マップを利用するモデルの利点として正しいものはどれですか? 計算コストを削減できる データ拡張が不要になる モデルが深くなるため精度が低下する 小さな物体や大きな物体の両方を検出できる None 16. Faster R-CNNの特徴として正しいものはどれですか? 1ステージの物体検出アルゴリズムである YOLOよりも高速だが、精度は低い RPNを用いて物体の候補領域を生成する 物体の数に応じてニューラルネットワークを動的に構築する None 17. 自然言語処理において「Attention Mechanism」の役割は何ですか? 単語の重要度を測定し、重要な単語に焦点を当てる 単語の出現頻度を学習する 文全体の長さを調整する 文章の要約を行う None 18. CNNモデルにおいて、過学習を防ぐために広く用いられるテクニックはどれですか? ドロップアウト バッチ正規化 プーリング 活性化関数の変更 None 19. ResNetで導入された「スキップ接続(Skip Connection)」の主な目的は何ですか? モデルの計算コストを削減する モデルのパラメータ数を増やす 勾配消失問題を軽減し、非常に深いネットワークでも学習を可能にする 入力データを強化する None 20. 順伝播型ネットワークで使用される活性化関数の役割は何ですか? 重みを更新するため 非線形性を導入し、モデルに複雑なパターンを学習させるため モデルの重みを初期化するため 入力データを正規化するため None 21. 「ハードサンプルマイニング」とは、どのような手法ですか? ラベルなしデータを用いてランダムにサンプリングする手法 モデルのパラメータ数を削減する手法 モデルが誤分類しやすいデータを重点的に学習する手法 ラベル付きデータを使わずに学習する手法 None 22. CNNにおいて、畳み込み層とプーリング層の組み合わせはどのような効果をもたらしますか? データの次元を削減し、重要な特徴を抽出する モデルの精度を低下させる モデルの計算速度を遅くする モデルの重みを無作為に変更する None 23. 「畳み込みカーネル(フィルタ)」が複数の層で共有される場合の利点は何ですか? モデルのパラメータ数が減少し、効率が向上する モデルが過学習しやすくなる 畳み込み演算が高速化される モデルの複雑さが増す None 24. LIME(Local Interpretable Model-agnostic Explanations)の主な特徴は何ですか? モデル全体の動作をシミュレーションする ランダムにデータを選んでモデルの予測を評価する 特定の予測に対して、シンプルなローカルモデルを使って説明を行う モデルのパラメータを全て可視化する None 25. 深層強化学習において、次元削減技術が導入される理由として正しいものはどれですか? 状態空間が高次元である場合、効率的に学習するため 行動空間が不確実な場合、行動選択を高速化するため 方策の更新頻度を増加させるため 報酬をより多く得るため None 26. Q学習において、Q値(Q-value)は何を表しますか? 状態の予測値 状態-行動ペアの価値 報酬の累積値 行動の確率分布 None 27. Jupyter Notebookの主な用途は何ですか? データベースの管理ツール インタラクティブなデータ分析やプログラム実行を行うツール クラウドサーバーの運用ツール グラフィック処理の最適化ツール None 28. 「教師なしクラスタリング」でよく使われる手法はどれですか? サポートベクターマシン(SVM) ディープニューラルネットワーク ロジスティック回帰 K-means法 None 29. a b c d None 30. 物体検出において、1枚の画像に複数の物体を検出する手法として、最もよく使われる手法はどれですか? YOLO CNN LSTM RNN None 31. 次のうち、「ローカル説明」とは何を指しますか? モデル全体の振る舞いを説明すること 特定の予測結果に対してその理由を説明すること モデルの訓練データの説明を行うこと モデルの訓練プロセス全体を説明すること None 32. 「説明可能AI(Explainable AI, XAI)」の主な目的は何ですか? モデルがなぜ特定の予測を行ったのかを理解しやすくすること モデルの学習速度を向上させること モデルの訓練データ量を減らすこと モデルの予測精度を下げること None 33. CNNにおける「フィルタサイズ」と「ストライド」の関係について正しい説明はどれですか? ストライドが大きくなると出力サイズが大きくなる ストライドが大きくなると出力サイズが小さくなる フィルタサイズが小さいと出力サイズが増える フィルタサイズが大きいとストライドが小さくなる None 34. 分散処理の「フォールトトレランス」とは何ですか? データをバックアップするための技術 データの保存容量を増やす技術 システムが障害発生時でも処理を継続できる能力 ネットワークを冗長化する技術 None 35. セマンティックセグメンテーションにおいて、「ピクセルワイズソフトマックス(Pixel-wise Softmax)」が必要とされる理由は何ですか? 画像全体に同一のラベルを割り当てるため モデルの出力を正規化するため デコーダー部分での計算コストを削減するため 各ピクセルごとにクラス確率を計算し、最も高いクラスを予測するため None 36. 分散処理システムで使われる「マスター・スレーブアーキテクチャ」とは何ですか? すべてのノードが同等にタスクを分担するアーキテクチャ 各ノードが独立して動作するアーキテクチャ タスクを一台のサーバーで処理するアーキテクチャ マスターがタスクを管理し、スレーブが処理を実行するアーキテクチャ None 37. a b c d None 38. 物体検出において、「多段階検出モデル」とは何を指しますか? 画像を複数の段階で処理し、各段階で異なる特徴を学習するモデル モデルの層を追加し、複数の物体を検出するモデル データセットを分割して学習するモデル 異なる解像度の画像を同時に学習するモデル None 39. セマンティックセグメンテーションにおいてよく使用される損失関数はどれですか? 平均二乗誤差 クロスエントロピー損失 ヒンジ損失 ハブ損失 None 40. モデルにおいて、L2正則化を導入することでどのような効果が得られますか? モデルの複雑さを増やし、データに適合させる 重みがすべてゼロになる モデルの複雑さを抑え、過学習を防ぐ ニューロンの数を増加させる None 41. Transformerの構成要素の一つである「Multi-Head Attention」の目的は何ですか? 単一の注意機構よりも複雑な関係を捉えるため 計算リソースを削減するため モデルの層を深くするため 勾配消失問題を回避するため None 42. セマンティックセグメンテーションで、アトリウムネットワーク(Atrous Convolution)が使用される理由として最も適切なものはどれですか? 高解像度の特徴を維持しながら、広い受容野を確保するため 計算コストを削減するため 全結合層を減らすため モデルのサイズを縮小するため None 43. バッチ正規化(Batch Normalization)の効果として最も適切なものはどれですか? モデルのトレーニングを安定化させる 勾配消失問題を完全に防ぐ 過学習を防ぐために学習データを削減する 学習率を低下させる None 44. 勾配降下法の「アダグラード(Adagrad)」アルゴリズムが効果的な場合はどれですか? データのクラス数が非常に多い場合 モデルが深層ニューラルネットワークの場合 クラスごとのデータが均一である場合 特徴量ごとのスケールが大きく異なる場合 None 45. ドロップアウトとL2正則化の主な違いは何ですか? ドロップアウトはランダムにニューロンを無効化し、L2正則化は重みにペナルティを課す ドロップアウトは重みにペナルティを課し、L2正則化はニューロンを無効化する 両方ともモデルの複雑さを増加させる 両方とも重みをゼロにする None 46. a b c d None 47. GANにおいて、生成器の目的は何ですか? 偽のデータを生成し、それを判別器に対して本物のデータのように見せかける 本物のデータを識別する データを分類する データを削減する None 48. リカレントニューラルネットワーク(RNN)における「Teacher Forcing」の目的は何ですか? 学習を高速化するため 勾配消失問題を防ぐため モデルが過去の正しい出力に基づいて学習するようにするため 過学習を防ぐため None 49. 機械学習における「教師あり学習」とは何ですか? ラベル付きデータを使ってモデルを訓練する手法 ラベルなしデータを使ってモデルを訓練する手法 データを自動生成する手法 モデルを評価する手法 None 50. モデルの汎化性能を向上させるために、L1とL2のどちらの正則化を使用すべきか判断する際の主な基準は何ですか? 特徴量の数と重要度 モデルの計算コスト データセットのサイズ モデルのアーキテクチャの複雑さ None 51. RMSPropの特徴は何ですか? 勾配の二乗平均を使用して学習率を調整する 一定の学習率で更新を行う モデルの重みをランダムに更新する 過去の重みを使用しない None 52. 次のうち、Python環境におけるパッケージ管理ツールとして最も広く利用されているものはどれですか? Maven pip NPM Gradle None 53. 「Transformer」がLSTMやGRUに比べて自然言語処理で優れている点として最も適切なものはどれですか? 時系列データの扱いが得意 計算コストが低い モデルの構造が単純である 並列計算が可能で、長いシーケンスも効率的に処理できる None 54. 半教師あり学習で使用される「擬似ラベル」の生成方法として正しいものはどれですか? ラベルなしデータに対して既存のモデルが予測したラベルを用いる ラベル付きデータを使ってランダムにラベルを生成する ラベルなしデータをクラスタリングしてラベルを作成する ラベルなしデータを教師あり学習で学習する None 55. 順伝播型ネットワークにおいて、勾配降下法の「ミニバッチサイズ」を大きく設定した場合の利点はどれですか? モデルが過学習しやすくなる データの分散が大きくなる 勾配の更新が安定しやすくなり、収束速度が向上する可能性がある 訓練データがランダムに変更される None 56. 自動運転車におけるエッジコンピューティングの役割として最も重要なものはどれですか? 車両がクラウドサーバーにすべてのデータを送信して処理する 車両内でデータを保管するだけで、クラウドに依存する 車両が他の車両とデータを共有するための手段を提供する 車両内でリアルタイムにデータを処理し、外部ネットワークに依存せずに意思決定を行う None 57. BERTを使用した質問応答タスクにおいて、モデルが行う最も基本的な処理は次のうちどれですか? 質問と回答の文脈を無視して直接予測する 回答文の出現頻度を基に最適な単語を選ぶ 質問と回答の文章をエンコードし、最適な回答位置を予測する 質問文を翻訳して回答する None 58. ドロップアウト(Dropout)の役割は何ですか? ニューロンをランダムに無効化し、過学習を防ぐ モデルの学習率を調整する 勾配の更新を加速する データの正規化を行う None 59. バギング(Bagging)を用いることで得られる主なメリットは何ですか? モデルのバイアスを減らす モデルの過学習を促進する モデルの学習速度を遅くする モデルのバリアンスを減らし、安定性を向上させる None 60. FPGAが特に有効となる応用分野はどれですか? 一般的なデータベース処理 ウェブページのレンダリング テキストエディタの動作 低遅延が要求されるリアルタイム処理や信号処理 None 61. エッジコンピューティングが通信コスト削減に寄与する理由は何ですか? すべてのデータをクラウドに送信するから クラウド側で計算を行い、デバイスに結果を返すから データをエッジデバイスで処理し、クラウドへの送信データ量を減らすから 大量のデータを一度に送信するから None 62. RNNを使用したシーケンス生成モデルで、次のタイムステップの予測を生成する際、予測結果が繰り返し使用されることによる誤差の累積を防ぐために使われる手法はどれですか? バッチ正規化 ドロップアウト 学習率減衰 スケジュールサンプリング None 63. モデルの汎化性能を高めるために使用される「ラベルスムージング(Label Smoothing)」の主な効果として正しいものはどれですか? 学習データのラベルにノイズを追加し、モデルの確信度を下げることで過学習を防ぐ ラベルを拡張してデータセットを増やす ラベルの不確実性を減らし、モデルの信頼性を高める 出力層のニューロン数を減らす None 64. 自然言語処理において、次の中で「Seq2Seq」モデルにおける「Attention Mechanism」の導入効果として正しいものはどれですか? モデルの学習速度が速くなる 入力シーケンスの特定の部分に集中して処理することで、翻訳精度を向上させる モデルの出力層のパラメータ数が減少する 時系列データを処理するための新しい手法である None 65. セマンティックセグメンテーションにおける「U-Net」の特徴は何ですか? 画像分類に特化したネットワーク ピクセルレベルのセグメンテーションを行うネットワーク 画像の解像度を下げるためのネットワーク 時系列データを扱うネットワーク None 66. a b c d None 67. FPGA(Field Programmable Gate Array)の特徴として正しいものはどれですか? 予め固定された構成を持つデバイス 主にデータストレージとして使用されるデバイス グラフィック処理を高速化するためのデバイス ユーザーがハードウェアの構成を再プログラム可能なデバイス None 68. 物体検出タスクにおいて、精度と速度のバランスが取れているモデルとして知られているのはどれですか? ResNet Faster R-CNN VGG16 YOLO None 69. ディープラーニング環境をクラウド上で効率的に運用するためのベストプラクティスはどれですか? すべての計算をローカルマシンで行う GPUを搭載したインスタンスを使用し、必要に応じてスケールアウトする クラウド上でCPUのみを使用して計算する 固定されたインスタンスを使用し、スケールアウトは行わない None 70. 符号化における「冗長性」とは何を意味しますか? 情報を追加することでデータの信頼性を高めること 符号化したデータの長さを最小化すること 情報量が最小になるようにデータを圧縮すること 必要以上に多くのビットで符号化されている部分 None 71. エントロピー符号化の目的は何ですか? データの信頼性を向上させること データの不確実性を増やすこと エントロピーに基づいて、情報量に応じた符号を割り当てることで、データの圧縮率を高めること データの雑音を増やすこと None 72. 次のうち、深層強化学習でよく使用される「アクター・クリティック(Actor-Critic)」の特徴は何ですか? 方策を直接学習するアクターと、価値関数を学習するクリティックが協調して学習を行う エージェントが方策を持たずに学習を行う 環境の次の状態を予測するモデル 報酬が無い場合でも学習が進行する None 73. 順伝播型ネットワークにおいて、重みの初期化が不適切な場合、学習にどのような影響がありますか? 学習が全く行われない モデルの学習速度が極端に遅くなるか、適切に収束しない モデルがすべてのデータを無視する モデルの重みが自動で調整される None 74. 中心極限定理が示す内容として最も正しいのはどれですか? 標本のサイズを大きくすると、標本平均の分布が正規分布に近づく 標本のサイズを大きくすると、データはすべてゼロに収束する 標本の分散は無限に増大する 標本の標準偏差はすべて同じになる None 75. 期待値とは何を意味しますか? 確率変数の可能な値の中で最も高い値 確率変数が取る可能性のある値の平均値 事象が発生する確率 確率変数が取る値の最小値 None 76. DCGAN(Deep Convolutional GAN)の特徴は何ですか? RNNを使用して時系列データを生成する LSTMを使用して文章を生成する 畳み込みニューラルネットワークを使用して画像生成を行う バッチ正規化を行わない None 77. リカレントニューラルネットワーク(RNN)の順伝播において、各タイムステップで計算される出力は何に基づいていますか? 前のタイムステップの入力のみ 現在のタイムステップの入力のみ 現在のタイムステップの入力と前のタイムステップの出力 全タイムステップの入力 None 78. 「Global Average Pooling」が用いられる目的は何ですか? 全結合層をなくし、モデルの過学習を防ぐ 入力データを正規化する モデルの計算コストを増やす 活性化関数を調整する None 79. 「説明可能な強化学習」で利用されることの多いアプローチはどれですか? 深層強化学習の全体的な挙動を評価する手法 データをランダムに選んでモデルを評価する手法 状態価値や行動価値を明示的に説明する手法 パラメータチューニングを用いる手法 None 80. 「ディープラーニングモデルのフェアネス(公平性)」を評価するための方法として最も適切なものはどれですか? モデルの計算速度を評価する データの分散を計算する パラメータの正則化を行う 特徴量ごとの予測結果の偏りを測定する None 81. FPGAの動作効率を最大化するために重要な要素は何ですか? ストレージの最大化 ネットワーク速度の向上 ハードウェア構成の最適化と特定タスクに合わせたプログラミング ディープラーニングのトレーニング時間の短縮 None 82. 次のうち、RNNの代表的なアプリケーションはどれですか? 画像分類 音声認識 コンピュータビジョン 強化学習 None 83. リカレントニューラルネットワーク(RNN)の最大の特徴は何ですか? 非線形活性化関数を使用すること パラメータの共有がないこと 時系列データに適していること 固定長のデータのみを扱うこと None 84. ニューラルネットワークの最適化で、重みの初期化方法として「He初期化」が特に有効な理由は何ですか? ReLUなどの非線形活性化関数を使用する場合、勾配消失問題を防ぐため 学習率を調整しやすくするため バッチサイズを減少させるため 出力層の精度を向上させるため None 85. エントロピー H(X) の値が最大になるのはどのような場合ですか? 確率分布が偏っている場合 確率分布が 0 に近い場合 確率分布が均一な場合 確率分布が無限大の場合 None 86. Dockerを使った開発環境の構築で、複数のコンテナが相互に通信するために必要な設定は何ですか? 各コンテナを独立したサーバーとして設定する すべてのコンテナを同じホストで実行する Docker Composeを使ってネットワークを構成する 各コンテナのIPアドレスを固定する None 87. 順伝播型ネットワークにおいて、勾配消失問題が深層学習の学習速度にどのような影響を与えるか、最も適切な説明はどれですか? 勾配が消失すると、ネットワークの学習速度が劇的に遅くなる 勾配消失問題は学習速度には影響しない 勾配が消失すると、ネットワークの学習速度が高速になる 勾配が消失しても、学習速度にはわずかな影響しかない None 88. 「強化学習」におけるエージェントの目標は何ですか? 与えられたデータからパターンを見つけ出す 環境との相互作用を通じて報酬を最大化する行動を学習する ラベル付きデータを用いて予測精度を高める 環境の状態を常に予測する None 89. 雑音が含まれる通信路において、符号化率 R が通信路容量 C より小さい場合、次のうち正しい記述はどれですか? 伝送誤りが発生する 通信が誤りなく行われる 通信が停止する データの圧縮率が向上する None 90. 次のうち、VGG16やResNetなどの深層CNNモデルで重要視されるテクニックはどれですか? 残差学習 学習率減衰 入力データの圧縮 ドロップアウト None 91. データ拡張(Data Augmentation)の主な目的は何ですか? モデルのサイズを減らす 学習率を調整する データの次元を削減する トレーニングデータを人工的に増やして過学習を防ぐ None 92. 条件付き確率 P(A | B) の定義はどれですか? P(A) × P(B) P(A) / P(B) P(A ∩ B) / P(B) P(A) - P(B) None 93. 勾配降下法における「学習率」が大きすぎると何が起こりますか? モデルが過学習する 損失関数が最適な値に急速に収束する 損失関数が最適な値に収束せず、振動する 勾配が爆発し、学習が停止する None 94. DQNにおいて「Double DQN(DDQN)」が提案された主な理由は何ですか? Q値の過大評価を防ぎ、学習の安定性を向上させるため 学習速度を向上させるため 方策の更新頻度を増やすため 報酬関数を改善するため None 95. リカレントニューラルネットワーク(RNN)における「バックプロパゲーション・スルー・タイム(BPTT)」の最大の課題は何ですか? 勾配爆発 メモリ効率の悪さ 勾配消失 学習速度の低下 None 96. 次の中で、GRUとLSTMの主な違いとして正しいものはどれですか? GRUはLSTMに比べてゲートの数が多い GRUは計算コストがLSTMよりも高い GRUは勾配消失問題に弱い GRUは出力ゲートを持たない None 97. セマンティックセグメンテーションにおいて、評価指標として使用される「IoU(Intersection over Union)」とは何を表しますか? 予測された領域と正解領域の重なり具合を評価する指標 画像の解像度を表す指標 モデルの精度を評価する指標 計算コストを表す指標 None 98. Python環境における依存関係の管理を簡素化するツールとして適切なものはどれですか? Poetry Flask Git Docker None 99. ニューラルネットワークの学習において、バッチ正規化が勾配消失問題を軽減する理由は何ですか? 重みの初期化を改善するため 学習率を動的に調整するため 各層の出力を正規化し、勾配が適切に伝播するため 出力層の活性化関数を変更するため None 100. 「Hadoop」はどのような分散処理フレームワークですか? 単一のサーバーでデータを処理するためのフレームワーク データベースの検索を高速化するフレームワーク ビッグデータを分散処理するためのオープンソースのフレームワーク 小規模なデータセットを処理するためのフレームワーク None Time's up