E資格~模擬試験~ 2024年10月31日2024年11月3日 ailearn 1. 「ベイズ最適化」がモデルに適用される主な理由は何ですか? データの次元を削減するため ハイパーパラメータの調整を効率的に行うため モデルのパラメータをランダムに設定するため モデルの精度を下げるため None 2. セマンティックセグメンテーションにおいて、「CRF(Conditional Random Field)」が使用される主な理由は何ですか? セグメンテーション結果のスムーズさを向上させるため 学習速度を向上させるため モデルのパラメータ数を削減するため ピクセルごとのラベルを正規化するため None 3. RMSProp最適化アルゴリズムがアダグラードの改良版とされる理由は何ですか? 累積された勾配が過度に蓄積されるのを防ぐため モデルの精度を常に向上させるため 学習率を一定に保つため 損失関数の形状に依存しないため None 4. モデルの汎化性能を向上させるために、L1とL2のどちらの正則化を使用すべきか判断する際の主な基準は何ですか? 特徴量の数と重要度 モデルの計算コスト データセットのサイズ モデルのアーキテクチャの複雑さ None 5. 環境構築において仮想環境を使用する主な理由は何ですか? ハードウェアの性能を向上させるため 開発言語を変更するため ネットワークの速度を上げるため 異なるプロジェクトごとに異なる依存関係を分離して管理するため None 6. 「SHAP(Shapley Additive Explanations)」の基本的な考え方は何ですか? モデル全体の挙動を定性的に評価する モデルの計算時間を最小化する 各特徴が予測にどれだけ貢献したかを定量的に示す モデルをランダムに評価する None 7. アクセラレータの導入が期待される分野として最も適切なものはどれですか? テキストエディタの開発 ディープラーニングモデルのトレーニングや推論 ウェブブラウジング データベースの管理 None 8. ドロップアウトを使用する主な理由はどれですか? 学習速度を上げるため モデルのパラメータ数を増やすため モデルの汎化性能を向上させるため モデルの誤差を最小化するため None 9. CNNのプーリング層で最大プーリング(Max Pooling)を使う利点は何ですか? 全ての入力データを平均化できる 最も重要な特徴を強調し、空間次元を縮小できる 訓練データの分散を均等にする モデルの精度を常に向上させる None 10. セマンティックセグメンテーションにおける「ダウンサンプリング」とは何ですか? 画像の解像度を高めること 画像の次元を増加させること 画像をスケールアップすること 画像の特徴を圧縮し、情報を要約すること None 11. 「ハードサンプルマイニング」とは、どのような手法ですか? ラベルなしデータを用いてランダムにサンプリングする手法 モデルのパラメータ数を削減する手法 モデルが誤分類しやすいデータを重点的に学習する手法 ラベル付きデータを使わずに学習する手法 None 12. 「データシャッフル」の効果として最も適切なものはどれですか? モデルの学習を高速化する トレーニングデータの順序依存性を排除し、より安定した学習を促す モデルの複雑さを低減する バッチサイズを調整する None 13. アンサンブル学習(Ensemble Learning)の目的として正しいものはどれですか? モデルのパラメータ数を減らす 複数のモデルを組み合わせて汎化性能を向上させる データの前処理を効率化する モデルのトレーニング時間を短縮する None 14. 「局所的解釈可能性」を持つモデルの例として正しいものはどれですか? ニューラルネットワーク 決定木 ランダムフォレスト サポートベクターマシン None 15. BERT(Bidirectional Encoder Representations from Transformers)の最大の特徴は何ですか? 単方向の文脈を捉える 画像認識に特化している 単語の出現頻度を考慮する 双方向の文脈を捉える None 16. 「アンサンブル学習」の一種である「ブースティング」の特徴はどれですか? 各モデルを並列に訓練する 正則化を強化する バッチサイズを増加させる 各モデルを逐次的に訓練し、前のモデルのエラーを修正する None 17. エントロピー H(X) の値が最大になるのはどのような場合ですか? 確率分布が偏っている場合 確率分布が 0 に近い場合 確率分布が均一な場合 確率分布が無限大の場合 None 18. CNNにおいて、学習中に重みを更新する手法として一般的に使用されるのはどれですか? 勾配降下法(Gradient Descent) k-meansクラスタリング 主成分分析(PCA) サポートベクターマシン(SVM) None 19. セマンティックセグメンテーションにおいて、「DeepLab」モデルの特徴は何ですか? 単純なCNNを使用している 空間的ピラミッドプーリング(SPP)を採用し、異なるスケールでの特徴抽出を行う 全結合層を多用する モデルの深さが浅い None 20. L1正則化(ラッソ回帰)の特徴として正しいものはどれですか? モデルの重みがゼロになることがある 重みが減少するが、ゼロにはならない 勾配を一定に保つ モデルの精度を低下させる None 21. VAEにおける「エビデンス下界(ELBO)」の役割は何ですか? モデルのパラメータ数を増やす モデルの学習を安定化させるための目的関数 データを圧縮するための手法 モデルの精度を評価するための指標 None 22. 順伝播型ネットワークにおける活性化関数「シグモイド関数」が深層学習であまり使われない理由は何ですか? 勾配消失問題を引き起こしやすいため 勾配爆発を引き起こすため 計算コストが高いため 非線形性が低いため None 23. 2つの独立した確率変数 X と Y の期待値 E(X) = 3, E(Y) = 5 のとき、X + Y の期待値はどれですか? 15 3 8 5 None 24. LIME(Local Interpretable Model-agnostic Explanations)の主な特徴は何ですか? モデル全体の動作をシミュレーションする ランダムにデータを選んでモデルの予測を評価する 特定の予測に対して、シンプルなローカルモデルを使って説明を行う モデルのパラメータを全て可視化する None 25. セマンティックセグメンテーションで、アトリウムネットワーク(Atrous Convolution)が使用される理由として最も適切なものはどれですか? 高解像度の特徴を維持しながら、広い受容野を確保するため 計算コストを削減するため 全結合層を減らすため モデルのサイズを縮小するため None 26. 次のうち、「BPE(Byte Pair Encoding)」が自然言語処理で使用される理由として正しいものはどれですか? テキストデータを圧縮するため 単語の出現頻度を学習するため テキストデータの前処理を自動化するため 未知の単語や希少な単語を処理するためのサブワード分割手法 None 27. 次の文脈に最も適したアーキテクチャを選んでください:「非常に長いシーケンスを処理し、長期的な依存関係をより効率的にモデル化できる手法」 単純RNN GRU Transformer LSTM None 28. VAEにおいて、潜在空間の次元数を増やすとどのような効果がありますか? 再構成精度が向上するが、生成データの多様性が低下する 再構成精度が低下し、生成データの多様性が向上する 再構成精度と生成データの多様性が両方とも向上する モデルの計算コストが下がる None 29. 分散処理システムでの「シャーディング」の目的は何ですか? データを圧縮して保存する データを一箇所に集約して保存する データを複数のノードに分割して保存し、処理を分散させる データの一貫性を保証する None 30. セマンティックセグメンテーションにおける「クラス不均衡」を解決するために使用される手法はどれですか? 学習率の増加 データ拡張 クラス重み付け クロスバリデーション None 31. a b c d None 32. 画像認識タスクで最も一般的に使用される損失関数はどれですか? 平均二乗誤差 クロスエントロピー誤差 ヒンジ損失 ハブ損失 None 33. CNNにおける活性化関数として最もよく使用されるものはどれですか? ReLU関数 シグモイド関数 ソフトマックス関数 タンジェントハイパボリック関数 None 34. セマンティックセグメンテーションの評価において、精度を高めるための一般的な前処理手法として適切なものはどれですか? データの正規化 モデルの再訓練 ピクセル値のランダムシフト デコーダーの再設計 None 35. 物体検出アルゴリズムにおいて、画像の解像度が非常に高い場合に注意すべき点はどれですか? 計算コストの増加と、細かい物体の誤検出 物体が見つからない モデルのパラメータ数が減少する 検出結果が一貫しなくなる None 36. 次のうち、「REINFORCE」アルゴリズムの特徴として最も適切なものはどれですか? Q値を用いて価値関数を近似する 経験再生を行い、効率的に学習を進める 方策勾配法を使用し、方策を直接最適化する 報酬の割引率を調整する None 37. GANにおいて、生成器の目的は何ですか? 偽のデータを生成し、それを判別器に対して本物のデータのように見せかける 本物のデータを識別する データを分類する データを削減する None 38. 情報理論における「相互情報量」とは何を意味しますか? 2つの変数がどれだけ同時に発生するかを示す 2つのデータセット間の距離 2つの確率変数間で共有される情報量 情報量を圧縮する際の削減率 None 39. 分散処理とは何を指しますか? データを一元的に管理するシステム 複数の計算リソースにタスクを分配して処理を行う手法 一台のサーバーですべての計算を行う手法 クラウドでデータを保管する手法 None 40. 分散処理システムにおける「リーダー選出アルゴリズム」として正しいものはどれですか? データの圧縮を行うアルゴリズム ノード間のデータ転送を最適化するアルゴリズム データベースのクエリを最適化するアルゴリズム PaxosやRaftなどの合意アルゴリズム None 41. エッジコンピューティングのデバイスが持つ「電力制約」を軽減するために採用される技術はどれですか? 低消費電力のプロセッサや効率的なアルゴリズムの利用 クラウドへのデータ転送の増加 バックアップの頻度を増加させる データ処理を全てクラウドに移行する None 42. 強化学習において、報酬を割り引くために使用される値は何ですか? 学習率 割引率(Discount Factor, γ) 方策(Policy) 探索パラメータ None 43. 物体検出アルゴリズムであるYOLOのバージョン3(YOLOv3)の主な改良点として正しいものはどれですか? 1つの解像度でのみ予測を行う 異なるスケールで予測を行い、より小さな物体も検出できる 物体の位置情報のみを予測する RPNを使用して速度を改善した None 44. 「Hadoop」はどのような分散処理フレームワークですか? 単一のサーバーでデータを処理するためのフレームワーク データベースの検索を高速化するフレームワーク ビッグデータを分散処理するためのオープンソースのフレームワーク 小規模なデータセットを処理するためのフレームワーク None 45. L1正則化とL2正則化を組み合わせた「Elastic Net」が特に有効な場面はどれですか? モデルの学習速度を上げたい場合 特徴量が多く、スパースな解を得たい場合 重みがすべてゼロになる場合 勾配消失問題を完全に防ぎたい場合 None 46. 物体検出において、「多段階検出モデル」とは何を指しますか? 画像を複数の段階で処理し、各段階で異なる特徴を学習するモデル モデルの層を追加し、複数の物体を検出するモデル データセットを分割して学習するモデル 異なる解像度の画像を同時に学習するモデル None 47. データ拡張(Data Augmentation)の主な目的は何ですか? モデルのサイズを減らす 学習率を調整する データの次元を削減する トレーニングデータを人工的に増やして過学習を防ぐ None 48. 物体検出において、マルチスケール特徴マップを利用するモデルの利点として正しいものはどれですか? 計算コストを削減できる データ拡張が不要になる モデルが深くなるため精度が低下する 小さな物体や大きな物体の両方を検出できる None 49. 「半教師あり学習」はどのようなデータを用いる学習方法ですか? ラベル付きデータのみを使用する ラベルなしデータのみを使用する 少量のラベル付きデータと大量のラベルなしデータを組み合わせて使用する ラベル付きデータを生成する None 50. 「クロスバリデーション」の目的は何ですか? モデルのパラメータ数を減らす モデルの学習速度を向上させる モデルの性能をより正確に評価する データ拡張を行う None 51. セマンティックセグメンテーションにおいて、「ピクセルワイズソフトマックス(Pixel-wise Softmax)」が必要とされる理由は何ですか? 画像全体に同一のラベルを割り当てるため モデルの出力を正規化するため デコーダー部分での計算コストを削減するため 各ピクセルごとにクラス確率を計算し、最も高いクラスを予測するため None 52. 次のうち、エッジコンピューティングにおいて「コンテナ技術」が重要視される理由として正しいものはどれですか? クラウド上でデータを保存するためのセキュリティを強化する 軽量な仮想化環境を提供し、エッジデバイスでの効率的なデプロイを可能にする デバイスの寿命を延ばす 通信帯域を広げる None 53. モデルの汎化性能を向上させるために、L2正則化とドロップアウトを組み合わせる理由は何ですか? モデルの複雑さを抑え、過学習を防ぐため モデルの学習速度を上げるため 重みを無作為に更新するため モデルの出力を正規化するため None 54. 順伝播型ニューラルネットワークにおけるL1正則化の効果はどれですか? 重みの一部がゼロになり、特徴量選択の役割を果たす 重みの絶対値がすべて減少する モデルの訓練速度が遅くなる モデルが過学習しやすくなる None 55. 次のうち、アクセラレータを使用することで予想される課題として最も適切なものはどれですか? ストレージ容量が増える 専用のプログラミングスキルが必要になる場合がある ネットワーク速度が低下する 汎用性が高くなりすぎる None 56. 次のうち、エッジコンピューティングが適用される例として最も適切なものはどれですか? センサーが集めたデータをリアルタイムで処理するIoTシステム 大規模なデータセンターでのバックアップ処理 個人のパソコンでのデータ保存 クラウド上でのデータ分析 None 57. Dockerを使った開発環境の構築で、複数のコンテナが相互に通信するために必要な設定は何ですか? 各コンテナを独立したサーバーとして設定する すべてのコンテナを同じホストで実行する Docker Composeを使ってネットワークを構成する 各コンテナのIPアドレスを固定する None 58. 次の中で、BERT(Bidirectional Encoder Representations from Transformers)とTransformerの主な違いとして正しいものはどれですか? BERTは双方向の自己注意を使用し、Transformerは単方向の自己注意を使用する BERTはエンコーダー部分のみを使用し、Transformerはエンコーダーとデコーダーの両方を使用する BERTは逐次処理を行い、Transformerは並列処理を行う BERTは画像データ専用で、Transformerはテキストデータ専用である None 59. 次のうち、LSTMが通常のRNNに比べて勾配消失問題に対処できる理由として正しいものはどれですか? LSTMは逆伝播を行わない LSTMは短期的な情報のみを保持する LSTMはゲート機構を利用して、重要な情報を長期的に保持できる LSTMは隠れ層の重みを固定する None 60. 次のうち、深層強化学習で多用される「ソフトアクタークリティック(SAC)」の特徴として正しいものはどれですか? 方策を持たない強化学習手法である 最大エントロピー原理に基づき、行動の多様性を保持しつつ学習する 確定論的な方策を使用して学習する 報酬を一定に保ちながら学習を行う None 61. 「説明可能AI(Explainable AI, XAI)」の主な目的は何ですか? モデルがなぜ特定の予測を行ったのかを理解しやすくすること モデルの学習速度を向上させること モデルの訓練データ量を減らすこと モデルの予測精度を下げること None 62. 分散処理システムで「キャパシティプランニング」を行う際に考慮すべき要素はどれですか? ノード数、データ量、処理速度、ネットワーク帯域 データの種類とラベルの数 データを一元的に管理する方法 クラウドストレージの容量 None 63. シャノンの定理に基づき、ある通信路の容量が C = 10 kbps、信号対雑音比 (SNR) が 30 dB であるとき、この通信路の帯域幅はおよそどれですか? 500 Hz 1 kHz 2 kHz 5 kHz None 64. L2正則化を強くかけすぎると、どのような問題が発生する可能性がありますか? モデルが過学習を起こす モデルが過度に単純化され、アンダーフィッティングする 学習が停止してしまう 勾配消失問題が発生する None 65. エントロピー符号化の目的は何ですか? データの信頼性を向上させること データの不確実性を増やすこと エントロピーに基づいて、情報量に応じた符号を割り当てることで、データの圧縮率を高めること データの雑音を増やすこと None 66. シャノンの通信理論における「通信路容量」とは何ですか? 通信路で誤りなく伝送できる最大のデータ量 通信路で送信できる最大のエントロピー 通信路で使用できる最大の帯域幅 通信路の信号対雑音比 None 67. 順伝播型ネットワークで使用される活性化関数の役割は何ですか? 重みを更新するため 非線形性を導入し、モデルに複雑なパターンを学習させるため モデルの重みを初期化するため 入力データを正規化するため None 68. 「深層ニューラルネットワークの説明性」を高めるために使用される手法の一つである「勾配ベースの手法」とは何ですか? データをクラスターに分けてその振る舞いを分析する手法 データをランダムに選んでモデルを評価する手法 モデルのパラメータを全て可視化する手法 出力に対する入力の寄与を勾配を用いて計算する手法 None 69. VGG16とResNetの主な違いは何ですか? VGG16は非常に浅いネットワークで、ResNetは非常に深いネットワークである VGG16はスキップ接続を使用し、ResNetは使用しない VGG16はクロスエントロピー誤差を使用せず、ResNetは使用する VGG16は全結合層を多用し、ResNetは残差学習を採用している None 70. プーリング層の主な役割は何ですか? パラメータの数を増やす 画像の解像度を高める 特徴マップの次元を縮小し、計算量を削減する 画像の色調を調整する None 71. ドロップアウト(Dropout)の役割は何ですか? ニューロンをランダムに無効化し、過学習を防ぐ モデルの学習率を調整する 勾配の更新を加速する データの正規化を行う None 72. 次のうち、Flow-based Modelの特徴として正しいものはどれですか? 生成したデータの確率密度を直接計算できる モデルの生成精度が低い 潜在変数を使用しない 判別器を必要とする None 73. GANの判別器が「本物」と「偽物」のデータを正確に識別できるようになりすぎた場合、生成器にどのような問題が発生しますか? 生成器が学習できなくなる 生成器がより高品質なデータを生成できる 生成器がモード崩壊を起こす 生成器のパラメータ数が増加する None 74. ディープラーニング環境をクラウド上で効率的に運用するためのベストプラクティスはどれですか? すべての計算をローカルマシンで行う GPUを搭載したインスタンスを使用し、必要に応じてスケールアウトする クラウド上でCPUのみを使用して計算する 固定されたインスタンスを使用し、スケールアウトは行わない None 75. 期待値とは何を意味しますか? 確率変数の可能な値の中で最も高い値 確率変数が取る可能性のある値の平均値 事象が発生する確率 確率変数が取る値の最小値 None 76. 順伝播型ネットワークにおける「エポック」とは何ですか? モデルの性能を評価するためのテストデータ 訓練データ全体を1度モデルに与えて学習するプロセス 重みを初期化するプロセス モデルのパラメータをチューニングするプロセス None 77. 畳み込みニューラルネットワーク(CNN)で一般的に使用されるプーリング層の目的は何ですか? データの空間次元を削減し、モデルの計算量を抑えるため データの正規化を行うため 入力画像を拡大するため 重みを更新するため None 78. 強化学習における「エージェント」の役割は何ですか? 環境の状態を制御する 環境からの報酬を基に行動を選択する 環境の次の状態を予測する 報酬を設定する None 79. 次のうち、RNNの代表的なアプリケーションはどれですか? 画像分類 音声認識 コンピュータビジョン 強化学習 None 80. CNNにおける「ReLU関数」が学習効率を高める理由はどれですか? 出力をゼロに制限するため データを正規化するため 重みをゼロにするため 非線形性を導入し、勾配消失を防ぐため None 81. 強化学習において「逆強化学習(Inverse Reinforcement Learning)」の目的は何ですか? エージェントの行動を予測すること 環境の状態を再構成すること 報酬関数を未知の状態で推定すること 方策を直接学習すること None 82. ディープラーニングの推論において、TPUがGPUに対して有利となる理由として最も適切なものはどれですか? TPUはグラフィックス処理が得意であるため TPUはプログラミングが容易であるため TPUはディープラーニング専用のハードウェアとして設計されており、推論に特化して最適化されているため TPUは消費電力が高いため None 83. CNNにおける「ストライド」とは何ですか? プーリング層でのデータ抽出範囲 重みの更新方法 フィルタが畳み込む際の移動距離 活性化関数の種類 None 84. エッジコンピューティングの導入によって、クラウド上のデータ処理に与える影響として正しいものはどれですか? クラウドへのデータ送信量が減り、クラウドの負荷が軽減される クラウドへのデータ送信量が増え、クラウドの負荷が増加する クラウドの負荷には全く影響しない クラウドへの依存が完全になくなる None 85. CNNで「フィルタ数」を増加させることによる主な影響は何ですか? モデルの計算量が減少する 過学習のリスクが減る モデルがより多様な特徴を捉えられるようになる モデルが重みを自動調整できるようになる None 86. ドロップアウトがリカレントニューラルネットワーク(RNN)に対して効果的な理由は何ですか? 過学習を防ぎ、ネットワークが長期間の依存関係を捉えるのを助ける 重みの初期化を行うため 訓練データのサイズを増加させるため 勾配消失を完全に防ぐため None 87. 畳み込みニューラルネットワークにおける「フィルタ(カーネル)」のサイズが大きくなると、何が起こりますか? モデルが捉える特徴がより大きな範囲に渡る モデルが過学習しやすくなる モデルの計算量が減少する ニューロンの数が増加する None 88. 次のうち、「Proximal Policy Optimization(PPO)」の特徴として最も適切なものはどれですか? 方策の更新を制御し、過度な更新を防ぐ 経験再生を使用して効率的に学習する 確率的な行動選択を行わない データのバッチサイズを動的に変更する None 89. 「オンライン学習」とは何ですか? 時間とともにデータを受け取り、その都度モデルを更新して学習する手法 一括してデータを学習し、最適なモデルを作成する手法 クラウドを利用してモデルを学習する手法 複数のモデルを同時に学習する手法 None 90. 分散処理における「キャッシュの一貫性」を保つために使用される技術はどれですか? キャッシュコヒーレンスプロトコル 二相コミットプロトコル リーダー選出アルゴリズム データローカリティ None 91. 深層強化学習において、次元削減技術が導入される理由として正しいものはどれですか? 状態空間が高次元である場合、効率的に学習するため 行動空間が不確実な場合、行動選択を高速化するため 方策の更新頻度を増加させるため 報酬をより多く得るため None 92. 次のうち、セマンティックセグメンテーションにおいて「パッチベースのアプローチ」が適しているシナリオはどれですか? リアルタイム予測が必要な場合 単純なオブジェクト分類 高解像度の大規模画像のセグメンテーション 計算リソースが限られている場合 None 93. 「Terraform」を使用する主な目的は何ですか? インフラをコードとして管理し、クラウドリソースを自動的に構築・管理するため ディープラーニングモデルをトレーニングするため ネットワーク帯域を最適化するため データベースのパフォーマンスを改善するため None 94. 順伝播型ネットワークにおいて、ReLU関数が活性化関数として好まれる理由は次のうちどれですか? 負の値に対しても出力があるため すべての出力が1になるため モデルの重みを正規化するため 勾配消失問題を軽減できるため None 95. 次の中で、GRUとLSTMの主な違いとして正しいものはどれですか? GRUはLSTMに比べてゲートの数が多い GRUは計算コストがLSTMよりも高い GRUは勾配消失問題に弱い GRUは出力ゲートを持たない None 96. 機械学習において、L2正則化(リッジ回帰)が効果的な理由として最も適切なのはどれですか? モデルのパラメータをより複雑にするため モデルのパラメータに対するペナルティを課し、過学習を防ぐため データを正規化するため 学習速度を上げるため None 97. 「カーネルPCA」と通常のPCAの違いは何ですか? カーネルPCAは非線形な次元削減が可能 カーネルPCAは教師あり学習の手法 カーネルPCAはラベル付きデータを使用する カーネルPCAは次元を増加させる手法 None 98. 次のうち、強化学習において「多腕バンディット問題」が示す課題として最も適切なものはどれですか? 状態空間の次元削減に関する課題 環境の報酬構造を推定する課題 行動の決定に時間がかかる問題 探索と活用のバランスを取る課題 None 99. a b c d None 100. エッジコンピューティングにおけるデータの「プライバシー保護」のために考慮すべき要素は何ですか? データをクラウドで保存する データをリアルタイムで送信する データのローカル処理と暗号化 デバイスを分散させる None Time's up