E資格~模擬試験~ 2024年10月31日2024年11月3日 ailearn 1. 符号化における「冗長性」とは何を意味しますか? 情報を追加することでデータの信頼性を高めること 符号化したデータの長さを最小化すること 情報量が最小になるようにデータを圧縮すること 必要以上に多くのビットで符号化されている部分 None 2. 「Scaled Dot-Product Attention」において、スコアをスケーリングする理由は何ですか? スコアが小さくなりすぎるのを防ぐため スコアが大きくなりすぎるのを防ぐため 勾配消失を防ぐため 計算コストを削減するため None 3. 分散処理システムの利点として正しいものはどれですか? 計算リソースの効率的な利用 全てのデータを一箇所に集約して管理する 一台のサーバーに負荷を集中させる ネットワーク帯域を減らす None 4. a b c d None 5. GAN(Generative Adversarial Network)の構成要素として正しいものはどれですか? エンコーダとデコーダ 判別器と生成器 バッチ正規化とドロップアウト 畳み込み層とプーリング層 None 6. 半教師あり学習で使用される「擬似ラベル」の生成方法として正しいものはどれですか? ラベルなしデータに対して既存のモデルが予測したラベルを用いる ラベル付きデータを使ってランダムにラベルを生成する ラベルなしデータをクラスタリングしてラベルを作成する ラベルなしデータを教師あり学習で学習する None 7. 自然言語処理において「TF-IDF」の目的は何ですか? 単語の出現頻度を基に重要な単語を見つける 単語の順序を無視する 単語間の関係を学習する 単語の意味を変換する None 8. A、B という2つの事象が互いに独立であるとき、P(A) = 0.3, P(B) = 0.4 のとき、A か B の少なくとも1つが起こる確率はどれですか? 0.12 0.58 0.70 0.10 None 9. ある通信路で、信号対雑音比 (SNR) が 20dB、帯域幅が 2kHz であるとき、シャノンの通信路容量はおよそどれですか? 20 kbps 26.6 kbps 13.3 kbps 40 kbps None 10. 「ベイズ最適化」がモデルに適用される主な理由は何ですか? データの次元を削減するため ハイパーパラメータの調整を効率的に行うため モデルのパラメータをランダムに設定するため モデルの精度を下げるため None 11. 「カーネルPCA」と通常のPCAの違いは何ですか? カーネルPCAは非線形な次元削減が可能 カーネルPCAは教師あり学習の手法 カーネルPCAはラベル付きデータを使用する カーネルPCAは次元を増加させる手法 None 12. 強化学習において、報酬を割り引くために使用される値は何ですか? 学習率 割引率(Discount Factor, γ) 方策(Policy) 探索パラメータ None 13. 次の中で、「Attention Mechanism」を利用する利点は何ですか? 遠い過去の情報に対しても重要な部分に注意を集中させることができる 勾配消失問題を解決できる 全ての入力情報に対して一様な重みを割り当てる 計算リソースを大幅に削減できる None 14. 次のうち、GPUを利用してディープラーニングを高速化するために必要なドライバやライブラリのセットはどれですか? CUDAとcuDNN OpenGLとVulkan DirectXとOpenAL TensorFlowとPyTorch None 15. CNNの「畳み込みフィルタの数」を増やすと、モデルにどのような影響がありますか? モデルの学習速度が大幅に低下する モデルが捉える特徴の種類が増加し、精度が向上する可能性がある モデルが過学習しやすくなる ニューロンが無効化される None 16. 物体検出モデルのトレーニングにおいて、精度向上のために「ハードネガティブマイニング」が使用される理由は何ですか? モデルのパラメータ数を削減するため 学習データの一部を無視するため モデルが誤検出しやすい難しいネガティブ例を重点的に学習するため ネガティブ例を削除して学習を効率化するため None 17. 物体検出において、マルチスケール特徴マップを利用するモデルの利点として正しいものはどれですか? 計算コストを削減できる データ拡張が不要になる モデルが深くなるため精度が低下する 小さな物体や大きな物体の両方を検出できる None 18. 機械学習モデルの評価指標である「精度(accuracy)」は何を意味しますか? モデルが正しく分類したデータの割合 モデルの複雑さ モデルが学習したデータの量 モデルの訓練速度 None 19. 次の中で、BERT(Bidirectional Encoder Representations from Transformers)とTransformerの主な違いとして正しいものはどれですか? BERTは双方向の自己注意を使用し、Transformerは単方向の自己注意を使用する BERTはエンコーダー部分のみを使用し、Transformerはエンコーダーとデコーダーの両方を使用する BERTは逐次処理を行い、Transformerは並列処理を行う BERTは画像データ専用で、Transformerはテキストデータ専用である None 20. 勾配降下法において、学習率の役割は何ですか? 重みの初期値を設定するため モデルの複雑さを調整するため データのサイズを調整するため 重みの更新量を決定するため None 21. 次のうち、RNNの一種ではないものはどれですか? LSTM GRU Transformer Bidirectional RNN None 22. 正則化の導入により、どのようにしてモデルのバイアス-バリアンストレードオフが影響を受けますか? 正則化によりバイアスが減少し、バリアンスが増加する 正則化によりバイアスが増加し、バリアンスが減少する バイアスとバリアンスの両方が増加する バイアスとバリアンスの両方が減少する None 23. エッジコンピューティングと関連の深い技術として正しいものはどれですか? バッチ処理システム クラウドファンディング リレーショナルデータベース IoT(Internet of Things) None 24. 分散処理システムにおける「データパーティショニング」の目的は何ですか? データを一箇所に集約して保存する データを圧縮して保存する データの一貫性を保証する データを複数のノードに分割して保存し、負荷を分散する None 25. ニューラルネットワークの最適化で、重みの初期化方法として「He初期化」が特に有効な理由は何ですか? ReLUなどの非線形活性化関数を使用する場合、勾配消失問題を防ぐため 学習率を調整しやすくするため バッチサイズを減少させるため 出力層の精度を向上させるため None 26. ドロップアウト(Dropout)の主な役割は何ですか? 訓練中にニューロンをランダムに無効化することで、過学習を防ぐ 学習率を自動調整する 訓練データの一部を削除する モデルの精度を向上させるためにニューロンを追加する None 27. 「アンサンブル学習」におけるブースティングの目的は何ですか? 複数の強い学習器を並列で訓練する ランダムにモデルを選択し、予測を行う データの次元を削減する 弱い学習器を連続的に訓練し、全体の予測精度を高める None 28. Transformerの構成要素の一つである「Multi-Head Attention」の目的は何ですか? 単一の注意機構よりも複雑な関係を捉えるため 計算リソースを削減するため モデルの層を深くするため 勾配消失問題を回避するため None 29. VAEの潜在空間における「再パラメータ化トリック」の目的は何ですか? データの次元を削減する モデルの学習速度を速める 勾配を計算可能にし、バックプロパゲーションを適用できるようにする モデルの精度を下げる None 30. プーリング層の主な役割は何ですか? パラメータの数を増やす 画像の解像度を高める 特徴マップの次元を縮小し、計算量を削減する 画像の色調を調整する None 31. a b c d None 32. Faster R-CNNにおいて、RPNで生成された候補領域(Region Proposals)の数が多すぎると、どのような影響が考えられますか? 検出精度が向上するが、計算コストが増加する 検出精度が低下し、計算コストも増加する 候補領域が多いほど、精度は一定のままで計算速度が向上する 候補領域が増えると、NMSの効果がなくなる None 33. 「アダム(Adam)」最適化アルゴリズムにおけるバイアス補正の役割は何ですか? 勾配の過大評価を防ぐため モデルの重みを固定するため 損失関数を補正するため 勾配の初期段階での過小評価を防ぎ、より正確な更新を行うため None 34. 畳み込みニューラルネットワーク(CNN)で一般的に使用されるプーリング層の目的は何ですか? データの空間次元を削減し、モデルの計算量を抑えるため データの正規化を行うため 入力画像を拡大するため 重みを更新するため None 35. 情報理論において、雑音が多い通信路でエラーを減らすための典型的な方法はどれですか? 符号化の冗長性を減らす データを削除する 符号を短くする より多くの冗長性を追加する None 36. 順伝播型ネットワークにおける「ミニバッチ学習」とは何ですか? 全ての訓練データを一度にモデルに入力する手法 訓練データを少数のサブセットに分け、それぞれで学習を行う手法 訓練データをランダムに並べ替える手法 訓練データを正規化する手法 None 37. バッチ正規化(Batch Normalization)の効果として最も適切なものはどれですか? モデルのトレーニングを安定化させる 勾配消失問題を完全に防ぐ 過学習を防ぐために学習データを削減する 学習率を低下させる None 38. Transformerモデルにおいて、従来のRNNと異なる最大の特徴は何ですか? 並列計算が可能であること 時系列データを扱えないこと シーケンスの長さが固定であること 勾配消失問題を解決できないこと None 39. 次のうち、RNNにおいて双方向の情報フローを活用するモデルはどれですか? Bidirectional RNN LSTM GRU Simple RNN None 40. 回帰分析において、目的変数が連続値である場合、適切な手法は次のどれですか? ロジスティック回帰 線形回帰 サポートベクターマシン K-最近傍法 None 41. セマンティックセグメンテーションにおいて、Encoder-Decoderアーキテクチャの利点として正しいものはどれですか? 学習データを減らすことができる 予測速度を上げることができる 複雑なオブジェクトのセグメンテーションに有効である モデルの精度を犠牲にする None 42. 「説明可能AI(Explainable AI, XAI)」の主な目的は何ですか? モデルがなぜ特定の予測を行ったのかを理解しやすくすること モデルの学習速度を向上させること モデルの訓練データ量を減らすこと モデルの予測精度を下げること None 43. 順伝播型ネットワークにおいて、勾配降下法の「ミニバッチサイズ」を大きく設定した場合の利点はどれですか? モデルが過学習しやすくなる データの分散が大きくなる 勾配の更新が安定しやすくなり、収束速度が向上する可能性がある 訓練データがランダムに変更される None 44. 次のうち、Q学習とSarsaの主な違いとして正しいものはどれですか? Q学習は方策を直接学習し、Sarsaは価値関数を学習する Q学習はオフポリシー、Sarsaはオンポリシーである Q学習は方策勾配法を使用し、Sarsaは使わない Q学習は報酬の割引率を持たず、Sarsaは持つ None 45. Transformerにおける「Encoder-Decoder構造」の役割は何ですか? データの圧縮と復元 入力データと出力データの間でシーケンスを学習する 勾配の計算を高速化する バッチ処理を効率化する None 46. 「経験再生(Experience Replay)」がDQNに導入される理由として正しいものはどれですか? 訓練データのバイアスを減らし、効率的な学習を行うため 訓練データを削減するため エージェントの方策を改善するため 報酬をリアルタイムで更新するため None 47. RNNを使用したシーケンス生成モデルで、次のタイムステップの予測を生成する際、予測結果が繰り返し使用されることによる誤差の累積を防ぐために使われる手法はどれですか? バッチ正規化 ドロップアウト 学習率減衰 スケジュールサンプリング None 48. エッジコンピューティングの進化に伴い、将来的に予測される応用分野として適切なものはどれですか? 大規模なデータセンターの運営 オンラインショッピングの配送管理 デスクトップアプリケーションの処理 スマートシティのリアルタイム交通管理システム None 49. 次のうち、強化学習において「多腕バンディット問題」が示す課題として最も適切なものはどれですか? 状態空間の次元削減に関する課題 環境の報酬構造を推定する課題 行動の決定に時間がかかる問題 探索と活用のバランスを取る課題 None 50. ドロップアウトがリカレントニューラルネットワーク(RNN)に対して効果的な理由は何ですか? 過学習を防ぎ、ネットワークが長期間の依存関係を捉えるのを助ける 重みの初期化を行うため 訓練データのサイズを増加させるため 勾配消失を完全に防ぐため None 51. ディープラーニング環境をクラウド上で効率的に運用するためのベストプラクティスはどれですか? すべての計算をローカルマシンで行う GPUを搭載したインスタンスを使用し、必要に応じてスケールアウトする クラウド上でCPUのみを使用して計算する 固定されたインスタンスを使用し、スケールアウトは行わない None 52. a b c d None 53. セマンティックセグメンテーションにおいて、完全畳み込みネットワーク(Fully Convolutional Network, FCN)が導入された目的は何ですか? 画像の分類を行うため 画像のサイズを正規化するため ピクセル単位での予測を効率的に行うため 計算コストを削減するため None 54. セマンティックセグメンテーションにおいて、「DeepLab」モデルの特徴は何ですか? 単純なCNNを使用している 空間的ピラミッドプーリング(SPP)を採用し、異なるスケールでの特徴抽出を行う 全結合層を多用する モデルの深さが浅い None 55. L2正則化の効果として正しいものはどれですか? 小さなパラメータをゼロにする モデルの複雑さを抑える パラメータに対するペナルティを与える モデルの精度を向上させる None 56. CycleGANの主な用途として最も適切なものはどれですか? 異なるドメイン間の画像変換 画像の分類 データの圧縮 文章生成 None 57. 「可視化に基づく説明性」を高めるために、畳み込みニューラルネットワークで使われる技術はどれですか? パラメータチューニング フィルター可視化 バッチ正規化 データ拡張 None 58. CNNにおける「フィルタサイズ」と「ストライド」の関係について正しい説明はどれですか? ストライドが大きくなると出力サイズが大きくなる ストライドが大きくなると出力サイズが小さくなる フィルタサイズが小さいと出力サイズが増える フィルタサイズが大きいとストライドが小さくなる None 59. 情報理論における「無記憶(メモリーレス)通信路」とは何ですか? 通信路が過去の入力に依存しない通信路 データが記録されない通信路 情報を保存しない通信路 通信中にデータが消失する通信路 None 60. 「Hadoop」はどのような分散処理フレームワークですか? 単一のサーバーでデータを処理するためのフレームワーク データベースの検索を高速化するフレームワーク ビッグデータを分散処理するためのオープンソースのフレームワーク 小規模なデータセットを処理するためのフレームワーク None 61. 物体検出タスクにおける「NMS(Non-Maximum Suppression)」の目的は何ですか? 学習率を最適化する 画像の解像度を上げる 重複するバウンディングボックスを削除し、最も信頼度の高いボックスを選択する データのノイズを除去する None 62. 自己教師あり学習の代表的な手法「SimCLR」の特徴は何ですか? ラベル付きデータを用いてモデルを訓練する 入力データに対して異なる拡張を施し、コントラスト損失を用いて特徴を学習する 生成モデルを用いてデータを生成する 逐次データを用いてリアルタイムに学習を行う None 63. 次のうち、画像認識モデルでよく使われる「データ拡張」の技術に含まれないものはどれですか? 画像の回転 画像の平滑化 画像の拡大縮小 画像の反転 None 64. 自然言語処理において、テキストデータの前処理として一般的に行われる「トークン化」とは何を指しますか? テキストをエンコードする テキストを単語や文に分割する テキストを辞書に変換する テキストを圧縮する None 65. 物体検出アルゴリズムにおいて、画像の解像度が非常に高い場合に注意すべき点はどれですか? 計算コストの増加と、細かい物体の誤検出 物体が見つからない モデルのパラメータ数が減少する 検出結果が一貫しなくなる None 66. 順伝播型ネットワークにおける「勾配クリッピング」の主な目的は何ですか? 勾配消失を防ぐため モデルの重みを初期化するため 勾配爆発を防ぎ、学習を安定させるため 学習率を自動調整するため None 67. サポートベクターマシン(SVM)はどのような問題に使用されますか? 主に回帰問題 主にクラスタリング問題 主に分類問題 主に次元削減問題 None 68. エッジコンピューティングがクラウドコンピューティングと異なる点として正しいものはどれですか? 大規模なデータのバックアップを行う クラウドに全データを保存する データの処理をローカルで行う 処理能力がクラウドよりもはるかに高い None 69. モデルの汎化性能を向上させるために、L2正則化とドロップアウトを組み合わせる理由は何ですか? モデルの複雑さを抑え、過学習を防ぐため モデルの学習速度を上げるため 重みを無作為に更新するため モデルの出力を正規化するため None 70. 分散処理システムでの「シャーディング」の目的は何ですか? データを圧縮して保存する データを一箇所に集約して保存する データを複数のノードに分割して保存し、処理を分散させる データの一貫性を保証する None 71. 「教師なしクラスタリング」でよく使われる手法はどれですか? サポートベクターマシン(SVM) ディープニューラルネットワーク ロジスティック回帰 K-means法 None 72. Transformerの各層において、正規化(Normalization)はどのような役割を果たしますか? 計算コストを削減する 出力を安定化させ、学習を効率化する モデルの深さを減らす 残差接続を削除する None 73. Faster R-CNNの特徴として正しいものはどれですか? 1ステージの物体検出アルゴリズムである YOLOよりも高速だが、精度は低い RPNを用いて物体の候補領域を生成する 物体の数に応じてニューラルネットワークを動的に構築する None 74. 「分散トランザクション処理」における「二相コミットプロトコル(2PC)」の目的は何ですか? データの転送速度を向上させる データを圧縮するためのプロトコル ノード間でデータを共有するプロトコル 分散システムにおけるデータの一貫性を確保する None 75. ニューラルネットワークの学習において、「重みの初期化」が適切でないと、どのような現象が発生する可能性が最も高いですか? 学習速度が非常に速くなる 勾配消失や勾配爆発が発生し、モデルの学習が進まなくなる モデルが常に最適解に収束する 学習が停止してしまう None 76. 分散処理システムで使われる「マスター・スレーブアーキテクチャ」とは何ですか? すべてのノードが同等にタスクを分担するアーキテクチャ 各ノードが独立して動作するアーキテクチャ タスクを一台のサーバーで処理するアーキテクチャ マスターがタスクを管理し、スレーブが処理を実行するアーキテクチャ None 77. ResNetで導入された「スキップ接続(Skip Connection)」の主な目的は何ですか? モデルの計算コストを削減する モデルのパラメータ数を増やす 勾配消失問題を軽減し、非常に深いネットワークでも学習を可能にする 入力データを強化する None 78. Transformerにおける「Decoder」の役割として正しいものはどれですか? 入力シーケンスの圧縮された表現を生成する 自己注意のみを使用して出力を予測する 残差接続を使用して入力シーケンスをそのまま出力する エンコードされた情報を基に、出力シーケンスを逐次生成する None 79. L2正則化(リッジ回帰)の主な目的は何ですか? モデルの重みを増加させる モデルの重みを抑え、過学習を防ぐ 勾配を大きくする モデルの複雑さを減らすため None 80. FPGA(Field Programmable Gate Array)の特徴として正しいものはどれですか? 予め固定された構成を持つデバイス 主にデータストレージとして使用されるデバイス グラフィック処理を高速化するためのデバイス ユーザーがハードウェアの構成を再プログラム可能なデバイス None 81. GANの学習で発生する「勾配消失問題」を緩和するために提案された技術はどれですか? バッチ正規化 再パラメータ化トリック Wasserstein損失関数 クロスエントロピー損失関数 None 82. CNNにおいて、学習中に重みを更新する手法として一般的に使用されるのはどれですか? 勾配降下法(Gradient Descent) k-meansクラスタリング 主成分分析(PCA) サポートベクターマシン(SVM) None 83. シャノンの通信理論における「通信路容量」とは何ですか? 通信路で誤りなく伝送できる最大のデータ量 通信路で送信できる最大のエントロピー 通信路で使用できる最大の帯域幅 通信路の信号対雑音比 None 84. エッジコンピューティングにおいて、デバイス間の通信の信頼性を確保するために必要な対策として最も適切なものはどれですか? デバイスの計算速度を上げる ネットワークの冗長化やデータの暗号化 全てのデータをクラウドに送信する ネットワーク帯域を減らす None 85. VAEが生成したデータがGANに比べてリアルさで劣る理由は何ですか? GANは識別器を用いるため、VAEよりも高品質な生成が可能 VAEは再パラメータ化トリックを使用していないため GANはオートエンコーダを使用していないため VAEはデータの分類に特化しているため None 86. 順伝播型ニューラルネットワークにおけるL1正則化の効果はどれですか? 重みの一部がゼロになり、特徴量選択の役割を果たす 重みの絶対値がすべて減少する モデルの訓練速度が遅くなる モデルが過学習しやすくなる None 87. 標準偏差が示す意味として最も適切なのはどれですか? データの平均からの偏差の最大値 データの最小値 データの平均からの値のばらつきの程度 データの最大値 None 88. 順伝播型ネットワークにおいて、ミニバッチのサイズが大きすぎると、学習にどのような影響がありますか? 学習が不安定になり、損失関数が振動する 勾配の更新が速くなり、過学習が発生しやすくなる 勾配の更新が遅くなり、学習が効率的に進まない モデルが過学習するリスクが低くなる None 89. 深層強化学習において、次元削減技術が導入される理由として正しいものはどれですか? 状態空間が高次元である場合、効率的に学習するため 行動空間が不確実な場合、行動選択を高速化するため 方策の更新頻度を増加させるため 報酬をより多く得るため None 90. FPGAが特に有効となる応用分野はどれですか? 一般的なデータベース処理 ウェブページのレンダリング テキストエディタの動作 低遅延が要求されるリアルタイム処理や信号処理 None 91. GANの判別器が「本物」と「偽物」のデータを正確に識別できるようになりすぎた場合、生成器にどのような問題が発生しますか? 生成器が学習できなくなる 生成器がより高品質なデータを生成できる 生成器がモード崩壊を起こす 生成器のパラメータ数が増加する None 92. 2つの独立した確率変数 X と Y の期待値 E(X) = 3, E(Y) = 5 のとき、X + Y の期待値はどれですか? 15 3 8 5 None 93. 次のうち、ResNetにおいて使用されていない要素はどれですか? 残差ブロック スキップ接続 ドロップアウト バッチ正規化 None 94. アクセラレータを使用したディープラーニングのトレーニングにおいて、重要なパラメータの一つである「バッチサイズ」が大きくなると、どのような効果が期待されますか? メモリ使用量が減少し、トレーニングが遅くなる メモリ使用量が増加し、トレーニングが高速化する メモリ使用量が増加し、トレーニングが遅くなる メモリ使用量が減少し、トレーニングが高速化する None 95. ロジスティック回帰において、シグモイド関数の役割は何ですか? 線形回帰の誤差を最小化するため モデルの複雑さを抑えるため データを正規化するため 予測値を確率に変換するため None 96. 強化学習において、「探索」と「活用」のトレードオフは何を意味しますか? 環境の状態を更新することと、行動を選択することのバランス Q値を更新することと、報酬を得ることのバランス 新しい行動を試すことと、既に得た知識を利用することのバランス 学習速度を速めることと、計算コストを下げることのバランス None 97. 決定木モデルにおいて、エントロピーが最も低い分割の重要性は何ですか? データの分散を最大化するため 分割後の不確実性が最も低くなるため、より純粋なグループが得られる モデルの複雑さを減少させるため 決定木の深さを増やすため None 98. 機械学習における「過学習」とは何ですか? 訓練データに対してモデルが過剰に適合し、新しいデータに対しては性能が低下する現象 モデルが十分に訓練されていない現象 データが不足している状態 訓練データとテストデータが同じ場合にのみ発生する現象 None 99. RMSProp最適化アルゴリズムがアダグラードの改良版とされる理由は何ですか? 累積された勾配が過度に蓄積されるのを防ぐため モデルの精度を常に向上させるため 学習率を一定に保つため 損失関数の形状に依存しないため None 100. 物体検出において「バックボーンネットワーク」の役割として正しいものはどれですか? 物体の分類を行う 画像から特徴を抽出する バウンディングボックスを生成する 出力層を設計する None Time's up