E資格~模擬試験②~ 2024年12月7日 ailearn 1. GANにおいて、判別器の役割は何ですか? データを生成する データを圧縮する 本物のデータと偽物のデータを区別する データを分類する None 2. 分散処理システムでの「シャーディング」の目的は何ですか? データを圧縮して保存する データを一箇所に集約して保存する データを複数のノードに分割して保存し、処理を分散させる データの一貫性を保証する None 3. 次のうち、Transformerが従来のSeq2Seqモデル(RNNベース)に比べて優れている点として正しいものはどれですか? 時間的依存性が強くなる 全てのシーケンスを逐次処理する モデルのサイズが小さい 長いシーケンスでも並列処理が可能である None 4. 分散処理システムで「ネットワークボトルネック」が発生する主な原因として最も適切なものはどれですか? 各ノードが独立して処理を行うこと 大量のデータがネットワークを介して送信される際の帯域幅不足 データの保存容量が不足すること データのローカリティが高い場合 None 5. 次のうち、強化学習において「多腕バンディット問題」が示す課題として最も適切なものはどれですか? 状態空間の次元削減に関する課題 環境の報酬構造を推定する課題 行動の決定に時間がかかる問題 探索と活用のバランスを取る課題 None 6. 「自己教師あり学習」はどのような手法ですか? 報酬を与えてエージェントに学習させる モデルが自らデータを生成する 他のモデルから知識を転移する ラベルなしデータに対して擬似ラベルを生成し、そのラベルでモデルを訓練する None 7. 「アンサンブル学習」の一種である「ブースティング」の特徴はどれですか? 各モデルを並列に訓練する 正則化を強化する バッチサイズを増加させる 各モデルを逐次的に訓練し、前のモデルのエラーを修正する None 8. ディープラーニングモデルを大規模データセットでトレーニングする際にクラウド環境を選択する利点として適切なものはどれですか? 必要に応じて計算リソースをスケールアップ・スケールダウンできる ローカル環境での計算が常に速い インターネット接続が不要になる ストレージ容量を減らすことができる None 9. データ拡張(Data Augmentation)の主な目的は何ですか? モデルのサイズを減らす 学習率を調整する データの次元を削減する トレーニングデータを人工的に増やして過学習を防ぐ None 10. エッジコンピューティングの利点として正しいものはどれですか? データ処理の遅延を減らす データの安全性を低下させる データの送信コストを増加させる すべてのデータをクラウドに集約する None 11. 次のうち、RNNの一種ではないものはどれですか? LSTM GRU Transformer Bidirectional RNN None 12. エッジコンピューティングにおいて、デバイス間の通信の信頼性を確保するために必要な対策として最も適切なものはどれですか? デバイスの計算速度を上げる ネットワークの冗長化やデータの暗号化 全てのデータをクラウドに送信する ネットワーク帯域を減らす None 13. リカレントニューラルネットワーク(RNN)における「バックプロパゲーション・スルー・タイム(BPTT)」の最大の課題は何ですか? 勾配爆発 メモリ効率の悪さ 勾配消失 学習速度の低下 None 14. 「カーネルPCA」と通常のPCAの違いは何ですか? カーネルPCAは非線形な次元削減が可能 カーネルPCAは教師あり学習の手法 カーネルPCAはラベル付きデータを使用する カーネルPCAは次元を増加させる手法 None 15. 強化学習において、報酬を割り引くために使用される値は何ですか? 学習率 割引率(Discount Factor, γ) 方策(Policy) 探索パラメータ None 16. 次のうち、GPUを利用してディープラーニングを高速化するために必要なドライバやライブラリのセットはどれですか? CUDAとcuDNN OpenGLとVulkan DirectXとOpenAL TensorFlowとPyTorch None 17. 次のうち、「REINFORCE」アルゴリズムの特徴として最も適切なものはどれですか? Q値を用いて価値関数を近似する 経験再生を行い、効率的に学習を進める 方策勾配法を使用し、方策を直接最適化する 報酬の割引率を調整する None 18. リカレントニューラルネットワーク(RNN)で頻繁に使用される勾配消失問題とは何ですか? パラメータが増加しすぎる問題 勾配が大きくなりすぎる問題 誤差が伝播しない問題 勾配が非常に小さくなるため、学習が進まない問題 None 19. GANにおいて、生成器の目的は何ですか? 偽のデータを生成し、それを判別器に対して本物のデータのように見せかける 本物のデータを識別する データを分類する データを削減する None 20. 開発環境において、「バージョン管理システム」として最も広く使用されているツールはどれですか? Docker VirtualBox Git Jupyter Notebook None 21. エッジコンピューティングにおける「フォグコンピューティング」との違いとして正しいものはどれですか? フォグコンピューティングはエッジデバイスよりも上位のネットワーク層で処理を行う フォグコンピューティングはクラウドのみで処理を行う フォグコンピューティングはエッジデバイスを使用しない フォグコンピューティングはすべての処理をローカルで完結する None 22. 「MapReduce」の「Reduce」フェーズの役割は何ですか? Mapフェーズで生成されたキーと値のペアを集約し、最終結果を生成する 入力データを分割し、キーと値のペアを生成する データをクラウドに送信する データを保存する None 23. Bidirectional LSTMのメリットとして、最も適切なものはどれですか? 計算速度が速い 双方向から情報を処理するため、シーケンス全体の文脈を理解できる メモリ消費が少ない 勾配消失問題が完全に解決される None 24. バッチ正規化(Batch Normalization)の効果として最も適切なものはどれですか? モデルのトレーニングを安定化させる 勾配消失問題を完全に防ぐ 過学習を防ぐために学習データを削減する 学習率を低下させる None 25. CycleGANの主な用途として最も適切なものはどれですか? 異なるドメイン間の画像変換 画像の分類 データの圧縮 文章生成 None 26. アクセラレータの導入による計算コスト削減の方法として適切なものはどれですか? ストレージ容量を増加させ、計算時間を短縮する ネットワーク帯域を広げ、データ転送を高速化する CPUのみで処理を行う 特定のタスクに最適化されたハードウェアを使用し、計算効率を向上させる None 27. RNNのバックプロパゲーションでは、勾配がどのように計算されますか? 順方向に伝播しながら計算 全タイムステップにわたって逆伝播し、誤差を計算 各タイムステップごとに個別に計算 勾配を記憶し、タイムステップごとに加算 None 28. 次の中で、BERT(Bidirectional Encoder Representations from Transformers)とTransformerの主な違いとして正しいものはどれですか? BERTは双方向の自己注意を使用し、Transformerは単方向の自己注意を使用する BERTはエンコーダー部分のみを使用し、Transformerはエンコーダーとデコーダーの両方を使用する BERTは逐次処理を行い、Transformerは並列処理を行う BERTは画像データ専用で、Transformerはテキストデータ専用である None 29. 半教師あり学習で使用される「擬似ラベル」の生成方法として正しいものはどれですか? ラベルなしデータに対して既存のモデルが予測したラベルを用いる ラベル付きデータを使ってランダムにラベルを生成する ラベルなしデータをクラスタリングしてラベルを作成する ラベルなしデータを教師あり学習で学習する None 30. 次のうち、エッジコンピューティングにおいて「コンテナ技術」が重要視される理由として正しいものはどれですか? クラウド上でデータを保存するためのセキュリティを強化する 軽量な仮想化環境を提供し、エッジデバイスでの効率的なデプロイを可能にする デバイスの寿命を延ばす 通信帯域を広げる None 31. 「自己回帰モデル(Auto-Regressive Model)」とTransformerの関係性について正しいものはどれですか? Transformerは自己回帰モデルとして動作する Transformerは自己回帰モデルの欠点を補完する Transformerは自己回帰モデルの一部である Transformerは自己回帰モデルを全く使用しない None 32. ディープラーニング環境において、仮想環境「Docker」を用いる際に、GPUを使用するために必要なセットアップはどれですか? Dockerコンテナ内でJupyter Notebookをインストールする Dockerコンテナを使ってPythonパッケージを管理する Dockerコンテナ内でNVIDIAのCUDAおよびnvidia-docker2プラグインをインストールする Dockerコンテナを使ってAnacondaをインストールする None 33. 「Grad-CAM(Gradient-weighted Class Activation Mapping)」の主な目的は何ですか? 畳み込みニューラルネットワークの中で、どの部分が予測に寄与したかを可視化する モデル全体の動作を評価する データの次元を削減する ラベルなしデータを自動的にラベル付けする None 34. アクセラレータを使用したディープラーニングのトレーニングにおいて、重要なパラメータの一つである「バッチサイズ」が大きくなると、どのような効果が期待されますか? メモリ使用量が減少し、トレーニングが遅くなる メモリ使用量が増加し、トレーニングが高速化する メモリ使用量が増加し、トレーニングが遅くなる メモリ使用量が減少し、トレーニングが高速化する None 35. 「教師なし学習」の主な目的は何ですか? モデルが入力データから潜在的な構造を見つけ出すこと ラベル付きデータを使ってモデルを訓練すること 報酬に基づいて行動を選択すること モデルが自動的にラベルを生成すること None 36. 「MapReduce」における「Map」フェーズの役割は何ですか? 入力データを分割し、キーと値のペアを生成する データを一元化し、集約結果を生成する 入力データをそのまま出力する データをクラウドに送信する None 37. リカレントニューラルネットワーク(RNN)の順伝播において、各タイムステップで計算される出力は何に基づいていますか? 前のタイムステップの入力のみ 現在のタイムステップの入力のみ 現在のタイムステップの入力と前のタイムステップの出力 全タイムステップの入力 None 38. ディープラーニング環境をGPU対応にするために必要な操作として最も適切なものはどれですか? CPUのみを使用するように環境を設定する GPUを無効化してトレーニングを行う 特定のライブラリをインストールせずにトレーニングを行う GPU対応のディープラーニングライブラリとCUDAおよびcuDNNのインストール None 39. GANの訓練における問題点として最も一般的なものは何ですか? 過学習 学習率の低下 バッチサイズの不足 モード崩壊 None 40. 次のうち、RNNの代表的なアプリケーションはどれですか? 画像分類 音声認識 コンピュータビジョン 強化学習 None 41. Jupyter Notebookの主な用途は何ですか? データベースの管理ツール インタラクティブなデータ分析やプログラム実行を行うツール クラウドサーバーの運用ツール グラフィック処理の最適化ツール None 42. VAEにおける「エビデンス下界(ELBO)」の役割は何ですか? モデルのパラメータ数を増やす モデルの学習を安定化させるための目的関数 データを圧縮するための手法 モデルの精度を評価するための指標 None 43. 次のうち、Q学習とSarsaの主な違いとして正しいものはどれですか? Q学習は方策を直接学習し、Sarsaは価値関数を学習する Q学習はオフポリシー、Sarsaはオンポリシーである Q学習は方策勾配法を使用し、Sarsaは使わない Q学習は報酬の割引率を持たず、Sarsaは持つ None 44. 分散処理システムで使われる「マスター・スレーブアーキテクチャ」とは何ですか? すべてのノードが同等にタスクを分担するアーキテクチャ 各ノードが独立して動作するアーキテクチャ タスクを一台のサーバーで処理するアーキテクチャ マスターがタスクを管理し、スレーブが処理を実行するアーキテクチャ None 45. 生成モデルとは何を行うモデルですか? データの分類を行うモデル データの生成を行うモデル データの回帰を行うモデル データの削減を行うモデル None 46. エッジコンピューティングがクラウドコンピューティングと異なる点として正しいものはどれですか? 大規模なデータのバックアップを行う クラウドに全データを保存する データの処理をローカルで行う 処理能力がクラウドよりもはるかに高い None 47. 「Terraform」を使用する主な目的は何ですか? インフラをコードとして管理し、クラウドリソースを自動的に構築・管理するため ディープラーニングモデルをトレーニングするため ネットワーク帯域を最適化するため データベースのパフォーマンスを改善するため None 48. DQNにおいて「Double DQN(DDQN)」が提案された主な理由は何ですか? Q値の過大評価を防ぎ、学習の安定性を向上させるため 学習速度を向上させるため 方策の更新頻度を増やすため 報酬関数を改善するため None 49. Transformerモデルにおける「Layer Normalization」は、どの段階で適用されますか? マルチヘッド注意機構の出力と残差接続の間 フィードフォワード層の入力部分 モデル全体の最終層 ポジショナルエンコーディングの後 None 50. FPGA(Field Programmable Gate Array)の特徴として正しいものはどれですか? 予め固定された構成を持つデバイス 主にデータストレージとして使用されるデバイス グラフィック処理を高速化するためのデバイス ユーザーがハードウェアの構成を再プログラム可能なデバイス None 51. 深層強化学習において、連続行動空間を処理するために使用されるアルゴリズムはどれですか? DQN(Deep Q-Network) DDPG(Deep Deterministic Policy Gradient) REINFORCE Q学習 None 52. 「マルチエージェント強化学習」における課題の一つはどれですか? 他のエージェントとの相互作用により、環境が動的に変化する エージェントが報酬を得られない場合がある エージェントが単独で行動し続けること 環境が静的であること None 53. Q学習において、Q値(Q-value)は何を表しますか? 状態の予測値 状態-行動ペアの価値 報酬の累積値 行動の確率分布 None 54. 次のうち、Transformerが自己注意メカニズムを使用することの利点として最も適切なものはどれですか? 並列処理が可能で、長いシーケンスも効率的に処理できる 時系列依存を完全に無視できる 勾配消失問題を根本的に解決する 各トークンの位置情報を完全に消去する None 55. 「アンサンブル学習」におけるブースティングの目的は何ですか? 複数の強い学習器を並列で訓練する ランダムにモデルを選択し、予測を行う データの次元を削減する 弱い学習器を連続的に訓練し、全体の予測精度を高める None 56. 次のうち、LSTMが通常のRNNに比べて勾配消失問題に対処できる理由として正しいものはどれですか? LSTMは逆伝播を行わない LSTMは短期的な情報のみを保持する LSTMはゲート機構を利用して、重要な情報を長期的に保持できる LSTMは隠れ層の重みを固定する None 57. 次のうち、Seq2SeqモデルのDecoder部分で使われる典型的なRNNアーキテクチャはどれですか? CNN LSTM MLP Transformer None 58. 分散処理とは何を指しますか? データを一元的に管理するシステム 複数の計算リソースにタスクを分配して処理を行う手法 一台のサーバーですべての計算を行う手法 クラウドでデータを保管する手法 None 59. 次のうち、深層学習の「解釈性」と「説明性」の違いとして最も正しい説明はどれですか? 解釈性は予測精度の向上に関わるが、説明性は関係しない 解釈性はモデルの内部構造を理解すること、説明性はモデルの予測結果の理由を明示すること 解釈性はブラックボックス性を強化すること、説明性は精度を最大化すること 解釈性はモデルのパフォーマンスを測定し、説明性はモデルを可視化すること None 60. L2正則化を強くかけすぎると、どのような問題が発生する可能性がありますか? モデルが過学習を起こす モデルが過度に単純化され、アンダーフィッティングする 学習が停止してしまう 勾配消失問題が発生する None 61. エッジコンピューティングが求められるシナリオとして適切なものはどれですか? 大量のデータをバックアップするためのリモートサーバー 通常のデータストレージ用途のパーソナルクラウド 高速なリアルタイム処理が必要な自動運転システム 大規模なバッチ処理が必要な分析システム None 62. 次のうち、エッジコンピューティングが適用される例として最も適切なものはどれですか? センサーが集めたデータをリアルタイムで処理するIoTシステム 大規模なデータセンターでのバックアップ処理 個人のパソコンでのデータ保存 クラウド上でのデータ分析 None 63. 次のうち、Wasserstein GAN(WGAN)の目的は何ですか? GANのモード崩壊問題を完全に解決する GANの学習の安定性を向上させ、生成データの質を高める GANのトレーニング時間を短縮する VAEと統合するための手法を提供する None 64. 分散処理システムにおける「データパーティショニング」の目的は何ですか? データを一箇所に集約して保存する データを圧縮して保存する データの一貫性を保証する データを複数のノードに分割して保存し、負荷を分散する None 65. 次の文脈に最も適したアーキテクチャを選んでください:「非常に長いシーケンスを処理し、長期的な依存関係をより効率的にモデル化できる手法」 単純RNN GRU Transformer LSTM None 66. ディープラーニングのフレームワーク「TensorFlow」を使用する際に重要なソフトウェアライブラリはどれですか? Flask React CUDA Django None 67. 「コントラスト学習」において、ポジティブペアとネガティブペアの定義は何ですか? ポジティブペアはラベル付きデータ、ネガティブペアはラベルなしデータを指す ポジティブペアは類似したデータ、ネガティブペアは異なるデータを指す ポジティブペアはラベルなしデータ、ネガティブペアは生成されたデータを指す ポジティブペアは同じモデル、ネガティブペアは異なるモデルを指す None 68. Pythonの「venv」ツールを使用する主な目的は何ですか? GPUの性能を向上させるため プロジェクトごとに独立した仮想環境を作成し、依存関係を管理するため クラウド上でPythonプログラムを実行するため データベースのパフォーマンスを向上させるため None 69. アクセラレータの導入が期待される分野として最も適切なものはどれですか? テキストエディタの開発 ディープラーニングモデルのトレーニングや推論 ウェブブラウジング データベースの管理 None 70. 次のうち、GPUとFPGAの選択を決定する上で最も重要な要素は何ですか? 計算の性質や目的に応じた適切なハードウェアの選択 ストレージの容量 ネットワーク帯域幅 デバイスの色 None 71. VAEの潜在空間における「再パラメータ化トリック」の目的は何ですか? データの次元を削減する モデルの学習速度を速める 勾配を計算可能にし、バックプロパゲーションを適用できるようにする モデルの精度を下げる None 72. エッジコンピューティングの課題として最も適切なものはどれですか? データの集中管理が難しい クラウドへの依存度が高い ネットワークの帯域幅を広げる必要がある デバイス側の計算リソースや電力制約 None 73. アンサンブル学習(Ensemble Learning)の目的として正しいものはどれですか? モデルのパラメータ数を減らす 複数のモデルを組み合わせて汎化性能を向上させる データの前処理を効率化する モデルのトレーニング時間を短縮する None 74. StyleGANの特徴として正しいものはどれですか? 生成される画像のスタイルを自由に制御できる テキスト生成に特化している 判別器を用いない モード崩壊を防ぐための技術が組み込まれている None 75. 「アクセラレータ」とは、コンピュータシステムにおいてどのような役割を持つデバイスですか? 処理速度を高速化するための専用ハードウェア データの保存容量を増やすためのデバイス インターネットの接続速度を向上させるデバイス 電力消費を増加させるデバイス None 76. エッジコンピューティングにおけるデータの「プライバシー保護」のために考慮すべき要素は何ですか? データをクラウドで保存する データをリアルタイムで送信する データのローカル処理と暗号化 デバイスを分散させる None 77. Transformerの「Feedforward Neural Network」部分は何を行いますか? データを圧縮する 各トークンの自己注意後の表現をさらに変換し、次の層に渡す 各トークンの位置情報を埋め込む 勾配をクリッピングする None 78. エッジコンピューティングの主な目的は何ですか? データの処理を中央のクラウドサーバーに依存させる データの処理をエッジデバイスの近くで行い、遅延を減少させる 大量のデータを一括で処理する デバイスの電力消費を増やす None 79. 強化学習において「逆強化学習(Inverse Reinforcement Learning)」の目的は何ですか? エージェントの行動を予測すること 環境の状態を再構成すること 報酬関数を未知の状態で推定すること 方策を直接学習すること None 80. エッジコンピューティングの進化に伴い、将来的に予測される応用分野として適切なものはどれですか? 大規模なデータセンターの運営 オンラインショッピングの配送管理 デスクトップアプリケーションの処理 スマートシティのリアルタイム交通管理システム None 81. L2正則化の効果として正しいものはどれですか? 小さなパラメータをゼロにする モデルの複雑さを抑える パラメータに対するペナルティを与える モデルの精度を向上させる None 82. バッチ正規化を使用することで、次のどの効果が得られますか? モデルの収束速度が速くなる トレーニングデータの必要量が増加する 正則化の効果が薄れる 勾配爆発問題が発生しやすくなる None 83. VAEが生成したデータがGANに比べてリアルさで劣る理由は何ですか? GANは識別器を用いるため、VAEよりも高品質な生成が可能 VAEは再パラメータ化トリックを使用していないため GANはオートエンコーダを使用していないため VAEはデータの分類に特化しているため None 84. GANにおける「ミニバッチディスクリミネーター」とは何ですか? 生成器がミニバッチ単位でデータを生成する機能 モデル全体を小さくする機能 勾配消失問題を解決するための機能 判別器がミニバッチ内の複数のサンプル間の違いを考慮して判断する機能 None 85. 次のうち、「ローカル説明」とは何を指しますか? モデル全体の振る舞いを説明すること 特定の予測結果に対してその理由を説明すること モデルの訓練データの説明を行うこと モデルの訓練プロセス全体を説明すること None 86. FPGAの動作効率を最大化するために重要な要素は何ですか? ストレージの最大化 ネットワーク速度の向上 ハードウェア構成の最適化と特定タスクに合わせたプログラミング ディープラーニングのトレーニング時間の短縮 None 87. 次のうち、Transformerモデルが機械翻訳において従来のRNNやLSTMベースのSeq2Seqモデルに勝っている理由はどれですか? より少ないパラメータで学習できる シーケンス長に依存しないため、非常に短い文でも高精度な翻訳ができる 並列計算が可能であり、大規模なデータセットを短時間で処理できる 各トークンに対して固定の重みが割り当てられている None 88. 「強化学習」におけるエージェントの目標は何ですか? 与えられたデータからパターンを見つけ出す 環境との相互作用を通じて報酬を最大化する行動を学習する ラベル付きデータを用いて予測精度を高める 環境の状態を常に予測する None 89. エッジコンピューティングにおける「リアルタイム性」を確保するために重要な要素はどれですか? データをクラウドに送り、結果を待つこと データを定期的にバックアップすること 大量のデータを一度に送信すること データをエッジデバイスで即時に処理すること None 90. 次のうち、ブースティングにおける勾配ブースティング(Gradient Boosting)の主な特徴として最も適切なものはどれですか? 勾配消失問題を解決する モデルのパラメータ数を削減する データセットの拡張を行う 前のモデルの予測誤差を利用して次のモデルを改善する None 91. 次のうち、ドロップアウトを適用する際に避けるべき層はどれですか? 入力層 隠れ層 出力層 全結合層 None 92. 「教師あり学習」とはどのような学習方法ですか? ラベル付きデータを用いてモデルを訓練する ラベルなしデータを用いてモデルを訓練する 報酬を最大化するようにモデルを訓練する モデルが自律的にデータを生成する None 93. 「ハードサンプルマイニング」とは、どのような手法ですか? ラベルなしデータを用いてランダムにサンプリングする手法 モデルのパラメータ数を削減する手法 モデルが誤分類しやすいデータを重点的に学習する手法 ラベル付きデータを使わずに学習する手法 None 94. 次のうち、Python環境におけるパッケージ管理ツールとして最も広く利用されているものはどれですか? Maven pip NPM Gradle None 95. 「可視化に基づく説明性」を高めるために、畳み込みニューラルネットワークで使われる技術はどれですか? パラメータチューニング フィルター可視化 バッチ正規化 データ拡張 None 96. 仮想環境「Vagrant」を使用する場合、主にどのようなシナリオで役立つか? 一貫性のある仮想マシン環境を簡単に構築し、チーム間で共有する場合 クラウドでのデータベース運用を最適化する場合 GPUを利用して大規模な計算を行う場合 ウェブサイトをホスティングする場合 None 97. RNNで使用される「状態ベクトル」は、どのような役割を果たしますか? パラメータ更新を行う 各タイムステップでの入力データを保持する 各タイムステップでの出力を計算するために使用される 現在の状態を次のタイムステップに伝える None 98. エッジコンピューティングが特に有効となるケースはどれですか? クラウドの処理能力が高い場合 データ転送量を減らしたい場合 大量のデータを一括で処理する場合 データのバックアップを行う場合 None 99. GANの判別器が「本物」と「偽物」のデータを正確に識別できるようになりすぎた場合、生成器にどのような問題が発生しますか? 生成器が学習できなくなる 生成器がより高品質なデータを生成できる 生成器がモード崩壊を起こす 生成器のパラメータ数が増加する None 100. モデルの汎化性能を高めるために使用される「ラベルスムージング(Label Smoothing)」の主な効果として正しいものはどれですか? 学習データのラベルにノイズを追加し、モデルの確信度を下げることで過学習を防ぐ ラベルを拡張してデータセットを増やす ラベルの不確実性を減らし、モデルの信頼性を高める 出力層のニューロン数を減らす None Time's up