E資格~模擬試験②~ 2024年12月7日 ailearn 1. アクセラレータを使用したディープラーニングのトレーニングにおいて、重要なパラメータの一つである「バッチサイズ」が大きくなると、どのような効果が期待されますか? メモリ使用量が減少し、トレーニングが遅くなる メモリ使用量が増加し、トレーニングが高速化する メモリ使用量が増加し、トレーニングが遅くなる メモリ使用量が減少し、トレーニングが高速化する None 2. 強化学習における「エージェント」の役割は何ですか? 環境の状態を制御する 環境からの報酬を基に行動を選択する 環境の次の状態を予測する 報酬を設定する None 3. データ拡張(Data Augmentation)の主な目的は何ですか? モデルのサイズを減らす 学習率を調整する データの次元を削減する トレーニングデータを人工的に増やして過学習を防ぐ None 4. 次のうち、GPUを利用してディープラーニングを高速化するために必要なドライバやライブラリのセットはどれですか? CUDAとcuDNN OpenGLとVulkan DirectXとOpenAL TensorFlowとPyTorch None 5. GANの判別器が「本物」と「偽物」のデータを正確に識別できるようになりすぎた場合、生成器にどのような問題が発生しますか? 生成器が学習できなくなる 生成器がより高品質なデータを生成できる 生成器がモード崩壊を起こす 生成器のパラメータ数が増加する None 6. 「クロスバリデーション」の目的は何ですか? モデルのパラメータ数を減らす モデルの学習速度を向上させる モデルの性能をより正確に評価する データ拡張を行う None 7. 「局所的解釈可能性」を持つモデルの例として正しいものはどれですか? ニューラルネットワーク 決定木 ランダムフォレスト サポートベクターマシン None 8. GANの訓練における問題点として最も一般的なものは何ですか? 過学習 学習率の低下 バッチサイズの不足 モード崩壊 None 9. 「SHAP(Shapley Additive Explanations)」の基本的な考え方は何ですか? モデル全体の挙動を定性的に評価する モデルの計算時間を最小化する 各特徴が予測にどれだけ貢献したかを定量的に示す モデルをランダムに評価する None 10. リカレントニューラルネットワーク(RNN)の順伝播において、各タイムステップで計算される出力は何に基づいていますか? 前のタイムステップの入力のみ 現在のタイムステップの入力のみ 現在のタイムステップの入力と前のタイムステップの出力 全タイムステップの入力 None 11. 次のうち、「Proximal Policy Optimization(PPO)」の特徴として最も適切なものはどれですか? 方策の更新を制御し、過度な更新を防ぐ 経験再生を使用して効率的に学習する 確率的な行動選択を行わない データのバッチサイズを動的に変更する None 12. 半教師あり学習で使用される「擬似ラベル」の生成方法として正しいものはどれですか? ラベルなしデータに対して既存のモデルが予測したラベルを用いる ラベル付きデータを使ってランダムにラベルを生成する ラベルなしデータをクラスタリングしてラベルを作成する ラベルなしデータを教師あり学習で学習する None 13. 「ベイズ最適化」がモデルに適用される主な理由は何ですか? データの次元を削減するため ハイパーパラメータの調整を効率的に行うため モデルのパラメータをランダムに設定するため モデルの精度を下げるため None 14. Pythonの「venv」ツールを使用する主な目的は何ですか? GPUの性能を向上させるため プロジェクトごとに独立した仮想環境を作成し、依存関係を管理するため クラウド上でPythonプログラムを実行するため データベースのパフォーマンスを向上させるため None 15. 強化学習において、「探索」と「活用」のトレードオフは何を意味しますか? 環境の状態を更新することと、行動を選択することのバランス Q値を更新することと、報酬を得ることのバランス 新しい行動を試すことと、既に得た知識を利用することのバランス 学習速度を速めることと、計算コストを下げることのバランス None 16. 「ブラックボックス攻撃」とはどのようなものですか? モデルの内部構造を知らずに攻撃を行い、その結果を基にモデルの脆弱性を探る手法 モデルのパラメータを直接変更して攻撃する手法 モデルに対してラベル付きデータを用いて攻撃する手法 モデルの精度を最大化するための手法 None 17. 次のうち、ドロップアウトを適用する際に避けるべき層はどれですか? 入力層 隠れ層 出力層 全結合層 None 18. 次のうち、Q学習とSarsaの主な違いとして正しいものはどれですか? Q学習は方策を直接学習し、Sarsaは価値関数を学習する Q学習はオフポリシー、Sarsaはオンポリシーである Q学習は方策勾配法を使用し、Sarsaは使わない Q学習は報酬の割引率を持たず、Sarsaは持つ None 19. リカレントニューラルネットワーク(RNN)における「Teacher Forcing」の目的は何ですか? 学習を高速化するため 勾配消失問題を防ぐため モデルが過去の正しい出力に基づいて学習するようにするため 過学習を防ぐため None 20. エッジコンピューティングの課題として最も適切なものはどれですか? データの集中管理が難しい クラウドへの依存度が高い ネットワークの帯域幅を広げる必要がある デバイス側の計算リソースや電力制約 None 21. CycleGANの主な用途として最も適切なものはどれですか? 異なるドメイン間の画像変換 画像の分類 データの圧縮 文章生成 None 22. GPUを使用する利点として正しいものはどれですか? 並列計算による大量のデータ処理が可能 ストレージ容量が増加する ネットワーク速度が向上する データの一貫性が保証される None 23. アクセラレータの導入が期待される分野として最も適切なものはどれですか? テキストエディタの開発 ディープラーニングモデルのトレーニングや推論 ウェブブラウジング データベースの管理 None 24. 「ディープラーニングモデルのフェアネス(公平性)」を評価するための方法として最も適切なものはどれですか? モデルの計算速度を評価する データの分散を計算する パラメータの正則化を行う 特徴量ごとの予測結果の偏りを測定する None 25. 「コントラスト学習」において、ポジティブペアとネガティブペアの定義は何ですか? ポジティブペアはラベル付きデータ、ネガティブペアはラベルなしデータを指す ポジティブペアは類似したデータ、ネガティブペアは異なるデータを指す ポジティブペアはラベルなしデータ、ネガティブペアは生成されたデータを指す ポジティブペアは同じモデル、ネガティブペアは異なるモデルを指す None 26. 分散処理システムにおける「分散キュー」の役割として正しいものはどれですか? データをクラウドに保存する 複数のプロセス間でタスクを管理し、順序を保つ 処理タスクを一台のサーバーで管理する データのバックアップを行う None 27. 「ハードサンプルマイニング」とは、どのような手法ですか? ラベルなしデータを用いてランダムにサンプリングする手法 モデルのパラメータ数を削減する手法 モデルが誤分類しやすいデータを重点的に学習する手法 ラベル付きデータを使わずに学習する手法 None 28. ディープQネットワーク(DQN)における「ターゲットネットワーク」の役割は何ですか? 行動選択の速度を向上させるために使用される 報酬を増加させるために使用される 方策を変更するために使用される Q値の計算を安定化させるために使用される None 29. 次のうち、Flow-based Modelの特徴として正しいものはどれですか? 生成したデータの確率密度を直接計算できる モデルの生成精度が低い 潜在変数を使用しない 判別器を必要とする None 30. ディープラーニング環境を構築する際に一般的に使用されるプログラミング言語はどれですか? C++ Python Java Ruby None 31. 「データシャッフル」の効果として最も適切なものはどれですか? モデルの学習を高速化する トレーニングデータの順序依存性を排除し、より安定した学習を促す モデルの複雑さを低減する バッチサイズを調整する None 32. GANにおいて、判別器の役割は何ですか? データを生成する データを圧縮する 本物のデータと偽物のデータを区別する データを分類する None 33. FPGAが特に有効となる応用分野はどれですか? 一般的なデータベース処理 ウェブページのレンダリング テキストエディタの動作 低遅延が要求されるリアルタイム処理や信号処理 None 34. GANにおける「ミニバッチディスクリミネーター」とは何ですか? 生成器がミニバッチ単位でデータを生成する機能 モデル全体を小さくする機能 勾配消失問題を解決するための機能 判別器がミニバッチ内の複数のサンプル間の違いを考慮して判断する機能 None 35. Jupyter Notebookの主な用途は何ですか? データベースの管理ツール インタラクティブなデータ分析やプログラム実行を行うツール クラウドサーバーの運用ツール グラフィック処理の最適化ツール None 36. 「HDFS(Hadoop Distributed File System)」の特徴として正しいものはどれですか? データを一元的に保存する従来型のファイルシステム 大規模データを分散して保存し、高い耐障害性を持つファイルシステム データベースの検索を高速化するためのファイルシステム 小規模データの保存に特化したファイルシステム None 37. 分散処理システムにおける「リーダー選出アルゴリズム」として正しいものはどれですか? データの圧縮を行うアルゴリズム ノード間のデータ転送を最適化するアルゴリズム データベースのクエリを最適化するアルゴリズム PaxosやRaftなどの合意アルゴリズム None 38. Transformerの各層において、正規化(Normalization)はどのような役割を果たしますか? 計算コストを削減する 出力を安定化させ、学習を効率化する モデルの深さを減らす 残差接続を削除する None 39. 「説明可能な強化学習」で利用されることの多いアプローチはどれですか? 深層強化学習の全体的な挙動を評価する手法 データをランダムに選んでモデルを評価する手法 状態価値や行動価値を明示的に説明する手法 パラメータチューニングを用いる手法 None 40. エッジコンピューティングにおける「フォグコンピューティング」との違いとして正しいものはどれですか? フォグコンピューティングはエッジデバイスよりも上位のネットワーク層で処理を行う フォグコンピューティングはクラウドのみで処理を行う フォグコンピューティングはエッジデバイスを使用しない フォグコンピューティングはすべての処理をローカルで完結する None 41. 複数のプロジェクトで異なるバージョンのPythonやライブラリを利用する場合、どのような環境構築手法が推奨されますか? すべてのプロジェクトで同じ環境を使い回す システム全体にすべてのライブラリをインストールする 各プロジェクトで同じライブラリのバージョンを強制的に使用する 各プロジェクトごとに仮想環境を作成し、依存関係を分離する None 42. VAEにおいて、潜在空間の次元数を増やすとどのような効果がありますか? 再構成精度が向上するが、生成データの多様性が低下する 再構成精度が低下し、生成データの多様性が向上する 再構成精度と生成データの多様性が両方とも向上する モデルの計算コストが下がる None 43. アンサンブル学習における「バギング(Bagging)」の主な特徴はどれですか? モデルの出力を逐次的に更新する データの順序に依存する 複数のモデルを並列に訓練し、それぞれの予測を平均化する 勾配消失問題を防ぐ None 44. エッジデバイスの計算リソースを効率的に活用するために、使用される技術として最も適切なものはどれですか? コンテナ仮想化 クラウドストレージ データウェアハウス データバックアップ None 45. 「自己回帰モデル(Auto-Regressive Model)」とTransformerの関係性について正しいものはどれですか? Transformerは自己回帰モデルとして動作する Transformerは自己回帰モデルの欠点を補完する Transformerは自己回帰モデルの一部である Transformerは自己回帰モデルを全く使用しない None 46. 次のうち、Wasserstein GAN(WGAN)の目的は何ですか? GANのモード崩壊問題を完全に解決する GANの学習の安定性を向上させ、生成データの質を高める GANのトレーニング時間を短縮する VAEと統合するための手法を提供する None 47. StyleGANの特徴として正しいものはどれですか? 生成される画像のスタイルを自由に制御できる テキスト生成に特化している 判別器を用いない モード崩壊を防ぐための技術が組み込まれている None 48. 次のうち、AIの推論処理に特化したアクセラレータはどれですか? SSD TPU HDD NIC None 49. エッジコンピューティングにおける「リアルタイム性」を確保するために重要な要素はどれですか? データをクラウドに送り、結果を待つこと データを定期的にバックアップすること 大量のデータを一度に送信すること データをエッジデバイスで即時に処理すること None 50. 次のうち、RNNの一種ではないものはどれですか? LSTM GRU Transformer Bidirectional RNN None 51. Dockerを使った開発環境の構築で、複数のコンテナが相互に通信するために必要な設定は何ですか? 各コンテナを独立したサーバーとして設定する すべてのコンテナを同じホストで実行する Docker Composeを使ってネットワークを構成する 各コンテナのIPアドレスを固定する None 52. 分散処理システムにおける「データパーティショニング」の目的は何ですか? データを一箇所に集約して保存する データを圧縮して保存する データの一貫性を保証する データを複数のノードに分割して保存し、負荷を分散する None 53. エッジコンピューティングが求められるシナリオとして適切なものはどれですか? 大量のデータをバックアップするためのリモートサーバー 通常のデータストレージ用途のパーソナルクラウド 高速なリアルタイム処理が必要な自動運転システム 大規模なバッチ処理が必要な分析システム None 54. 環境構築において仮想環境を使用する主な理由は何ですか? ハードウェアの性能を向上させるため 開発言語を変更するため ネットワークの速度を上げるため 異なるプロジェクトごとに異なる依存関係を分離して管理するため None 55. Transformerにおける「Encoder-Decoder構造」の役割は何ですか? データの圧縮と復元 入力データと出力データの間でシーケンスを学習する 勾配の計算を高速化する バッチ処理を効率化する None 56. 「ドロップアウト」のドロップ率(Dropout Rate)が高すぎる場合、どのような問題が発生しますか? モデルがアンダーフィッティングする モデルが過学習する 勾配爆発が発生する モデルの学習速度が遅くなる None 57. 次のうち、Dockerが提供する主な機能はどれですか? アプリケーションの実行環境をコンテナ化して、再現性の高い開発・運用環境を構築する GPUの計算速度を向上させる クラウドでデータベースを管理する ネットワーク通信を最適化する None 58. 「可視化に基づく説明性」を高めるために、畳み込みニューラルネットワークで使われる技術はどれですか? パラメータチューニング フィルター可視化 バッチ正規化 データ拡張 None 59. 「半教師あり学習」はどのようなデータを用いる学習方法ですか? ラベル付きデータのみを使用する ラベルなしデータのみを使用する 少量のラベル付きデータと大量のラベルなしデータを組み合わせて使用する ラベル付きデータを生成する None 60. 「コントラスト学習(Contrastive Learning)」の目的は何ですか? データの類似度を最大化し、異なるデータ間の距離を広げる 報酬を最大化するようにエージェントに行動を学習させる ラベル付きデータから分類器を訓練する 複数のモデルを比較して最適なモデルを選択する None 61. 次の中で、BERT(Bidirectional Encoder Representations from Transformers)とTransformerの主な違いとして正しいものはどれですか? BERTは双方向の自己注意を使用し、Transformerは単方向の自己注意を使用する BERTはエンコーダー部分のみを使用し、Transformerはエンコーダーとデコーダーの両方を使用する BERTは逐次処理を行い、Transformerは並列処理を行う BERTは画像データ専用で、Transformerはテキストデータ専用である None 62. エッジコンピューティングがクラウドコンピューティングと異なる点として正しいものはどれですか? 大規模なデータのバックアップを行う クラウドに全データを保存する データの処理をローカルで行う 処理能力がクラウドよりもはるかに高い None 63. 「フェアネス」の確保が特に重要な領域はどれですか? 医療、金融、司法などの分野 画像分類タスク 音声認識システム ゲームAI None 64. 「MapReduce」の「Reduce」フェーズの役割は何ですか? Mapフェーズで生成されたキーと値のペアを集約し、最終結果を生成する 入力データを分割し、キーと値のペアを生成する データをクラウドに送信する データを保存する None 65. 次のうち、Transformerが自己注意メカニズムを使用することの利点として最も適切なものはどれですか? 並列処理が可能で、長いシーケンスも効率的に処理できる 時系列依存を完全に無視できる 勾配消失問題を根本的に解決する 各トークンの位置情報を完全に消去する None 66. Python環境における依存関係の管理を簡素化するツールとして適切なものはどれですか? Poetry Flask Git Docker None 67. GPUとFPGAのハイブリッドシステムを導入することで期待できる効果として最も適切なものはどれですか? 両方の利点を活かし、高速な並列計算とタスクごとの最適化が可能になる 消費電力を大幅に削減できる ストレージ容量が増える ネットワーク速度が向上する None 68. 次のうち、Python環境におけるパッケージ管理ツールとして最も広く利用されているものはどれですか? Maven pip NPM Gradle None 69. RNNのバックプロパゲーションでは、勾配がどのように計算されますか? 順方向に伝播しながら計算 全タイムステップにわたって逆伝播し、誤差を計算 各タイムステップごとに個別に計算 勾配を記憶し、タイムステップごとに加算 None 70. アクセラレータの導入による計算コスト削減の方法として適切なものはどれですか? ストレージ容量を増加させ、計算時間を短縮する ネットワーク帯域を広げ、データ転送を高速化する CPUのみで処理を行う 特定のタスクに最適化されたハードウェアを使用し、計算効率を向上させる None 71. 「正則化(Regularization)」の目的として正しいものはどれですか? モデルのパラメータ数を増やす モデルの過学習を防ぐ 学習率を高める 勾配消失問題を解決する None 72. 強化学習における「方策(Policy)」とは何を指しますか? エージェントが次の状態を予測するためのモデル エージェントが各状態でどの行動を取るかを決定するルール 環境から得られる報酬の計算方法 エージェントのQ値を更新するアルゴリズム None 73. 「強化学習」におけるエージェントの目標は何ですか? 与えられたデータからパターンを見つけ出す 環境との相互作用を通じて報酬を最大化する行動を学習する ラベル付きデータを用いて予測精度を高める 環境の状態を常に予測する None 74. 「教師なしクラスタリング」でよく使われる手法はどれですか? サポートベクターマシン(SVM) ディープニューラルネットワーク ロジスティック回帰 K-means法 None 75. 「カーネルPCA」と通常のPCAの違いは何ですか? カーネルPCAは非線形な次元削減が可能 カーネルPCAは教師あり学習の手法 カーネルPCAはラベル付きデータを使用する カーネルPCAは次元を増加させる手法 None 76. 次のうち、アクセラレータの導入が不適切なシナリオはどれですか? 大規模なディープラーニングモデルのトレーニング 小規模で単純な計算タスクの実行 GPUを使用した3Dレンダリング FPGAを使用した信号処理 None 77. エッジコンピューティングの主な目的は何ですか? データの処理を中央のクラウドサーバーに依存させる データの処理をエッジデバイスの近くで行い、遅延を減少させる 大量のデータを一括で処理する デバイスの電力消費を増やす None 78. Q学習において、Q値(Q-value)は何を表しますか? 状態の予測値 状態-行動ペアの価値 報酬の累積値 行動の確率分布 None 79. VAEの潜在空間における「再パラメータ化トリック」の目的は何ですか? データの次元を削減する モデルの学習速度を速める 勾配を計算可能にし、バックプロパゲーションを適用できるようにする モデルの精度を下げる None 80. VAEが生成したデータがGANに比べてリアルさで劣る理由は何ですか? GANは識別器を用いるため、VAEよりも高品質な生成が可能 VAEは再パラメータ化トリックを使用していないため GANはオートエンコーダを使用していないため VAEはデータの分類に特化しているため None 81. ディープラーニングの推論において、TPUがGPUに対して有利となる理由として最も適切なものはどれですか? TPUはグラフィックス処理が得意であるため TPUはプログラミングが容易であるため TPUはディープラーニング専用のハードウェアとして設計されており、推論に特化して最適化されているため TPUは消費電力が高いため None 82. 次の中で、GRUとLSTMの主な違いとして正しいものはどれですか? GRUはLSTMに比べてゲートの数が多い GRUは計算コストがLSTMよりも高い GRUは勾配消失問題に弱い GRUは出力ゲートを持たない None 83. 分散処理の「フォールトトレランス」とは何ですか? データをバックアップするための技術 データの保存容量を増やす技術 システムが障害発生時でも処理を継続できる能力 ネットワークを冗長化する技術 None 84. 次のうち、エッジコンピューティングが適用される例として最も適切なものはどれですか? センサーが集めたデータをリアルタイムで処理するIoTシステム 大規模なデータセンターでのバックアップ処理 個人のパソコンでのデータ保存 クラウド上でのデータ分析 None 85. 次のうち、深層学習の「解釈性」と「説明性」の違いとして最も正しい説明はどれですか? 解釈性は予測精度の向上に関わるが、説明性は関係しない 解釈性はモデルの内部構造を理解すること、説明性はモデルの予測結果の理由を明示すること 解釈性はブラックボックス性を強化すること、説明性は精度を最大化すること 解釈性はモデルのパフォーマンスを測定し、説明性はモデルを可視化すること None 86. アクセラレータとして最も一般的に使用されるデバイスはどれですか? GPU(Graphics Processing Unit) HDD(Hard Disk Drive) SSD(Solid State Drive) NIC(Network Interface Card) None 87. 「メタ学習」の主な目的は何ですか? 学習アルゴリズム自体を学習し、新しいタスクに迅速に適応すること 学習済みのモデルを再利用して、新しいデータを学習すること モデルのハイパーパラメータを最適化すること データの次元を削減すること None 88. GAN(Generative Adversarial Network)の構成要素として正しいものはどれですか? エンコーダとデコーダ 判別器と生成器 バッチ正規化とドロップアウト 畳み込み層とプーリング層 None 89. 「特徴量の重要度」を示す手法の一つである「パーミュテーションインポータンス」とは何ですか? 特徴量を削減し、その結果を評価する手法 特徴量の数を増加させてモデルを評価する手法 特徴量を一つずつ除外して評価する手法 特徴量をランダムにシャッフルし、その影響を測定する手法 None 90. エッジコンピューティングの導入によって、クラウド上のデータ処理に与える影響として正しいものはどれですか? クラウドへのデータ送信量が減り、クラウドの負荷が軽減される クラウドへのデータ送信量が増え、クラウドの負荷が増加する クラウドの負荷には全く影響しない クラウドへの依存が完全になくなる None 91. エッジコンピューティングにおけるセキュリティ上の課題として正しいものはどれですか? デバイスが分散しているため、物理的なセキュリティが難しい データの一元管理が可能である ネットワーク負荷が軽減される クラウド上で全てのデータを保管する None 92. スパース学習において、L1正則化がモデルに与える影響は何ですか? パラメータの値を増加させる モデルの全てのパラメータを均等に更新する モデルの複雑さを増す 多くのパラメータをゼロに近づけ、スパース性を促進する None 93. GPUと比べたFPGAの利点として正しいものはどれですか? 固定されたアーキテクチャを持ち、高速な並列計算が得意である 主にグラフィックス処理に使用される アーキテクチャを柔軟に変更でき、特定の用途に最適化できる 大規模なディープラーニングに特化している None 94. 分散処理システムでの「シャーディング」の目的は何ですか? データを圧縮して保存する データを一箇所に集約して保存する データを複数のノードに分割して保存し、処理を分散させる データの一貫性を保証する None 95. 仮想環境「Vagrant」を使用する場合、主にどのようなシナリオで役立つか? 一貫性のある仮想マシン環境を簡単に構築し、チーム間で共有する場合 クラウドでのデータベース運用を最適化する場合 GPUを利用して大規模な計算を行う場合 ウェブサイトをホスティングする場合 None 96. 「深層学習の説明性」において、モデルの「ブラックボックス性」が指摘される理由は何ですか? モデルの構造が複雑で、人間が理解しにくいから モデルの性能が低いから モデルが全く訓練されていないから モデルがデータを十分に活用しないから None 97. Gated Recurrent Unit(GRU)の特徴として正しいものはどれですか? 忘却ゲートがない 出力ゲートがない 計算がLSTMより複雑 勾配消失問題を解決しにくい None 98. RNNを使用したシーケンス生成モデルで、次のタイムステップの予測を生成する際、予測結果が繰り返し使用されることによる誤差の累積を防ぐために使われる手法はどれですか? バッチ正規化 ドロップアウト 学習率減衰 スケジュールサンプリング None 99. 「Hadoop」はどのような分散処理フレームワークですか? 単一のサーバーでデータを処理するためのフレームワーク データベースの検索を高速化するフレームワーク ビッグデータを分散処理するためのオープンソースのフレームワーク 小規模なデータセットを処理するためのフレームワーク None 100. エッジコンピューティングにおいて、デバイス間の通信の信頼性を確保するために必要な対策として最も適切なものはどれですか? デバイスの計算速度を上げる ネットワークの冗長化やデータの暗号化 全てのデータをクラウドに送信する ネットワーク帯域を減らす None Time's up