E資格~模擬試験②~ 2024年12月7日 ailearn 1. エッジコンピューティングの課題として最も適切なものはどれですか? データの集中管理が難しい クラウドへの依存度が高い ネットワークの帯域幅を広げる必要がある デバイス側の計算リソースや電力制約 None 2. Transformerにおける「Decoder」の役割として正しいものはどれですか? 入力シーケンスの圧縮された表現を生成する 自己注意のみを使用して出力を予測する 残差接続を使用して入力シーケンスをそのまま出力する エンコードされた情報を基に、出力シーケンスを逐次生成する None 3. 次のうち、RNNの一種ではないものはどれですか? LSTM GRU Transformer Bidirectional RNN None 4. 深層強化学習において、連続行動空間を処理するために使用されるアルゴリズムはどれですか? DQN(Deep Q-Network) DDPG(Deep Deterministic Policy Gradient) REINFORCE Q学習 None 5. ディープラーニングのフレームワーク「TensorFlow」を使用する際に重要なソフトウェアライブラリはどれですか? Flask React CUDA Django None 6. 仮想環境「Vagrant」を使用する場合、主にどのようなシナリオで役立つか? 一貫性のある仮想マシン環境を簡単に構築し、チーム間で共有する場合 クラウドでのデータベース運用を最適化する場合 GPUを利用して大規模な計算を行う場合 ウェブサイトをホスティングする場合 None 7. VAEの潜在空間における「再パラメータ化トリック」の目的は何ですか? データの次元を削減する モデルの学習速度を速める 勾配を計算可能にし、バックプロパゲーションを適用できるようにする モデルの精度を下げる None 8. 次のうち、データ拡張を行う際に最も適切なシナリオはどれですか? 学習データが非常に多い場合 学習データが少なく、汎化性能が低い場合 モデルが過学習をしていない場合 パラメータが多い場合 None 9. GPUとFPGAのハイブリッドシステムを導入することで期待できる効果として最も適切なものはどれですか? 両方の利点を活かし、高速な並列計算とタスクごとの最適化が可能になる 消費電力を大幅に削減できる ストレージ容量が増える ネットワーク速度が向上する None 10. 深層強化学習において、エージェントの行動の説明性を向上させるために使われる技術の一つは何ですか? 状態価値関数の可視化 勾配ブースティング サポートベクターマシンの適用 データの正規化 None 11. 次のうち、Grad-CAMの欠点として考えられるものはどれですか? 勾配を計算するため、計算コストが高い すべてのモデルに対して適用できない 高次元の特徴量を扱えない 予測精度が下がる None 12. 変分オートエンコーダ(VAE)の目的は何ですか? データの圧縮と生成 データの分類 データの回帰 データの分割 None 13. エッジコンピューティングの導入によって、クラウド上のデータ処理に与える影響として正しいものはどれですか? クラウドへのデータ送信量が減り、クラウドの負荷が軽減される クラウドへのデータ送信量が増え、クラウドの負荷が増加する クラウドの負荷には全く影響しない クラウドへの依存が完全になくなる None 14. 「自己回帰モデル(Auto-Regressive Model)」とTransformerの関係性について正しいものはどれですか? Transformerは自己回帰モデルとして動作する Transformerは自己回帰モデルの欠点を補完する Transformerは自己回帰モデルの一部である Transformerは自己回帰モデルを全く使用しない None 15. 次のうち、LSTMが通常のRNNに比べて勾配消失問題に対処できる理由として正しいものはどれですか? LSTMは逆伝播を行わない LSTMは短期的な情報のみを保持する LSTMはゲート機構を利用して、重要な情報を長期的に保持できる LSTMは隠れ層の重みを固定する None 16. 以下のうち、L1正則化の特徴はどれですか? 大きなパラメータにペナルティを与える モデルのトレーニング速度を向上させる モデルの精度を下げる パラメータをゼロにすることでスパース性を促進する None 17. 次のうち、エッジコンピューティングが適用される例として最も適切なものはどれですか? センサーが集めたデータをリアルタイムで処理するIoTシステム 大規模なデータセンターでのバックアップ処理 個人のパソコンでのデータ保存 クラウド上でのデータ分析 None 18. 次のうち、AIの推論処理に特化したアクセラレータはどれですか? SSD TPU HDD NIC None 19. エッジコンピューティングにおける「リアルタイム性」を確保するために重要な要素はどれですか? データをクラウドに送り、結果を待つこと データを定期的にバックアップすること 大量のデータを一度に送信すること データをエッジデバイスで即時に処理すること None 20. GANの学習で発生する「勾配消失問題」を緩和するために提案された技術はどれですか? バッチ正規化 再パラメータ化トリック Wasserstein損失関数 クロスエントロピー損失関数 None 21. リカレントニューラルネットワーク(RNN)の順伝播において、各タイムステップで計算される出力は何に基づいていますか? 前のタイムステップの入力のみ 現在のタイムステップの入力のみ 現在のタイムステップの入力と前のタイムステップの出力 全タイムステップの入力 None 22. 次のうち、ブースティングにおける勾配ブースティング(Gradient Boosting)の主な特徴として最も適切なものはどれですか? 勾配消失問題を解決する モデルのパラメータ数を削減する データセットの拡張を行う 前のモデルの予測誤差を利用して次のモデルを改善する None 23. 次の中で、GRUとLSTMの主な違いとして正しいものはどれですか? GRUはLSTMに比べてゲートの数が多い GRUは計算コストがLSTMよりも高い GRUは勾配消失問題に弱い GRUは出力ゲートを持たない None 24. 次のうち、GPUアクセラレータがデータセンターで広く使用される理由として正しいものはどれですか? 高い並列処理能力を持ち、ビッグデータやAI関連の処理を効率的に行えるため 消費電力が少なく、コストが安いため ストレージ容量が多いため ネットワーク管理に特化しているため None 25. GANにおいて、判別器の役割は何ですか? データを生成する データを圧縮する 本物のデータと偽物のデータを区別する データを分類する None 26. アクセラレータを使用したディープラーニングのトレーニングにおいて、重要なパラメータの一つである「バッチサイズ」が大きくなると、どのような効果が期待されますか? メモリ使用量が減少し、トレーニングが遅くなる メモリ使用量が増加し、トレーニングが高速化する メモリ使用量が増加し、トレーニングが遅くなる メモリ使用量が減少し、トレーニングが高速化する None 27. GPUを使用する利点として正しいものはどれですか? 並列計算による大量のデータ処理が可能 ストレージ容量が増加する ネットワーク速度が向上する データの一貫性が保証される None 28. 次のうち、深層学習の「解釈性」と「説明性」の違いとして最も正しい説明はどれですか? 解釈性は予測精度の向上に関わるが、説明性は関係しない 解釈性はモデルの内部構造を理解すること、説明性はモデルの予測結果の理由を明示すること 解釈性はブラックボックス性を強化すること、説明性は精度を最大化すること 解釈性はモデルのパフォーマンスを測定し、説明性はモデルを可視化すること None 29. 「Hadoop」はどのような分散処理フレームワークですか? 単一のサーバーでデータを処理するためのフレームワーク データベースの検索を高速化するフレームワーク ビッグデータを分散処理するためのオープンソースのフレームワーク 小規模なデータセットを処理するためのフレームワーク None 30. ディープQネットワーク(DQN)の主な特徴は何ですか? エージェントの方策を直接学習する Q値の更新を行わない ランダムに行動を選択する 深層ニューラルネットワークを用いてQ値を近似する None 31. 「可視化に基づく説明性」を高めるために、畳み込みニューラルネットワークで使われる技術はどれですか? パラメータチューニング フィルター可視化 バッチ正規化 データ拡張 None 32. 「MapReduce」の「Reduce」フェーズの役割は何ですか? Mapフェーズで生成されたキーと値のペアを集約し、最終結果を生成する 入力データを分割し、キーと値のペアを生成する データをクラウドに送信する データを保存する None 33. 次のうち、VAEとGANの大きな違いとして最も適切なものはどれですか? VAEは教師なし学習、GANは教師あり学習である VAEは潜在空間に規則性を持たせ、GANは敵対的な学習を行う VAEは再構成誤差を最小化し、GANは分類精度を最大化する VAEは畳み込み層を使わず、GANは畳み込み層を使う None 34. 「SHAP(Shapley Additive Explanations)」の基本的な考え方は何ですか? モデル全体の挙動を定性的に評価する モデルの計算時間を最小化する 各特徴が予測にどれだけ貢献したかを定量的に示す モデルをランダムに評価する None 35. Python環境における依存関係の管理を簡素化するツールとして適切なものはどれですか? Poetry Flask Git Docker None 36. 次のうち、Transformerにおける「マスク付き注意機構(Masked Attention)」の役割として正しいものはどれですか? 現在のトークン以降の情報を参照できないようにする 出力の一部を無視する モデルの計算速度を向上させる モデルの重みを固定する None 37. バッチ正規化(Batch Normalization)の効果として最も適切なものはどれですか? モデルのトレーニングを安定化させる 勾配消失問題を完全に防ぐ 過学習を防ぐために学習データを削減する 学習率を低下させる None 38. Bidirectional LSTMのメリットとして、最も適切なものはどれですか? 計算速度が速い 双方向から情報を処理するため、シーケンス全体の文脈を理解できる メモリ消費が少ない 勾配消失問題が完全に解決される None 39. 次のうち、RNNの代表的なアプリケーションはどれですか? 画像分類 音声認識 コンピュータビジョン 強化学習 None 40. エッジコンピューティングの利点として正しいものはどれですか? データ処理の遅延を減らす データの安全性を低下させる データの送信コストを増加させる すべてのデータをクラウドに集約する None 41. VAEにおける「エビデンス下界(ELBO)」の役割は何ですか? モデルのパラメータ数を増やす モデルの学習を安定化させるための目的関数 データを圧縮するための手法 モデルの精度を評価するための指標 None 42. FPGAと比べたGPUの利点として正しいものはどれですか? 特定のタスクに特化して設計可能 プログラミングが容易で汎用性が高い 消費電力が少ない ハードウェア構成を自由に変更可能 None 43. 次のうち、Python環境におけるパッケージ管理ツールとして最も広く利用されているものはどれですか? Maven pip NPM Gradle None 44. 自動運転車におけるエッジコンピューティングの役割として最も重要なものはどれですか? 車両がクラウドサーバーにすべてのデータを送信して処理する 車両内でデータを保管するだけで、クラウドに依存する 車両が他の車両とデータを共有するための手段を提供する 車両内でリアルタイムにデータを処理し、外部ネットワークに依存せずに意思決定を行う None 45. VAEが生成したデータがGANに比べてリアルさで劣る理由は何ですか? GANは識別器を用いるため、VAEよりも高品質な生成が可能 VAEは再パラメータ化トリックを使用していないため GANはオートエンコーダを使用していないため VAEはデータの分類に特化しているため None 46. 次のうち、RNNにおいて双方向の情報フローを活用するモデルはどれですか? Bidirectional RNN LSTM GRU Simple RNN None 47. 生成モデルとは何を行うモデルですか? データの分類を行うモデル データの生成を行うモデル データの回帰を行うモデル データの削減を行うモデル None 48. L2正則化を強くかけすぎると、どのような問題が発生する可能性がありますか? モデルが過学習を起こす モデルが過度に単純化され、アンダーフィッティングする 学習が停止してしまう 勾配消失問題が発生する None 49. ディープQネットワーク(DQN)における「ターゲットネットワーク」の役割は何ですか? 行動選択の速度を向上させるために使用される 報酬を増加させるために使用される 方策を変更するために使用される Q値の計算を安定化させるために使用される None 50. DQNにおいて「Double DQN(DDQN)」が提案された主な理由は何ですか? Q値の過大評価を防ぎ、学習の安定性を向上させるため 学習速度を向上させるため 方策の更新頻度を増やすため 報酬関数を改善するため None 51. リカレントニューラルネットワーク(RNN)の最大の特徴は何ですか? 非線形活性化関数を使用すること パラメータの共有がないこと 時系列データに適していること 固定長のデータのみを扱うこと None 52. Transformerの「Feedforward Neural Network」部分は何を行いますか? データを圧縮する 各トークンの自己注意後の表現をさらに変換し、次の層に渡す 各トークンの位置情報を埋め込む 勾配をクリッピングする None 53. 次のうち、アクセラレータの導入が不適切なシナリオはどれですか? 大規模なディープラーニングモデルのトレーニング 小規模で単純な計算タスクの実行 GPUを使用した3Dレンダリング FPGAを使用した信号処理 None 54. RNNのバックプロパゲーションでは、勾配がどのように計算されますか? 順方向に伝播しながら計算 全タイムステップにわたって逆伝播し、誤差を計算 各タイムステップごとに個別に計算 勾配を記憶し、タイムステップごとに加算 None 55. ディープラーニングの推論において、TPUがGPUに対して有利となる理由として最も適切なものはどれですか? TPUはグラフィックス処理が得意であるため TPUはプログラミングが容易であるため TPUはディープラーニング専用のハードウェアとして設計されており、推論に特化して最適化されているため TPUは消費電力が高いため None 56. 次の中で、BERT(Bidirectional Encoder Representations from Transformers)とTransformerの主な違いとして正しいものはどれですか? BERTは双方向の自己注意を使用し、Transformerは単方向の自己注意を使用する BERTはエンコーダー部分のみを使用し、Transformerはエンコーダーとデコーダーの両方を使用する BERTは逐次処理を行い、Transformerは並列処理を行う BERTは画像データ専用で、Transformerはテキストデータ専用である None 57. Transformerモデルにおいて、従来のRNNと異なる最大の特徴は何ですか? 並列計算が可能であること 時系列データを扱えないこと シーケンスの長さが固定であること 勾配消失問題を解決できないこと None 58. ディープラーニング環境をクラウド上で効率的に運用するためのベストプラクティスはどれですか? すべての計算をローカルマシンで行う GPUを搭載したインスタンスを使用し、必要に応じてスケールアウトする クラウド上でCPUのみを使用して計算する 固定されたインスタンスを使用し、スケールアウトは行わない None 59. 「コントラスト学習」において、ポジティブペアとネガティブペアの定義は何ですか? ポジティブペアはラベル付きデータ、ネガティブペアはラベルなしデータを指す ポジティブペアは類似したデータ、ネガティブペアは異なるデータを指す ポジティブペアはラベルなしデータ、ネガティブペアは生成されたデータを指す ポジティブペアは同じモデル、ネガティブペアは異なるモデルを指す None 60. 次のうち、Seq2SeqモデルのDecoder部分で使われる典型的なRNNアーキテクチャはどれですか? CNN LSTM MLP Transformer None 61. CycleGANの主な用途として最も適切なものはどれですか? 異なるドメイン間の画像変換 画像の分類 データの圧縮 文章生成 None 62. 分散処理システムにおける「リーダー選出アルゴリズム」として正しいものはどれですか? データの圧縮を行うアルゴリズム ノード間のデータ転送を最適化するアルゴリズム データベースのクエリを最適化するアルゴリズム PaxosやRaftなどの合意アルゴリズム None 63. 「ブラックボックス攻撃」とはどのようなものですか? モデルの内部構造を知らずに攻撃を行い、その結果を基にモデルの脆弱性を探る手法 モデルのパラメータを直接変更して攻撃する手法 モデルに対してラベル付きデータを用いて攻撃する手法 モデルの精度を最大化するための手法 None 64. 分散処理システムにおいて「データローカリティ」とは何を指しますか? データを一箇所に集約して処理すること データを処理するノードが、データに近い場所にあること データをクラウドに保存すること データを定期的にバックアップすること None 65. 「カーネルPCA」と通常のPCAの違いは何ですか? カーネルPCAは非線形な次元削減が可能 カーネルPCAは教師あり学習の手法 カーネルPCAはラベル付きデータを使用する カーネルPCAは次元を増加させる手法 None 66. 「転移学習」の目的は何ですか? ラベル付きデータを使って新しいモデルを訓練すること あるタスクで学習した知識を別のタスクに適用すること データの前処理を効率化すること モデルのパラメータを削減すること None 67. 次のうち、ドロップアウトを適用する際に避けるべき層はどれですか? 入力層 隠れ層 出力層 全結合層 None 68. Transformerモデルで使用される「自己注意(Self-Attention)」機構の役割は何ですか? シーケンス内の全ての単語に均一な重みを割り当てる 各単語の相対的位置関係を強調する 各単語がシーケンス内の他の単語とどのように関連するかを捉える 各単語をランダムにシャッフルする None 69. DCGAN(Deep Convolutional GAN)の特徴は何ですか? RNNを使用して時系列データを生成する LSTMを使用して文章を生成する 畳み込みニューラルネットワークを使用して画像生成を行う バッチ正規化を行わない None 70. 次の文脈に最も適したアーキテクチャを選んでください:「非常に長いシーケンスを処理し、長期的な依存関係をより効率的にモデル化できる手法」 単純RNN GRU Transformer LSTM None 71. 複数のプロジェクトで異なるバージョンのPythonやライブラリを利用する場合、どのような環境構築手法が推奨されますか? すべてのプロジェクトで同じ環境を使い回す システム全体にすべてのライブラリをインストールする 各プロジェクトで同じライブラリのバージョンを強制的に使用する 各プロジェクトごとに仮想環境を作成し、依存関係を分離する None 72. L2正則化の効果として正しいものはどれですか? 小さなパラメータをゼロにする モデルの複雑さを抑える パラメータに対するペナルティを与える モデルの精度を向上させる None 73. 強化学習における「方策(Policy)」とは何を指しますか? エージェントが次の状態を予測するためのモデル エージェントが各状態でどの行動を取るかを決定するルール 環境から得られる報酬の計算方法 エージェントのQ値を更新するアルゴリズム None 74. 次のうち、アクセラレータを使用することで予想される課題として最も適切なものはどれですか? ストレージ容量が増える 専用のプログラミングスキルが必要になる場合がある ネットワーク速度が低下する 汎用性が高くなりすぎる None 75. 「強化学習」におけるエージェントの目標は何ですか? 与えられたデータからパターンを見つけ出す 環境との相互作用を通じて報酬を最大化する行動を学習する ラベル付きデータを用いて予測精度を高める 環境の状態を常に予測する None 76. TPU(Tensor Processing Unit)は主にどのような用途に特化していますか? グラフィック処理に特化したハードウェア 一般的なデータ処理に特化したハードウェア ネットワーク管理に特化したハードウェア ディープラーニングの推論やトレーニングに最適化されたハードウェア None 77. Transformerのマルチヘッド注意機構では、異なる「ヘッド」を使用する利点は何ですか? モデルのパラメータ数を減少させるため 異なる部分の情報に注意を向け、より多様な特徴を学習するため モデルの計算速度を向上させるため 出力層での勾配を安定させるため None 78. 「教師あり学習」とはどのような学習方法ですか? ラベル付きデータを用いてモデルを訓練する ラベルなしデータを用いてモデルを訓練する 報酬を最大化するようにモデルを訓練する モデルが自律的にデータを生成する None 79. Dockerを使った開発環境の構築で、複数のコンテナが相互に通信するために必要な設定は何ですか? 各コンテナを独立したサーバーとして設定する すべてのコンテナを同じホストで実行する Docker Composeを使ってネットワークを構成する 各コンテナのIPアドレスを固定する None 80. 「反事実的説明(Counterfactual Explanation)」の主な目的は何ですか? 予測結果が変わるために、どの特徴量をどの程度変えるべきかを示す モデルのパラメータを変更する手法を提示する ランダムに特徴量を入れ替えて結果を評価する 予測結果を変更することなくデータを拡張する None 81. 強化学習において、「探索」と「活用」のトレードオフは何を意味しますか? 環境の状態を更新することと、行動を選択することのバランス Q値を更新することと、報酬を得ることのバランス 新しい行動を試すことと、既に得た知識を利用することのバランス 学習速度を速めることと、計算コストを下げることのバランス None 82. 分散処理システムで「キャパシティプランニング」を行う際に考慮すべき要素はどれですか? ノード数、データ量、処理速度、ネットワーク帯域 データの種類とラベルの数 データを一元的に管理する方法 クラウドストレージの容量 None 83. アンサンブル学習(Ensemble Learning)の目的として正しいものはどれですか? モデルのパラメータ数を減らす 複数のモデルを組み合わせて汎化性能を向上させる データの前処理を効率化する モデルのトレーニング時間を短縮する None 84. 次のうち、Transformerモデルが機械翻訳において従来のRNNやLSTMベースのSeq2Seqモデルに勝っている理由はどれですか? より少ないパラメータで学習できる シーケンス長に依存しないため、非常に短い文でも高精度な翻訳ができる 並列計算が可能であり、大規模なデータセットを短時間で処理できる 各トークンに対して固定の重みが割り当てられている None 85. Transformerにおける「ポジショナルエンコーディング」の役割は何ですか? シーケンス全体を圧縮する 時系列データの位置情報を反映させる 勾配消失を防ぐ モデルの出力を正規化する None 86. 「自己教師あり学習」はどのような手法ですか? 報酬を与えてエージェントに学習させる モデルが自らデータを生成する 他のモデルから知識を転移する ラベルなしデータに対して擬似ラベルを生成し、そのラベルでモデルを訓練する None 87. ディープラーニングモデルを大規模データセットでトレーニングする際にクラウド環境を選択する利点として適切なものはどれですか? 必要に応じて計算リソースをスケールアップ・スケールダウンできる ローカル環境での計算が常に速い インターネット接続が不要になる ストレージ容量を減らすことができる None 88. RNNを使用したシーケンス生成モデルで、次のタイムステップの予測を生成する際、予測結果が繰り返し使用されることによる誤差の累積を防ぐために使われる手法はどれですか? バッチ正規化 ドロップアウト 学習率減衰 スケジュールサンプリング None 89. アクセラレータとして最も一般的に使用されるデバイスはどれですか? GPU(Graphics Processing Unit) HDD(Hard Disk Drive) SSD(Solid State Drive) NIC(Network Interface Card) None 90. 「局所的解釈可能性」を持つモデルの例として正しいものはどれですか? ニューラルネットワーク 決定木 ランダムフォレスト サポートベクターマシン None 91. ディープラーニング環境を構築する際に一般的に使用されるプログラミング言語はどれですか? C++ Python Java Ruby None 92. 「ドロップアウト(Dropout)」の目的は何ですか? モデルの学習速度を上げるため 過学習を防ぐため パラメータの数を減らすため モデルの複雑さを高めるため None 93. 「半教師あり学習」はどのようなデータを用いる学習方法ですか? ラベル付きデータのみを使用する ラベルなしデータのみを使用する 少量のラベル付きデータと大量のラベルなしデータを組み合わせて使用する ラベル付きデータを生成する None 94. Transformerの構成要素の一つである「Multi-Head Attention」の目的は何ですか? 単一の注意機構よりも複雑な関係を捉えるため 計算リソースを削減するため モデルの層を深くするため 勾配消失問題を回避するため None 95. 「Grad-CAM(Gradient-weighted Class Activation Mapping)」の主な目的は何ですか? 畳み込みニューラルネットワークの中で、どの部分が予測に寄与したかを可視化する モデル全体の動作を評価する データの次元を削減する ラベルなしデータを自動的にラベル付けする None 96. 次のRNNモデルのうち、長期依存の問題を解決するために設計されたモデルはどれですか? LSTM フィードフォワードネットワーク CNN DNN None 97. GPUと比べたFPGAの利点として正しいものはどれですか? 固定されたアーキテクチャを持ち、高速な並列計算が得意である 主にグラフィックス処理に使用される アーキテクチャを柔軟に変更でき、特定の用途に最適化できる 大規模なディープラーニングに特化している None 98. アクセラレータの導入による計算コスト削減の方法として適切なものはどれですか? ストレージ容量を増加させ、計算時間を短縮する ネットワーク帯域を広げ、データ転送を高速化する CPUのみで処理を行う 特定のタスクに最適化されたハードウェアを使用し、計算効率を向上させる None 99. 分散処理システムで「ネットワークボトルネック」が発生する主な原因として最も適切なものはどれですか? 各ノードが独立して処理を行うこと 大量のデータがネットワークを介して送信される際の帯域幅不足 データの保存容量が不足すること データのローカリティが高い場合 None 100. 「ハードサンプルマイニング」とは、どのような手法ですか? ラベルなしデータを用いてランダムにサンプリングする手法 モデルのパラメータ数を削減する手法 モデルが誤分類しやすいデータを重点的に学習する手法 ラベル付きデータを使わずに学習する手法 None Time's up