E資格~模擬試験②~

1. 
エッジコンピューティングの課題として最も適切なものはどれですか?

2. 
Transformerにおける「Decoder」の役割として正しいものはどれですか?

3. 
次のうち、RNNの一種ではないものはどれですか?

4. 
深層強化学習において、連続行動空間を処理するために使用されるアルゴリズムはどれですか?

5. 
ディープラーニングのフレームワーク「TensorFlow」を使用する際に重要なソフトウェアライブラリはどれですか?

6. 
仮想環境「Vagrant」を使用する場合、主にどのようなシナリオで役立つか?

7. 
VAEの潜在空間における「再パラメータ化トリック」の目的は何ですか?

8. 
次のうち、データ拡張を行う際に最も適切なシナリオはどれですか?

9. 
GPUとFPGAのハイブリッドシステムを導入することで期待できる効果として最も適切なものはどれですか?

10. 
深層強化学習において、エージェントの行動の説明性を向上させるために使われる技術の一つは何ですか?

11. 
次のうち、Grad-CAMの欠点として考えられるものはどれですか?

12. 
変分オートエンコーダ(VAE)の目的は何ですか?

13. 
エッジコンピューティングの導入によって、クラウド上のデータ処理に与える影響として正しいものはどれですか?

14. 
「自己回帰モデル(Auto-Regressive Model)」とTransformerの関係性について正しいものはどれですか?

15. 
次のうち、LSTMが通常のRNNに比べて勾配消失問題に対処できる理由として正しいものはどれですか?

16. 
以下のうち、L1正則化の特徴はどれですか?

17. 
次のうち、エッジコンピューティングが適用される例として最も適切なものはどれですか?

18. 
次のうち、AIの推論処理に特化したアクセラレータはどれですか?

19. 
エッジコンピューティングにおける「リアルタイム性」を確保するために重要な要素はどれですか?

20. 
GANの学習で発生する「勾配消失問題」を緩和するために提案された技術はどれですか?

21. 
リカレントニューラルネットワーク(RNN)の順伝播において、各タイムステップで計算される出力は何に基づいていますか?

22. 
次のうち、ブースティングにおける勾配ブースティング(Gradient Boosting)の主な特徴として最も適切なものはどれですか?

23. 
次の中で、GRUとLSTMの主な違いとして正しいものはどれですか?

24. 
次のうち、GPUアクセラレータがデータセンターで広く使用される理由として正しいものはどれですか?

25. 
GANにおいて、判別器の役割は何ですか?

26. 
アクセラレータを使用したディープラーニングのトレーニングにおいて、重要なパラメータの一つである「バッチサイズ」が大きくなると、どのような効果が期待されますか?

27. 
GPUを使用する利点として正しいものはどれですか?

28. 
次のうち、深層学習の「解釈性」と「説明性」の違いとして最も正しい説明はどれですか?

29. 
「Hadoop」はどのような分散処理フレームワークですか?

30. 
ディープQネットワーク(DQN)の主な特徴は何ですか?

31. 
「可視化に基づく説明性」を高めるために、畳み込みニューラルネットワークで使われる技術はどれですか?

32. 
「MapReduce」の「Reduce」フェーズの役割は何ですか?

33. 
次のうち、VAEとGANの大きな違いとして最も適切なものはどれですか?

34. 
「SHAP(Shapley Additive Explanations)」の基本的な考え方は何ですか?

35. 
Python環境における依存関係の管理を簡素化するツールとして適切なものはどれですか?

36. 
次のうち、Transformerにおける「マスク付き注意機構(Masked Attention)」の役割として正しいものはどれですか?

37. 
バッチ正規化(Batch Normalization)の効果として最も適切なものはどれですか?

38. 
Bidirectional LSTMのメリットとして、最も適切なものはどれですか?

39. 
次のうち、RNNの代表的なアプリケーションはどれですか?

40. 
エッジコンピューティングの利点として正しいものはどれですか?

41. 
VAEにおける「エビデンス下界(ELBO)」の役割は何ですか?

42. 
FPGAと比べたGPUの利点として正しいものはどれですか?

43. 
次のうち、Python環境におけるパッケージ管理ツールとして最も広く利用されているものはどれですか?

44. 
自動運転車におけるエッジコンピューティングの役割として最も重要なものはどれですか?

45. 
VAEが生成したデータがGANに比べてリアルさで劣る理由は何ですか?

46. 
次のうち、RNNにおいて双方向の情報フローを活用するモデルはどれですか?

47. 
生成モデルとは何を行うモデルですか?

48. 
L2正則化を強くかけすぎると、どのような問題が発生する可能性がありますか?

49. 
ディープQネットワーク(DQN)における「ターゲットネットワーク」の役割は何ですか?

50. 
DQNにおいて「Double DQN(DDQN)」が提案された主な理由は何ですか?

51. 
リカレントニューラルネットワーク(RNN)の最大の特徴は何ですか?

52. 
Transformerの「Feedforward Neural Network」部分は何を行いますか?

53. 
次のうち、アクセラレータの導入が不適切なシナリオはどれですか?

54. 
RNNのバックプロパゲーションでは、勾配がどのように計算されますか?

55. 
ディープラーニングの推論において、TPUがGPUに対して有利となる理由として最も適切なものはどれですか?

56. 
次の中で、BERT(Bidirectional Encoder Representations from Transformers)とTransformerの主な違いとして正しいものはどれですか?

57. 
Transformerモデルにおいて、従来のRNNと異なる最大の特徴は何ですか?

58. 
ディープラーニング環境をクラウド上で効率的に運用するためのベストプラクティスはどれですか?

59. 
「コントラスト学習」において、ポジティブペアとネガティブペアの定義は何ですか?

60. 
次のうち、Seq2SeqモデルのDecoder部分で使われる典型的なRNNアーキテクチャはどれですか?

61. 
CycleGANの主な用途として最も適切なものはどれですか?

62. 
分散処理システムにおける「リーダー選出アルゴリズム」として正しいものはどれですか?

63. 
「ブラックボックス攻撃」とはどのようなものですか?

64. 
分散処理システムにおいて「データローカリティ」とは何を指しますか?

65. 
「カーネルPCA」と通常のPCAの違いは何ですか?

66. 
「転移学習」の目的は何ですか?

67. 
次のうち、ドロップアウトを適用する際に避けるべき層はどれですか?

68. 
Transformerモデルで使用される「自己注意(Self-Attention)」機構の役割は何ですか?

69. 
DCGAN(Deep Convolutional GAN)の特徴は何ですか?

70. 
次の文脈に最も適したアーキテクチャを選んでください:「非常に長いシーケンスを処理し、長期的な依存関係をより効率的にモデル化できる手法」

71. 
複数のプロジェクトで異なるバージョンのPythonやライブラリを利用する場合、どのような環境構築手法が推奨されますか?

72. 
L2正則化の効果として正しいものはどれですか?

73. 
強化学習における「方策(Policy)」とは何を指しますか?

74. 
次のうち、アクセラレータを使用することで予想される課題として最も適切なものはどれですか?

75. 
「強化学習」におけるエージェントの目標は何ですか?

76. 
TPU(Tensor Processing Unit)は主にどのような用途に特化していますか?

77. 
Transformerのマルチヘッド注意機構では、異なる「ヘッド」を使用する利点は何ですか?

78. 
「教師あり学習」とはどのような学習方法ですか?

79. 
Dockerを使った開発環境の構築で、複数のコンテナが相互に通信するために必要な設定は何ですか?

80. 
「反事実的説明(Counterfactual Explanation)」の主な目的は何ですか?

81. 
強化学習において、「探索」と「活用」のトレードオフは何を意味しますか?

82. 
分散処理システムで「キャパシティプランニング」を行う際に考慮すべき要素はどれですか?

83. 
アンサンブル学習(Ensemble Learning)の目的として正しいものはどれですか?

84. 
次のうち、Transformerモデルが機械翻訳において従来のRNNやLSTMベースのSeq2Seqモデルに勝っている理由はどれですか?

85. 
Transformerにおける「ポジショナルエンコーディング」の役割は何ですか?

86. 
「自己教師あり学習」はどのような手法ですか?

87. 
ディープラーニングモデルを大規模データセットでトレーニングする際にクラウド環境を選択する利点として適切なものはどれですか?

88. 
RNNを使用したシーケンス生成モデルで、次のタイムステップの予測を生成する際、予測結果が繰り返し使用されることによる誤差の累積を防ぐために使われる手法はどれですか?

89. 
アクセラレータとして最も一般的に使用されるデバイスはどれですか?

90. 
「局所的解釈可能性」を持つモデルの例として正しいものはどれですか?

91. 
ディープラーニング環境を構築する際に一般的に使用されるプログラミング言語はどれですか?

92. 
「ドロップアウト(Dropout)」の目的は何ですか?

93. 
「半教師あり学習」はどのようなデータを用いる学習方法ですか?

94. 
Transformerの構成要素の一つである「Multi-Head Attention」の目的は何ですか?

95. 
「Grad-CAM(Gradient-weighted Class Activation Mapping)」の主な目的は何ですか?

96. 
次のRNNモデルのうち、長期依存の問題を解決するために設計されたモデルはどれですか?

97. 
GPUと比べたFPGAの利点として正しいものはどれですか?

98. 
アクセラレータの導入による計算コスト削減の方法として適切なものはどれですか?

99. 
分散処理システムで「ネットワークボトルネック」が発生する主な原因として最も適切なものはどれですか?

100. 
「ハードサンプルマイニング」とは、どのような手法ですか?

コメントを残すにはログインしてください。