AI実装検定B級~模擬試験②~ 2024年12月8日 ailearn 1. 「バッチ正規化」の主な目的は何ですか? モデルのパラメータを自動調整するため モデルの学習時間を短縮するため モデルのハイパーパラメータを削減するため 各層の出力を正規化して、学習を安定化させるため None 2. GPTモデルのような自己回帰型モデルとBERTのような双方向モデルの違いは何ですか? GPTは文脈を無視してテキストを生成するが、BERTは文脈を利用する GPTは双方向に文脈を処理し、BERTは単方向に処理する GPTは過去の単語を利用して次の単語を予測し、BERTは全体の文脈を同時に理解する GPTは単語ベクトルに依存せず、BERTはベクトル化しない None 3. AI開発において「モデルの監視」が重要である理由はどれですか? モデルの学習時間を短縮するため モデルの運用中のパフォーマンスを継続的に評価し、精度の劣化や異常を検出するため モデルの複雑性を増すため モデルのパラメータを手動で更新するため None 4. BERTとTransformerの関係性について正しい説明はどれですか? BERTはTransformerを利用したモデルである TransformerはBERTの改良版である BERTとTransformerは全く異なる技術である BERTはTransformerを不要とする新しいアーキテクチャである None 5. ニューラルネットワークにおいて「活性化関数」が持つ主な役割は何ですか? データを正規化する モデルの誤差を計算する 各ニューロンの出力を制限し、非線形性を導入する 各層の重みを更新する None 6. 「アンサンブル学習」の目的は何ですか? 単一モデルよりも複雑なモデルを作るため モデルのパラメータを減らすため 複数の異なるモデルを組み合わせることで、予測精度を向上させるため モデルの学習速度を速めるため None 7. NLPモデルにおいて「アテンション機構」の役割は何ですか? モデルの計算負荷を軽減するため 特定の単語に対してより重要な重みを与えるため データの前処理を高速化するため 単語の順番を無視して解析するため None 8. AIモデルの「デプロイ」とは何ですか? モデルを本番環境に展開し、実際に使用可能な状態にすること モデルの学習データを収集すること モデルのハイパーパラメータを最適化すること モデルの評価指標を設定すること None 9. AI開発において「モデルの再訓練」が必要になる理由として適切でないものはどれですか? データドリフトが発生したため 本番環境でモデルの精度が低下したため 新しいデータが追加されたため モデルのハイパーパラメータが最適化されたため None 10. 自然言語処理において、形態素解析が難しいとされる言語はどれですか? 英語 フランス語 ドイツ語 日本語 None 11. データの前処理で「次元削減」を行う主な理由は何ですか? データの精度を上げるため 訓練データを削除するため モデルの過学習を防ぐため データの特徴量を減らし、処理を効率化するため None 12. トランスフォーマーモデルが従来のRNNに対して持つ優位性として正しいものはどれですか? 並列処理が可能で、計算効率が高い 長期的な依存関係を処理できない 単語間の順序を無視できる 計算コストが低い None 13. ジェフリー・ヒントンらが提唱した「バックプロパゲーション法」がAIの学習において画期的だった理由はどれですか? 非線形問題を解決できるようにした エキスパートシステムの改良に貢献した コンピュータの処理能力を劇的に向上させた 人間の知識をデータベースに取り込む方法を確立した None 14. 1980年代の「AIの冬」を引き起こした主な要因として最も正しいものはどれですか? ディープラーニングの発展 エキスパートシステムの限界 ハードウェア技術の進歩 AIに対する規制強化 None 15. 1990年代に発展した「強化学習」の基本的なアイデアはどれですか? 過去のデータから正しい答えを学習する 複数のAIモデルを統合して最適解を導く 自然言語を使ってAIが自己学習する 環境からのフィードバックに基づいて行動を学習する None 16. 勾配降下法の中でも「ミニバッチ勾配降下法」の利点は何ですか? 全データセットを一度に処理する 計算コストが非常に低い 全てのデータを使わずに学習を進めるため、効率的でメモリ使用量も少ない 過学習を防ぐために使われる None 17. データ整理において「正規化」を行う主な理由は何ですか? データの特徴を増やすため データのスケールを揃え、学習を安定させるため データの次元を減らすため モデルの訓練時間を増やすため None 18. 「アンサンブル学習」の利点は何ですか? 単一のモデルよりも計算コストを削減できる モデルのパラメータ調整が不要である 訓練データを減らして学習できる 複数の異なるモデルを組み合わせることで、予測精度を向上させる None 19. ニューラルネットワークの学習において、「早期終了(Early Stopping)」の目的は何ですか? モデルの訓練を高速化する モデルが過学習する前に学習を停止する 学習率を自動調整する 訓練データのサイズを減らす None 20. ディープラーニングモデルにおける「バッチ正規化(Batch Normalization)」の主な利点は何ですか? 学習率を自動的に調整する 各層の出力を安定化させ、学習を早くする モデルの複雑さを減少させる 過学習を完全に防ぐ None 21. AIモデルの開発と運用において「CI/CDパイプライン」の目的は何ですか? モデルの予測精度を向上させるため モデルの学習を高速化するため 継続的なインテグレーションとデプロイを自動化し、モデルを迅速に展開・更新するため モデルの複雑性を減らすため None 22. ニューラルネットワークにおいて、勾配降下法の目的は何ですか? モデルの複雑性を増やす 誤差関数を最小化する 重みの初期値を決定する データを前処理する None 23. 「L2正則化」は、モデルのどのような問題に対処するために使用されますか? 勾配消失問題 モデルの複雑性を抑え、過学習を防ぐ データの前処理を効率化する データの欠損値を補完する None 24. 自然言語処理において、ニューラルネットワークを使ってテキストを分類するために広く使用されるモデルはどれですか? CNN(畳み込みニューラルネットワーク) RNN(再帰型ニューラルネットワーク) LSTM(長短期記憶) GAN(生成的敵対ネットワーク) None 25. テキストデータを用いた自然言語処理において、「BERT」の特徴として正しいものはどれですか? トークン化を行わない 文脈を理解せずに処理する 双方向的に文脈を学習する 単語の出現回数に基づいてベクトル化する None 26. テキストデータの前処理として正しくないものは次のうちどれですか? ストップワードの除去 トークン化 文書分類 形態素解析 None 27. AIモデルの計算において、行列の掛け算が頻繁に使用される理由として正しいものはどれですか? モデルのサイズを減らすため データの精度を上げるため 大量のデータを効率的に処理できるため モデルの複雑性を低下させるため None 28. 1997年、ガルリ・カスパロフがチェスでAIに敗れたときのAI「ディープブルー」はどの会社によって開発されましたか? Google Microsoft IBM Apple None 29. モデルの「ドロップアウト(Dropout)」の主な目的は何ですか? 訓練データの一部を無視して学習を進めることで、過学習を防ぐ モデルの出力を正規化するため 学習率を自動的に調整するため データを削除してモデルを簡略化するため None 30. AI開発において、データの「標準化」とは何を指しますか? データを0から1の範囲に変換する データを特定のスケールに揃えることで、特徴量のスケールを統一する データの欠損値を補完する データを全て削除する None Time's up