AI実装検定B級~模擬試験②~ 2024年12月8日 ailearn 1. AIモデルのデプロイ後に、モデルの性能が急激に低下する「データドリフト」が発生した場合の一般的な対応として正しいものはどれですか? モデルを完全に削除し、再開発する モデルをそのまま運用し続ける モデルを再訓練するか、新しいデータで再度学習を行う モデルのハイパーパラメータを調整するだけで十分 None 2. LSTM(長短期記憶)モデルの最大の利点は何ですか? 長期的な文脈情報を保持できる 訓練データを少なくする 短期的な依存関係に強い 訓練が非常に早い None 3. 「L2正則化」は、モデルのどのような問題に対処するために使用されますか? 勾配消失問題 モデルの複雑性を抑え、過学習を防ぐ データの前処理を効率化する データの欠損値を補完する None 4. モデルの「ドロップアウト(Dropout)」の主な目的は何ですか? 訓練データの一部を無視して学習を進めることで、過学習を防ぐ モデルの出力を正規化するため 学習率を自動的に調整するため データを削除してモデルを簡略化するため None 5. AI開発において、データの「標準化」とは何を指しますか? データを0から1の範囲に変換する データを特定のスケールに揃えることで、特徴量のスケールを統一する データの欠損値を補完する データを全て削除する None 6. 1997年、ガルリ・カスパロフがチェスでAIに敗れたときのAI「ディープブルー」はどの会社によって開発されましたか? Google Microsoft IBM Apple None 7. GPTモデルのような自己回帰型モデルとBERTのような双方向モデルの違いは何ですか? GPTは文脈を無視してテキストを生成するが、BERTは文脈を利用する GPTは双方向に文脈を処理し、BERTは単方向に処理する GPTは過去の単語を利用して次の単語を予測し、BERTは全体の文脈を同時に理解する GPTは単語ベクトルに依存せず、BERTはベクトル化しない None 8. ニューラルネットワークにおいて、勾配降下法の目的は何ですか? モデルの複雑性を増やす 誤差関数を最小化する 重みの初期値を決定する データを前処理する None 9. 「TF-IDF」はどのような目的で使用されますか? 単語間の関連性を計算するため 単語の頻度と重要性を評価するため 文書を分類するため 文書間の類似度を測定するため None 10. AIモデルの計算において、行列の掛け算が頻繁に使用される理由として正しいものはどれですか? モデルのサイズを減らすため データの精度を上げるため 大量のデータを効率的に処理できるため モデルの複雑性を低下させるため None 11. モデルの評価指標の一つである「AUC(Area Under Curve)」は、何を評価するために使用されますか? モデルの学習速度 精度と再現率のバランス ROC曲線の下の面積を評価し、モデルの分類性能を測る 訓練データのサイズ None 12. 2010年代に入り、AI研究が再び活発化した理由として正しいものはどれですか? ディープラーニング技術の進展 エキスパートシステムの復活 量子コンピュータの普及 新しいプログラミング言語の開発 None 13. 「アンサンブル学習」の目的は何ですか? 単一モデルよりも複雑なモデルを作るため モデルのパラメータを減らすため 複数の異なるモデルを組み合わせることで、予測精度を向上させるため モデルの学習速度を速めるため None 14. 1950年代のAI研究において、ニューラルネットワークの基礎となった「パーセプトロン」を開発した人物は誰ですか? フランク・ローゼンブラット アラン・チューリング ジョン・マッカーシー ジェフリー・ヒントン None 15. AI開発における「ハイパーパラメータチューニング」の方法の一つである「グリッドサーチ」の特徴はどれですか? 事前に定義した全てのハイパーパラメータの組み合わせを網羅的に試す ランダムにハイパーパラメータを調整する モデルの複雑性を減らすために使用される データの欠損値を補完するために使用される None 16. AIモデルの開発において、「エンドツーエンド学習」の特徴は何ですか? データの前処理から予測まで全てのプロセスを統合的に学習する手法 モデルの学習後に手動でパラメータを調整する手法 学習の初期段階でモデルの出力を決定する手法 複数のモデルを結合して予測を行う手法 None 17. 「ドロップアウト」はニューラルネットワークにおいてどのような目的で使用されますか? 訓練中に一部のニューロンをランダムに無効化することで、過学習を防ぐ モデルの学習速度を向上させるために使用される モデルのハイパーパラメータを調整するために使用される モデルの予測結果を正規化するために使用される None 18. ニューラルネットワークにおいて「勾配消失問題」を解決するために有効な手法はどれですか? ReLU活性化関数の使用 勾配降下法を使用する 交差エントロピー誤差を使用する ドロップアウトを適用する None 19. 1990年代に発展した「強化学習」の基本的なアイデアはどれですか? 過去のデータから正しい答えを学習する 複数のAIモデルを統合して最適解を導く 自然言語を使ってAIが自己学習する 環境からのフィードバックに基づいて行動を学習する None 20. 1960年代にAI研究の発展を支えた「物理シンボルシステム仮説」を提唱したのは誰ですか? ハーバート・サイモンとアレン・ニューウェル アラン・チューリングとジョン・マッカーシー フランク・ローゼンブラットとマービン・ミンスキー ジェフリー・ヒントンとヨシュア・ベンジオ None 21. 自然言語処理(NLP)において、最も一般的に使用される「ベクトル表現」はどれですか? ワードクラウド TF-IDF ワード2ベック(Word2Vec) 形態素解析 None 22. NLPモデルにおいて「アテンション機構」の役割は何ですか? モデルの計算負荷を軽減するため 特定の単語に対してより重要な重みを与えるため データの前処理を高速化するため 単語の順番を無視して解析するため None 23. ニューラルネットワークの学習において、「早期終了(Early Stopping)」の目的は何ですか? モデルの訓練を高速化する モデルが過学習する前に学習を停止する 学習率を自動調整する 訓練データのサイズを減らす None 24. ジェフリー・ヒントンらが提唱した「バックプロパゲーション法」がAIの学習において画期的だった理由はどれですか? 非線形問題を解決できるようにした エキスパートシステムの改良に貢献した コンピュータの処理能力を劇的に向上させた 人間の知識をデータベースに取り込む方法を確立した None 25. 「物理シンボルシステム仮説」がAI研究に与えた影響として最も正しいものはどれですか? エキスパートシステムの普及を促進した AIの思考プロセスをシンボル操作として表現できるようになった 人間の脳の構造を模倣したシステムを開発する基盤となった 強化学習の基礎を確立した None 26. 機械学習における「過学習」とは何ですか? モデルが訓練データに対して過剰に適応し、汎化性能が低下する状態 モデルが訓練データにうまく適合できない状態 モデルが訓練データを誤って分類する状態 モデルが全てのデータをランダムに分類する状態 None 27. 機械学習における「クロスバリデーション」の目的は何ですか? モデルの過学習を防ぐため モデルのサイズを増やすため 学習時間を短縮するため データセットの欠損値を補完するため None 28. データの標準化と正規化の違いとして正しいものはどれですか? 標準化はデータの平均を0、分散を1に揃え、正規化は0から1の範囲にスケールする 標準化はデータの範囲を揃え、正規化はデータの平均を揃える 標準化は欠損データを処理し、正規化はデータのラベルを処理する 標準化は異常値を削除し、正規化は外れ値を削除する None 29. トランスフォーマーモデルがテキスト分類や翻訳において効果的である理由は何ですか? 短期的な依存関係を無視するため 単語の順序を無視して全ての単語を均等に処理するため 訓練データを使用せずに学習できるため 文脈全体を同時に処理し、単語間の関係を考慮できるため None 30. テキストデータの前処理として正しくないものは次のうちどれですか? ストップワードの除去 トークン化 文書分類 形態素解析 None Time's up