AI実装検定B級~模擬試験①~ 2024年12月8日 ailearn 1. パターン認識における「アンサンブル学習」の主な利点は何ですか? 計算時間が大幅に短縮される 過学習のリスクがなくなる 複数のモデルを組み合わせることで、予測精度が向上する 単一のモデルを使用するよりもデータの処理が簡単になる None 2. 次のうち、回帰問題に適しているアルゴリズムはどれですか? サポートベクターマシン 線形回帰 k-近傍法 クラスタリング None 3. 2016年に、囲碁の世界チャンピオンに勝利したAIプログラムは何ですか? AlphaGo IBM Watson ディープブルー LISP None 4. 「機械学習における学習」とは何を指しますか? データを使用してモデルのパラメータを調整するプロセス 人間が直接データを入力する作業 プログラムを動かすための環境設定 モデルの推論結果を評価する作業 None 5. 1960年代に開発された最初のAI言語「LISP」を開発したのは誰ですか? アラン・チューリング クロード・シャノン ジョン・マッカーシー ハーバート・サイモン None 6. データの「オーバーサンプリング」とは何ですか? 少数のクラスのデータを増やすことで、クラス間のバランスを取る手法 データの次元を削減する手法 データの標準化を行う手法 欠損データを補完する手法 None 7. 1997年にチェスの世界チャンピオンを破ったAIの名前は何ですか? ディープマインド IBM Watson ディープブルー AlphaGo None 8. パターン認識における「教師あり学習」の特徴として正しいものはどれですか? データにラベルがない 正しい答えをモデルに学習させる モデルは自己組織化によってパターンを見つける クラス分類を行わない None 9. パターン認識の主要なステップに含まれないものは次のうちどれですか? データ収集 特徴抽出 クラス分類 ラベル付け None 10. 「次元削減」とは何を指しますか? データを新しいクラスに分類する手法 データを時系列に沿って並べ替える手法 データを標準化する手法 データの次元数を減らして、学習効率や可視化を向上させる手法 None 11. パターン認識において「特徴ベクトル」とは何を指しますか? データのラベル クラス分類の結果 データを特徴量で表現したベクトル パターンの一致度 None 12. 教師あり学習において、「正解データ」を持たない学習方法は何ですか? 教師なし学習 強化学習 ディープラーニング ハイパーパラメータ調整 None 13. ニューラルネットワークの「層の深さ」が増えると、どのような影響がある可能性が高いですか? モデルがより複雑なパターンを学習できるが、勾配消失問題が発生しやすくなる モデルの計算時間が減少する モデルの汎化性能が常に向上する 学習が必要なくなる None 14. 「交差検証」を使用する利点として最も適切なものはどれですか? 学習時間を短縮できる データの欠損を補完することができる データの分割方法に依存せずに、モデルの汎化性能を評価できる 学習率を最適化できる None 15. 「L1正則化」と「L2正則化」の違いは何ですか? L1正則化は全ての重みをゼロにし、L2正則化は一部の重みを大きくする L1正則化は一部の重みをゼロにし、L2正則化は全ての重みを小さくする L1正則化は学習率を調整し、L2正則化はデータを正規化する L1正則化はデータの一部を削除し、L2正則化はデータの欠損を補う None 16. 次のうち、データの可視化に使われる手法はどれですか? 線形回帰 散布図 決定木 ニューラルネットワーク None 17. 次のうち、ニューラルネットワークにおける「活性化関数」として適切なものはどれですか? 勾配消失問題 バッチ正規化 ReLU(Rectified Linear Unit) 正則化 None 18. 教師なし学習でよく使用されるタスクはどれですか? 回帰 分類 クラスタリング 推論 None 19. 「バッチ学習」と「オンライン学習」の違いは何ですか? バッチ学習はデータ全体を一度に使用して学習し、オンライン学習はデータを逐次使用して学習する バッチ学習は並列処理を行い、オンライン学習は単一処理を行う バッチ学習はリアルタイムで学習を行い、オンライン学習は事前に学習を行う バッチ学習は大規模データセットに対応し、オンライン学習は小規模データセットに特化する None 20. 1956年に開催された「ダートマス会議」は、AIの歴史において何を示唆した出来事でしたか? AIの正式な誕生 初のAI論文の発表 初のAI企業の設立 人工知能の定義が初めて確立された None 21. リッジ回帰において、「L2正則化」の効果として正しいものはどれですか? モデルの全ての重みをゼロに近づける 一部の特徴量を完全に無視する モデルの重みを小さくし、過学習を防ぐ データの次元を削減する None 22. 異常検知に使用される代表的なアルゴリズムはどれですか? 主成分分析(PCA) 線形回帰 k-近傍法(k-NN) ニューラルネットワーク None 23. 「過学習」とは何ですか? モデルがデータを学習できない現象 学習データに対しては高い精度を持つが、新しいデータに対しては性能が低下する現象 学習データに対してモデルが適用できない状態 正解データがない場合に起こる現象 None 24. 畳み込みニューラルネットワーク(CNN)において、プーリング層の主な役割は何ですか? 特徴マップの次元を削減し、重要な特徴を抽出する 重みの学習を高速化する 非線形性を導入する データを正規化する None 25. ニューラルネットワークの基本的な構成要素で、情報が処理される場所はどこですか? エポック 重み ニューロン(ノード) 活性化関数 None 26. 畳み込みニューラルネットワーク(CNN)の「フィルターサイズ」を小さくすると、どのような影響がありますか? 過学習のリスクが減る モデルが非線形性を捉えにくくなる 学習に必要な計算量が増える 特徴マップの解像度が上がる None 27. 次のうち、ディープラーニングモデルの「重み」を最適化するために使用されるアルゴリズムはどれですか? クラスタリング 勾配降下法 主成分分析 K-means None 28. パターン認識において「クラスタリング」はどのような目的で行われますか? データのラベルを付けるため データをクラス分けするため データの次元を削減するため データを正規化するため None 29. ディープラーニングの基礎となる「バックプロパゲーション法」が最初に提案されたのはどの年代ですか? 1950年代 1960年代 1980年代 2000年代 None 30. ニューラルネットワークにおいて、隠れ層の数を増やすとどのような効果がありますか? 学習時間が短くなる 過学習のリスクが減る モデルが単純化される モデルの表現力が高まる None Time's up