AI実装検定B級~模擬試験①~ 2024年12月8日 ailearn 1. ニューラルネットワークにおいて、隠れ層の数を増やすとどのような効果がありますか? 学習時間が短くなる 過学習のリスクが減る モデルが単純化される モデルの表現力が高まる None 2. 1997年にチェスの世界チャンピオンを破ったAIの名前は何ですか? ディープマインド IBM Watson ディープブルー AlphaGo None 3. 「交差検証」の目的は何ですか? データ全体のパフォーマンスを評価するため、データセットを複数の部分に分けて評価を行う手法 モデルのハイパーパラメータを調整する手法 データの次元を削減する手法 データをクラスタリングする手法 None 4. 主成分分析(PCA)を用いた次元削減において、どのようにして「情報の損失」を最小限に抑えることができますか? データをすべて削除する 主成分のうち、分散が大きいものから順に選択する 主成分のうち、分散が小さいものから順に選択する データを標準化せずに使用する None 5. 「次元削減」とは何を指しますか? データを新しいクラスに分類する手法 データを時系列に沿って並べ替える手法 データを標準化する手法 データの次元数を減らして、学習効率や可視化を向上させる手法 None 6. 「データの前処理」として一般的に行われる操作はどれですか? 欠損値の補完 モデルの評価 ハイパーパラメータのチューニング モデルのデプロイ None 7. 次のうち、回帰問題に適しているアルゴリズムはどれですか? サポートベクターマシン 線形回帰 k-近傍法 クラスタリング None 8. データ正規化がパターン認識モデルの精度向上に寄与する理由は何ですか? 特徴量間のスケールを揃えることで、モデルのバイアスを防ぐため データを整数に変換するため 計算コストを低減するため データの次元を削減するため None 9. 「エキスパートシステム」がAI研究に大きな影響を与えた年代はどの時期ですか? 1950年代 1960年代 1970年代 1980年代 None 10. 次のうち、「ラベル付けされたデータ」を使用するタスクはどれですか? 教師あり学習 教師なし学習 クラスタリング 次元削減 None 11. データの「オーバーサンプリング」とは何ですか? 少数のクラスのデータを増やすことで、クラス間のバランスを取る手法 データの次元を削減する手法 データの標準化を行う手法 欠損データを補完する手法 None 12. 「推論」とは機械学習において何を指しますか? 訓練済みのモデルを使用して、新しいデータに対して予測や分類を行うこと モデルのパラメータを学習すること データの前処理を行うこと データを可視化すること None 13. 回帰問題において、予測するものは何ですか? カテゴリラベル クラスター 関数 連続的な数値 None 14. ニューラルネットワークの「学習率」を適切に設定しないと起こりうる問題はどれですか? 学習率が高すぎると最適解に到達できない、または振動する可能性がある 学習率が高すぎると過学習が発生する 学習率が低すぎるとモデルが過学習する 学習率が低すぎるとデータが不足する None 15. 1960年代のAIの発展を支えた代表的なAIプログラム「ELIZA」は、どのようなプログラムですか? ロボット制御プログラム 自然言語処理プログラム 自動運転プログラム 数値解析プログラム None 16. 時系列データに対するモデルを作成する際に考慮すべき特徴として最も重要なものは何ですか? データのスケール データのラベルの有無 データの時間的な依存関係 データの次元数 None 17. 「AIの冬」とは何を指していますか? AIが初めて誕生した時期 AI研究が一時的に停滞した時期 AIが商業的に成功した時期 人工知能が誤解された時期 None 18. 次のうち、データの可視化に使われる手法はどれですか? 線形回帰 散布図 決定木 ニューラルネットワーク None 19. 1980年代にAI研究が停滞した要因として正しいものはどれですか? 計算機の性能の限界 エキスパートシステムの失敗 AI法の制定 ディープラーニングの台頭 None 20. 畳み込みニューラルネットワーク(CNN)の「フィルターサイズ」を小さくすると、どのような影響がありますか? 過学習のリスクが減る モデルが非線形性を捉えにくくなる 学習に必要な計算量が増える 特徴マップの解像度が上がる None 21. 1956年に開催された「ダートマス会議」は、AIの歴史において何を示唆した出来事でしたか? AIの正式な誕生 初のAI論文の発表 初のAI企業の設立 人工知能の定義が初めて確立された None 22. k近傍法(k-NN)の分類アルゴリズムにおいて、kの値が小さすぎるとどのような問題が発生しますか? オーバーフィッティング アンダーフィッティング データの次元が増える ノイズが減る None 23. 「バッチ学習」と「オンライン学習」の違いは何ですか? バッチ学習はデータ全体を一度に使用して学習し、オンライン学習はデータを逐次使用して学習する バッチ学習は並列処理を行い、オンライン学習は単一処理を行う バッチ学習はリアルタイムで学習を行い、オンライン学習は事前に学習を行う バッチ学習は大規模データセットに対応し、オンライン学習は小規模データセットに特化する None 24. ニューラルネットワークの「層の深さ」が増えると、どのような影響がある可能性が高いですか? モデルがより複雑なパターンを学習できるが、勾配消失問題が発生しやすくなる モデルの計算時間が減少する モデルの汎化性能が常に向上する 学習が必要なくなる None 25. 次のうち、ディープラーニングモデルの「重み」を最適化するために使用されるアルゴリズムはどれですか? クラスタリング 勾配降下法 主成分分析 K-means None 26. 分類問題において、一般的に使用されるアルゴリズムの一つはどれですか? k-近傍法(k-NN) クラスタリング 主成分分析(PCA) サポートベクターマシン(SVM) None 27. 次のうち、ニューラルネットワークにおける「活性化関数」として適切なものはどれですか? 勾配消失問題 バッチ正規化 ReLU(Rectified Linear Unit) 正則化 None 28. パターン認識において「クラスタリング」はどのような目的で行われますか? データのラベルを付けるため データをクラス分けするため データの次元を削減するため データを正規化するため None 29. パターン認識における「ノイズ」とは何を指しますか? 正しいデータ 不要で無関係なデータ 高品質のデータ 分類後のデータ None 30. サポートベクターマシン(SVM)における「カーネル関数」の役割は何ですか? 訓練データのノイズを除去する 特徴ベクトルをより高次元の空間にマッピングする 決定境界を線形化する データの正規化を行う None Time's up