AI実装検定B級~模擬試験~ 2024年10月31日 ailearn 1. ニューラルネットワークにおいて、重みの初期化方法が重要な理由は何ですか? 重みの初期化はモデルのサイズに直接影響を与えるため 適切な初期化が行われないと、勾配消失や発散が起こるため 重みの初期化によってモデルの複雑性が変わるため 初期化によって、訓練データの次元が変わるため None 2. 1960年代にAI研究の発展を支えた「物理シンボルシステム仮説」を提唱したのは誰ですか? ハーバート・サイモンとアレン・ニューウェル アラン・チューリングとジョン・マッカーシー フランク・ローゼンブラットとマービン・ミンスキー ジェフリー・ヒントンとヨシュア・ベンジオ None 3. モデルの「汎化性能」を向上させるために適切な手法はどれですか? 学習データを増やさない モデルの複雑さを高める 交差検証や正則化を使用する 過学習を促進する None 4. 自然言語処理(NLP)において、最も一般的に使用される「ベクトル表現」はどれですか? ワードクラウド TF-IDF ワード2ベック(Word2Vec) 形態素解析 None 5. AI開発のプロセスにおいて、データの「前処理」が重要な理由は何ですか? モデルの予測精度に影響を与えないため モデルが学習に使うデータを整理し、欠損値やノイズを除去するため モデルのサイズを削減するため モデルの学習時間を短縮するため None 6. 「勾配消失問題」とはどのような問題ですか? 学習が進むにつれて勾配が0に近づき、重みの更新が停止する問題 データがランダムに分散される問題 モデルが学習できない問題 データが欠損する問題 None 7. 「ドロップアウト」はニューラルネットワークにおいてどのような役割を果たしますか? 勾配消失問題を解決するための技術 データを正規化する技術 モデルの推論を高速化する技術 過学習を防ぐために、ランダムにニューロンを無効化する技術 None 8. リッジ回帰において、「L2正則化」の効果として正しいものはどれですか? モデルの全ての重みをゼロに近づける 一部の特徴量を完全に無視する モデルの重みを小さくし、過学習を防ぐ データの次元を削減する None 9. 次のタスクのうち、「分類問題」に該当するものはどれですか? 家の価格を予測する スパムメールを判定する 顧客のクラスターを見つける 画像からの次元削減を行う None 10. NLPモデルにおいて「アテンション機構」の役割は何ですか? モデルの計算負荷を軽減するため 特定の単語に対してより重要な重みを与えるため データの前処理を高速化するため 単語の順番を無視して解析するため None 11. ニューラルネットワークにおいて「活性化関数」が持つ主な役割は何ですか? データを正規化する モデルの誤差を計算する 各ニューロンの出力を制限し、非線形性を導入する 各層の重みを更新する None 12. 「バッチ正規化」の主な目的は何ですか? モデルのパラメータを自動調整するため モデルの学習時間を短縮するため モデルのハイパーパラメータを削減するため 各層の出力を正規化して、学習を安定化させるため None 13. データの「オーバーサンプリング」とは何ですか? 少数のクラスのデータを増やすことで、クラス間のバランスを取る手法 データの次元を削減する手法 データの標準化を行う手法 欠損データを補完する手法 None 14. 主成分分析(PCA)を適用する前にデータの「中心化」を行う理由は何ですか? 計算コストを減らすため 分散を最大化するため データのスケールを揃えるため 次元削減の精度を上げるため None 15. AIモデルのデプロイ後に、モデルの性能が急激に低下する「データドリフト」が発生した場合の一般的な対応として正しいものはどれですか? モデルを完全に削除し、再開発する モデルをそのまま運用し続ける モデルを再訓練するか、新しいデータで再度学習を行う モデルのハイパーパラメータを調整するだけで十分 None 16. 1950年代のAI研究において、ニューラルネットワークの基礎となった「パーセプトロン」を開発した人物は誰ですか? フランク・ローゼンブラット アラン・チューリング ジョン・マッカーシー ジェフリー・ヒントン None 17. 特徴抽出における主成分分析(PCA)の目的は何ですか? データの次元を削減する データをクラス分けする データにノイズを加える データの品質を上げる None 18. 次のうち、「時系列データ」として最も適切な例はどれですか? 写真の画像データ 人口分布データ 株価の推移 顧客の購買履歴データ None 19. 「データの正規分布」とはどのような形の分布を指しますか? ランダムに分散したデータの分布 平均を中心に左右対称なベル型の分布 一方向に偏ったデータの分布 変数間の相関を表す分布 None 20. データの分布に偏りがある場合、モデルの精度にどのような影響がありますか? 全てのクラスに対して均等に精度が向上する 偏りのあるクラスに対して過剰に適応し、他のクラスでの予測精度が低下する モデルが過学習を起こす モデルが学習できなくなる None 21. 「物理シンボルシステム仮説」がAI研究に与えた影響として最も正しいものはどれですか? エキスパートシステムの普及を促進した AIの思考プロセスをシンボル操作として表現できるようになった 人間の脳の構造を模倣したシステムを開発する基盤となった 強化学習の基礎を確立した None 22. 2016年に、囲碁の世界チャンピオンに勝利したAIプログラムは何ですか? AlphaGo IBM Watson ディープブルー LISP None 23. 「推論」とは機械学習において何を指しますか? 訓練済みのモデルを使用して、新しいデータに対して予測や分類を行うこと モデルのパラメータを学習すること データの前処理を行うこと データを可視化すること None 24. サポートベクターマシン(SVM)における「カーネル関数」の役割は何ですか? 訓練データのノイズを除去する 特徴ベクトルをより高次元の空間にマッピングする 決定境界を線形化する データの正規化を行う None 25. 2010年代に入り、AI研究が再び活発化した理由として正しいものはどれですか? ディープラーニング技術の進展 エキスパートシステムの復活 量子コンピュータの普及 新しいプログラミング言語の開発 None 26. 「L2正則化」は、モデルのどのような問題に対処するために使用されますか? 勾配消失問題 モデルの複雑性を抑え、過学習を防ぐ データの前処理を効率化する データの欠損値を補完する None 27. AIモデルの開発と運用において「CI/CDパイプライン」の目的は何ですか? モデルの予測精度を向上させるため モデルの学習を高速化するため 継続的なインテグレーションとデプロイを自動化し、モデルを迅速に展開・更新するため モデルの複雑性を減らすため None 28. ディープラーニングの基礎となる「バックプロパゲーション法」が最初に提案されたのはどの年代ですか? 1950年代 1960年代 1980年代 2000年代 None 29. 「L1正則化」と「L2正則化」の違いは何ですか? L1正則化は全ての重みをゼロにし、L2正則化は一部の重みを大きくする L1正則化は一部の重みをゼロにし、L2正則化は全ての重みを小さくする L1正則化は学習率を調整し、L2正則化はデータを正規化する L1正則化はデータの一部を削除し、L2正則化はデータの欠損を補う None 30. 異常検知に使用される代表的なアルゴリズムはどれですか? 主成分分析(PCA) 線形回帰 k-近傍法(k-NN) ニューラルネットワーク None Time's up