AI実装検定B級~模擬試験~ 2024年10月31日 ailearn 1. 「交差検証」を使用する利点として最も適切なものはどれですか? 学習時間を短縮できる データの欠損を補完することができる データの分割方法に依存せずに、モデルの汎化性能を評価できる 学習率を最適化できる None 2. パターン認識における「ノイズ」とは何を指しますか? 正しいデータ 不要で無関係なデータ 高品質のデータ 分類後のデータ None 3. 教師なし学習でよく使用されるタスクはどれですか? 回帰 分類 クラスタリング 推論 None 4. 「正則化」がパターン認識において果たす主な役割は何ですか? データの次元を削減する モデルの過学習を防ぐ 特徴量を無視する 学習速度を向上させる None 5. 1960年代のAIの発展を支えた代表的なAIプログラム「ELIZA」は、どのようなプログラムですか? ロボット制御プログラム 自然言語処理プログラム 自動運転プログラム 数値解析プログラム None 6. 「物理シンボルシステム仮説」がAI研究に与えた影響として最も正しいものはどれですか? エキスパートシステムの普及を促進した AIの思考プロセスをシンボル操作として表現できるようになった 人間の脳の構造を模倣したシステムを開発する基盤となった 強化学習の基礎を確立した None 7. AIの運用において「データドリフト」とは何ですか? モデルの出力結果が安定しなくなる現象 モデルがデータをランダムに分類する現象 モデルの学習データが変更される現象 モデルが新しいデータに対して予測精度を失う現象 None 8. NLPモデルにおいて「アテンション機構」の役割は何ですか? モデルの計算負荷を軽減するため 特定の単語に対してより重要な重みを与えるため データの前処理を高速化するため 単語の順番を無視して解析するため None 9. 分類問題において、一般的に使用されるアルゴリズムの一つはどれですか? k-近傍法(k-NN) クラスタリング 主成分分析(PCA) サポートベクターマシン(SVM) None 10. 「AIの冬」とは何を指していますか? AIが初めて誕生した時期 AI研究が一時的に停滞した時期 AIが商業的に成功した時期 人工知能が誤解された時期 None 11. パターン認識における「アンサンブル学習」の主な利点は何ですか? 計算時間が大幅に短縮される 過学習のリスクがなくなる 複数のモデルを組み合わせることで、予測精度が向上する 単一のモデルを使用するよりもデータの処理が簡単になる None 12. AIモデルのデプロイ後に、モデルの性能が急激に低下する「データドリフト」が発生した場合の一般的な対応として正しいものはどれですか? モデルを完全に削除し、再開発する モデルをそのまま運用し続ける モデルを再訓練するか、新しいデータで再度学習を行う モデルのハイパーパラメータを調整するだけで十分 None 13. 「損失関数」の役割は何ですか? データを前処理するための関数 モデルの予測と実際の値との誤差を計算するための関数 モデルの構造を決定するための関数 学習率を調整するための関数 None 14. 1956年に開催された「ダートマス会議」は、AIの歴史において何を示唆した出来事でしたか? AIの正式な誕生 初のAI論文の発表 初のAI企業の設立 人工知能の定義が初めて確立された None 15. データの前処理で「次元削減」を行う主な理由は何ですか? データの精度を上げるため 訓練データを削除するため モデルの過学習を防ぐため データの特徴量を減らし、処理を効率化するため None 16. データの標準化と正規化の違いとして正しいものはどれですか? 標準化はデータの平均を0、分散を1に揃え、正規化は0から1の範囲にスケールする 標準化はデータの範囲を揃え、正規化はデータの平均を揃える 標準化は欠損データを処理し、正規化はデータのラベルを処理する 標準化は異常値を削除し、正規化は外れ値を削除する None 17. 1960年代にAI研究の発展を支えた「物理シンボルシステム仮説」を提唱したのは誰ですか? ハーバート・サイモンとアレン・ニューウェル アラン・チューリングとジョン・マッカーシー フランク・ローゼンブラットとマービン・ミンスキー ジェフリー・ヒントンとヨシュア・ベンジオ None 18. AIモデルの「デプロイ」とは何ですか? モデルを本番環境に展開し、実際に使用可能な状態にすること モデルの学習データを収集すること モデルのハイパーパラメータを最適化すること モデルの評価指標を設定すること None 19. 自然言語処理において、ニューラルネットワークを使ってテキストを分類するために広く使用されるモデルはどれですか? CNN(畳み込みニューラルネットワーク) RNN(再帰型ニューラルネットワーク) LSTM(長短期記憶) GAN(生成的敵対ネットワーク) None 20. 畳み込みニューラルネットワーク(CNN)の「フィルターサイズ」を小さくすると、どのような影響がありますか? 過学習のリスクが減る モデルが非線形性を捉えにくくなる 学習に必要な計算量が増える 特徴マップの解像度が上がる None 21. 「ハイパーパラメータ」とは何ですか? モデルが自動で調整するパラメータ 学習の前に設定されるモデルのパラメータ 学習データに基づいて計算されるパラメータ モデルの出力結果を評価するための指標 None 22. 機械学習における「過学習」とは何ですか? モデルが訓練データに対して過剰に適応し、汎化性能が低下する状態 モデルが訓練データにうまく適合できない状態 モデルが訓練データを誤って分類する状態 モデルが全てのデータをランダムに分類する状態 None 23. AI開発における「ハイパーパラメータチューニング」の方法の一つである「グリッドサーチ」の特徴はどれですか? 事前に定義した全てのハイパーパラメータの組み合わせを網羅的に試す ランダムにハイパーパラメータを調整する モデルの複雑性を減らすために使用される データの欠損値を補完するために使用される None 24. 自然言語処理において、形態素解析の目的は何ですか? テキストの文脈を理解する 単語の品詞や形を特定する 文書全体の構造を解析する 文書を分類する None 25. 自然言語処理において、生成的敵対ネットワーク(GAN)がテキスト生成に使用される際の特徴は何ですか? 正規化なしでテキストを生成する テキストの文脈を理解せずに生成する テキスト生成を通じて、よりリアルな文章を生成する 単一のモデルでテキスト分類も同時に行う None 26. Word2Vecの「スキップグラムモデル」とはどのような手法ですか? 単語の出現頻度に基づいて単語を分類する手法 中心となる単語から周囲の文脈を予測する手法 文章全体の意味を理解する手法 単語間の相互関係を無視する手法 None 27. トランスフォーマーモデルがテキスト分類や翻訳において効果的である理由は何ですか? 短期的な依存関係を無視するため 単語の順序を無視して全ての単語を均等に処理するため 訓練データを使用せずに学習できるため 文脈全体を同時に処理し、単語間の関係を考慮できるため None 28. 次のうち、回帰問題に適しているアルゴリズムはどれですか? サポートベクターマシン 線形回帰 k-近傍法 クラスタリング None 29. ニューラルネットワークの基本的な構成要素で、情報が処理される場所はどこですか? エポック 重み ニューロン(ノード) 活性化関数 None 30. ニューラルネットワークにおいて「勾配消失問題」を解決するために有効な活性化関数はどれですか? シグモイド関数 ソフトマックス関数 ReLU(Rectified Linear Unit) タンジェントハイパボリック関数 None Time's up