AI実装検定B級~模擬試験~ 2024年10月31日 ailearn 1. 「損失関数」の役割は何ですか? データを前処理するための関数 モデルの予測と実際の値との誤差を計算するための関数 モデルの構造を決定するための関数 学習率を調整するための関数 None 2. 1980年代にAI研究が停滞した要因として正しいものはどれですか? 計算機の性能の限界 エキスパートシステムの失敗 AI法の制定 ディープラーニングの台頭 None 3. 特徴量選択の目的として最も適切なものは何ですか? モデルのサイズを増加させる データの欠損を補完する データのサイズを増やす モデルの性能向上と計算コストの削減 None 4. 勾配降下法の中でも「ミニバッチ勾配降下法」の利点は何ですか? 全データセットを一度に処理する 計算コストが非常に低い 全てのデータを使わずに学習を進めるため、効率的でメモリ使用量も少ない 過学習を防ぐために使われる None 5. 自然言語処理において、形態素解析の目的は何ですか? テキストの文脈を理解する 単語の品詞や形を特定する 文書全体の構造を解析する 文書を分類する None 6. データの「アンダーサンプリング」とは何ですか? 欠損データを補完する手法 データの次元を削減する手法 新しい特徴量を生成する手法 大量のデータから少数のデータをランダムに選んで使用する手法 None 7. 「物理シンボルシステム仮説」がAI研究に与えた影響として最も正しいものはどれですか? エキスパートシステムの普及を促進した AIの思考プロセスをシンボル操作として表現できるようになった 人間の脳の構造を模倣したシステムを開発する基盤となった 強化学習の基礎を確立した None 8. パターン認識における「アンサンブル学習」の主な利点は何ですか? 計算時間が大幅に短縮される 過学習のリスクがなくなる 複数のモデルを組み合わせることで、予測精度が向上する 単一のモデルを使用するよりもデータの処理が簡単になる None 9. BERTとTransformerの関係性について正しい説明はどれですか? BERTはTransformerを利用したモデルである TransformerはBERTの改良版である BERTとTransformerは全く異なる技術である BERTはTransformerを不要とする新しいアーキテクチャである None 10. 「AIの冬」とは何を指していますか? AIが初めて誕生した時期 AI研究が一時的に停滞した時期 AIが商業的に成功した時期 人工知能が誤解された時期 None 11. ニューラルネットワークにおいて、勾配降下法の目的は何ですか? モデルの複雑性を増やす 誤差関数を最小化する 重みの初期値を決定する データを前処理する None 12. モデルの評価において「クロスバリデーション」が用いられる主な目的は何ですか? モデルの過学習を防ぎ、汎化性能を評価するため 訓練時間を短縮するため モデルの複雑さを増やすため データを削減するため None 13. ニューラルネットワークにおいて、隠れ層の数を増やすとどのような効果がありますか? 学習時間が短くなる 過学習のリスクが減る モデルが単純化される モデルの表現力が高まる None 14. 異常検知のタスクにおいて、正常データが圧倒的に多く、異常データが少ない場合、最も適切な評価指標はどれですか? 正答率(Accuracy) 平均絶対誤差(MAE) F1スコア 平均二乗誤差(MSE) None 15. AIモデルの計算において、行列の掛け算が頻繁に使用される理由として正しいものはどれですか? モデルのサイズを減らすため データの精度を上げるため 大量のデータを効率的に処理できるため モデルの複雑性を低下させるため None 16. 「正則化」がパターン認識において果たす主な役割は何ですか? データの次元を削減する モデルの過学習を防ぐ 特徴量を無視する 学習速度を向上させる None 17. 「データの前処理」として一般的に行われる操作はどれですか? 欠損値の補完 モデルの評価 ハイパーパラメータのチューニング モデルのデプロイ None 18. 自然言語処理において、生成的敵対ネットワーク(GAN)がテキスト生成に使用される際の特徴は何ですか? 正規化なしでテキストを生成する テキストの文脈を理解せずに生成する テキスト生成を通じて、よりリアルな文章を生成する 単一のモデルでテキスト分類も同時に行う None 19. 次のうち、ニューラルネットワークにおける「活性化関数」として適切なものはどれですか? 勾配消失問題 バッチ正規化 ReLU(Rectified Linear Unit) 正則化 None 20. 1960年代に開発された最初のAI言語「LISP」を開発したのは誰ですか? アラン・チューリング クロード・シャノン ジョン・マッカーシー ハーバート・サイモン None 21. 2016年に、囲碁の世界チャンピオンに勝利したAIプログラムは何ですか? AlphaGo IBM Watson ディープブルー LISP None 22. AIモデルの開発と運用において「CI/CDパイプライン」の目的は何ですか? モデルの予測精度を向上させるため モデルの学習を高速化するため 継続的なインテグレーションとデプロイを自動化し、モデルを迅速に展開・更新するため モデルの複雑性を減らすため None 23. データの「バイアス・バリアンストレードオフ」において、バイアスが大きい場合にモデルが示す傾向は何ですか? 過学習が起こりやすくなる 学習データに対する精度が高くなる モデルが単純化され、訓練データに過剰に適応しない テストデータに対する精度が高くなる None 24. テキストデータの前処理として正しくないものは次のうちどれですか? ストップワードの除去 トークン化 文書分類 形態素解析 None 25. AI開発における「ハイパーパラメータチューニング」の方法の一つである「グリッドサーチ」の特徴はどれですか? 事前に定義した全てのハイパーパラメータの組み合わせを網羅的に試す ランダムにハイパーパラメータを調整する モデルの複雑性を減らすために使用される データの欠損値を補完するために使用される None 26. トランスフォーマーモデルがテキスト分類や翻訳において効果的である理由は何ですか? 短期的な依存関係を無視するため 単語の順序を無視して全ての単語を均等に処理するため 訓練データを使用せずに学習できるため 文脈全体を同時に処理し、単語間の関係を考慮できるため None 27. 「ドロップアウト」はニューラルネットワークにおいてどのような役割を果たしますか? 勾配消失問題を解決するための技術 データを正規化する技術 モデルの推論を高速化する技術 過学習を防ぐために、ランダムにニューロンを無効化する技術 None 28. ニューラルネットワークの学習において、「早期終了(Early Stopping)」の目的は何ですか? モデルの訓練を高速化する モデルが過学習する前に学習を停止する 学習率を自動調整する 訓練データのサイズを減らす None 29. モデルの「ハイパーパラメータ」とは何ですか? 訓練データから学習されるパラメータ モデルの出力を正規化するためのパラメータ モデルの構造や学習率など、事前に設定されるパラメータ モデルの複雑性を制御するパラメータ None 30. 次のうち、「時系列データ」として最も適切な例はどれですか? 写真の画像データ 人口分布データ 株価の推移 顧客の購買履歴データ None Time's up