AI実装検定B級~模擬試験~ 2024年10月31日 ailearn 1. 自然言語処理において、ニューラルネットワークを使ってテキストを分類するために広く使用されるモデルはどれですか? CNN(畳み込みニューラルネットワーク) RNN(再帰型ニューラルネットワーク) LSTM(長短期記憶) GAN(生成的敵対ネットワーク) None 2. 「ハイパーパラメータ」とは何ですか? モデルが自動で調整するパラメータ 学習の前に設定されるモデルのパラメータ 学習データに基づいて計算されるパラメータ モデルの出力結果を評価するための指標 None 3. ニューラルネットワークにおいて「勾配消失問題」を解決するために有効な手法はどれですか? ReLU活性化関数の使用 勾配降下法を使用する 交差エントロピー誤差を使用する ドロップアウトを適用する None 4. 「正則化」がパターン認識において果たす主な役割は何ですか? データの次元を削減する モデルの過学習を防ぐ 特徴量を無視する 学習速度を向上させる None 5. 「機械学習における学習」とは何を指しますか? データを使用してモデルのパラメータを調整するプロセス 人間が直接データを入力する作業 プログラムを動かすための環境設定 モデルの推論結果を評価する作業 None 6. 次のうち、「ラベル付けされたデータ」を使用するタスクはどれですか? 教師あり学習 教師なし学習 クラスタリング 次元削減 None 7. パターン認識における「ノイズ」とは何を指しますか? 正しいデータ 不要で無関係なデータ 高品質のデータ 分類後のデータ None 8. 主成分分析(PCA)を用いた次元削減において、どのようにして「情報の損失」を最小限に抑えることができますか? データをすべて削除する 主成分のうち、分散が大きいものから順に選択する 主成分のうち、分散が小さいものから順に選択する データを標準化せずに使用する None 9. 時系列データに対するモデルを作成する際に考慮すべき特徴として最も重要なものは何ですか? データのスケール データのラベルの有無 データの時間的な依存関係 データの次元数 None 10. 「エキスパートシステム」がAI研究に大きな影響を与えた年代はどの時期ですか? 1950年代 1960年代 1970年代 1980年代 None 11. 「ドロップアウト」はニューラルネットワークにおいてどのような役割を果たしますか? 勾配消失問題を解決するための技術 データを正規化する技術 モデルの推論を高速化する技術 過学習を防ぐために、ランダムにニューロンを無効化する技術 None 12. 次のタスクのうち、「分類問題」に該当するものはどれですか? 家の価格を予測する スパムメールを判定する 顧客のクラスターを見つける 画像からの次元削減を行う None 13. データの前処理で「次元削減」を行う主な理由は何ですか? データの精度を上げるため 訓練データを削除するため モデルの過学習を防ぐため データの特徴量を減らし、処理を効率化するため None 14. テキストデータを用いた自然言語処理において、「BERT」の特徴として正しいものはどれですか? トークン化を行わない 文脈を理解せずに処理する 双方向的に文脈を学習する 単語の出現回数に基づいてベクトル化する None 15. ニューラルネットワークにおいて、重みの初期化方法が重要な理由は何ですか? 重みの初期化はモデルのサイズに直接影響を与えるため 適切な初期化が行われないと、勾配消失や発散が起こるため 重みの初期化によってモデルの複雑性が変わるため 初期化によって、訓練データの次元が変わるため None 16. 「データの正規分布」とはどのような形の分布を指しますか? ランダムに分散したデータの分布 平均を中心に左右対称なベル型の分布 一方向に偏ったデータの分布 変数間の相関を表す分布 None 17. ニューラルネットワークにおいて、勾配降下法の目的は何ですか? モデルの複雑性を増やす 誤差関数を最小化する 重みの初期値を決定する データを前処理する None 18. 「TF-IDF」はどのような目的で使用されますか? 単語間の関連性を計算するため 単語の頻度と重要性を評価するため 文書を分類するため 文書間の類似度を測定するため None 19. 「勾配消失問題」とはどのような問題ですか? 学習が進むにつれて勾配が0に近づき、重みの更新が停止する問題 データがランダムに分散される問題 モデルが学習できない問題 データが欠損する問題 None 20. 畳み込みニューラルネットワーク(CNN)の「フィルターサイズ」を小さくすると、どのような影響がありますか? 過学習のリスクが減る モデルが非線形性を捉えにくくなる 学習に必要な計算量が増える 特徴マップの解像度が上がる None 21. ディープラーニングモデルにおける「バッチ正規化(Batch Normalization)」の主な利点は何ですか? 学習率を自動的に調整する 各層の出力を安定化させ、学習を早くする モデルの複雑さを減少させる 過学習を完全に防ぐ None 22. 「バッチ正規化」の主な目的は何ですか? モデルのパラメータを自動調整するため モデルの学習時間を短縮するため モデルのハイパーパラメータを削減するため 各層の出力を正規化して、学習を安定化させるため None 23. 「正則化」を行う目的は何ですか? モデルの計算速度を向上させるため データを前処理するため モデルの構造を変更するため モデルが過学習するのを防ぎ、汎化性能を向上させるため None 24. 「物理シンボルシステム仮説」がAI研究に与えた影響として最も正しいものはどれですか? エキスパートシステムの普及を促進した AIの思考プロセスをシンボル操作として表現できるようになった 人間の脳の構造を模倣したシステムを開発する基盤となった 強化学習の基礎を確立した None 25. モデルの「再現率(Recall)」が高いことの意味は何ですか? モデルが正しく分類できるデータの割合が高い モデルが実際に正解であるデータを正しく分類できる割合が高い モデルの全体的な精度が高い モデルの学習速度が速い None 26. データの「オーバーサンプリング」とは何ですか? 少数のクラスのデータを増やすことで、クラス間のバランスを取る手法 データの次元を削減する手法 データの標準化を行う手法 欠損データを補完する手法 None 27. ニューラルネットワークにおいて「勾配消失問題」を解決するために有効な活性化関数はどれですか? シグモイド関数 ソフトマックス関数 ReLU(Rectified Linear Unit) タンジェントハイパボリック関数 None 28. モデルの「汎化性能」を向上させるために適切な手法はどれですか? 学習データを増やさない モデルの複雑さを高める 交差検証や正則化を使用する 過学習を促進する None 29. AIの運用において「データドリフト」とは何ですか? モデルの出力結果が安定しなくなる現象 モデルがデータをランダムに分類する現象 モデルの学習データが変更される現象 モデルが新しいデータに対して予測精度を失う現象 None 30. AI開発のプロセスにおいて、データの「前処理」が重要な理由は何ですか? モデルの予測精度に影響を与えないため モデルが学習に使うデータを整理し、欠損値やノイズを除去するため モデルのサイズを削減するため モデルの学習時間を短縮するため None Time's up