AI実装検定B級~模擬試験②~ 2024年12月8日 ailearn 1. テキストの前処理で「ストップワード」とは何を指しますか? 意味が強調される単語 検索エンジンにおける重要なキーワード 頻繁に使われるが、意味的に重要ではない単語 文書の分類基準となる単語 None 2. ニューラルネットワークにおいて、勾配降下法の目的は何ですか? モデルの複雑性を増やす 誤差関数を最小化する 重みの初期値を決定する データを前処理する None 3. AI開発における「ハイパーパラメータチューニング」の方法の一つである「グリッドサーチ」の特徴はどれですか? 事前に定義した全てのハイパーパラメータの組み合わせを網羅的に試す ランダムにハイパーパラメータを調整する モデルの複雑性を減らすために使用される データの欠損値を補完するために使用される None 4. 「L2正則化」は、モデルのどのような問題に対処するために使用されますか? 勾配消失問題 モデルの複雑性を抑え、過学習を防ぐ データの前処理を効率化する データの欠損値を補完する None 5. 「物理シンボルシステム仮説」がAI研究に与えた影響として最も正しいものはどれですか? エキスパートシステムの普及を促進した AIの思考プロセスをシンボル操作として表現できるようになった 人間の脳の構造を模倣したシステムを開発する基盤となった 強化学習の基礎を確立した None 6. 「アンサンブル学習」の目的は何ですか? 単一モデルよりも複雑なモデルを作るため モデルのパラメータを減らすため 複数の異なるモデルを組み合わせることで、予測精度を向上させるため モデルの学習速度を速めるため None 7. 読み書き表現において、AIがテキストデータを処理する際に、まず行われる処理はどれですか? クラスタリング トークン化 特徴量抽出 正規化 None 8. 1980年代の「AIの冬」を引き起こした主な要因として最も正しいものはどれですか? ディープラーニングの発展 エキスパートシステムの限界 ハードウェア技術の進歩 AIに対する規制強化 None 9. BERTとTransformerの関係性について正しい説明はどれですか? BERTはTransformerを利用したモデルである TransformerはBERTの改良版である BERTとTransformerは全く異なる技術である BERTはTransformerを不要とする新しいアーキテクチャである None 10. 自然言語処理において、形態素解析の目的は何ですか? テキストの文脈を理解する 単語の品詞や形を特定する 文書全体の構造を解析する 文書を分類する None 11. ニューラルネットワークにおいて「勾配消失問題」を解決するために有効な手法はどれですか? ReLU活性化関数の使用 勾配降下法を使用する 交差エントロピー誤差を使用する ドロップアウトを適用する None 12. トランスフォーマーモデルがテキスト分類や翻訳において効果的である理由は何ですか? 短期的な依存関係を無視するため 単語の順序を無視して全ての単語を均等に処理するため 訓練データを使用せずに学習できるため 文脈全体を同時に処理し、単語間の関係を考慮できるため None 13. ニューラルネットワークの学習において、「早期終了(Early Stopping)」の目的は何ですか? モデルの訓練を高速化する モデルが過学習する前に学習を停止する 学習率を自動調整する 訓練データのサイズを減らす None 14. モデルの「ドロップアウト(Dropout)」の主な目的は何ですか? 訓練データの一部を無視して学習を進めることで、過学習を防ぐ モデルの出力を正規化するため 学習率を自動的に調整するため データを削除してモデルを簡略化するため None 15. モデルの評価指標の一つである「AUC(Area Under Curve)」は、何を評価するために使用されますか? モデルの学習速度 精度と再現率のバランス ROC曲線の下の面積を評価し、モデルの分類性能を測る 訓練データのサイズ None 16. 自然言語処理において、形態素解析が難しいとされる言語はどれですか? 英語 フランス語 ドイツ語 日本語 None 17. AI開発において、データの「標準化」とは何を指しますか? データを0から1の範囲に変換する データを特定のスケールに揃えることで、特徴量のスケールを統一する データの欠損値を補完する データを全て削除する None 18. AIモデルの「デプロイ」とは何ですか? モデルを本番環境に展開し、実際に使用可能な状態にすること モデルの学習データを収集すること モデルのハイパーパラメータを最適化すること モデルの評価指標を設定すること None 19. 機械学習における「過学習」とは何ですか? モデルが訓練データに対して過剰に適応し、汎化性能が低下する状態 モデルが訓練データにうまく適合できない状態 モデルが訓練データを誤って分類する状態 モデルが全てのデータをランダムに分類する状態 None 20. 自然言語処理において、ニューラルネットワークを使ってテキストを分類するために広く使用されるモデルはどれですか? CNN(畳み込みニューラルネットワーク) RNN(再帰型ニューラルネットワーク) LSTM(長短期記憶) GAN(生成的敵対ネットワーク) None 21. 1960年代にAI研究の発展を支えた「物理シンボルシステム仮説」を提唱したのは誰ですか? ハーバート・サイモンとアレン・ニューウェル アラン・チューリングとジョン・マッカーシー フランク・ローゼンブラットとマービン・ミンスキー ジェフリー・ヒントンとヨシュア・ベンジオ None 22. モデルのハイパーパラメータを最適化するための手法の一つとして、「グリッドサーチ」の特徴は何ですか? 全てのハイパーパラメータの組み合わせを試して最適なものを見つける 一部のハイパーパラメータだけをランダムに試す ハイパーパラメータを自動的に調整する 訓練データを自動で増やす None 23. AI開発において「モデルの再訓練」が必要になる理由として適切でないものはどれですか? データドリフトが発生したため 本番環境でモデルの精度が低下したため 新しいデータが追加されたため モデルのハイパーパラメータが最適化されたため None 24. 2010年代に入り、AI研究が再び活発化した理由として正しいものはどれですか? ディープラーニング技術の進展 エキスパートシステムの復活 量子コンピュータの普及 新しいプログラミング言語の開発 None 25. データの前処理で「次元削減」を行う主な理由は何ですか? データの精度を上げるため 訓練データを削除するため モデルの過学習を防ぐため データの特徴量を減らし、処理を効率化するため None 26. 自然言語処理(NLP)において、最も一般的に使用される「ベクトル表現」はどれですか? ワードクラウド TF-IDF ワード2ベック(Word2Vec) 形態素解析 None 27. NLPモデルにおいて「アテンション機構」の役割は何ですか? モデルの計算負荷を軽減するため 特定の単語に対してより重要な重みを与えるため データの前処理を高速化するため 単語の順番を無視して解析するため None 28. 「ドロップアウト」はニューラルネットワークにおいてどのような目的で使用されますか? 訓練中に一部のニューロンをランダムに無効化することで、過学習を防ぐ モデルの学習速度を向上させるために使用される モデルのハイパーパラメータを調整するために使用される モデルの予測結果を正規化するために使用される None 29. AIモデルの開発において「MLOps」が担う役割は何ですか? モデルのデータ収集を自動化する 機械学習の開発と運用を統合し、自動化するプロセスを提供する モデルの複雑性を減らす モデルの出力を最適化する None 30. モデルの「再現率(Recall)」が高いことの意味は何ですか? モデルが正しく分類できるデータの割合が高い モデルが実際に正解であるデータを正しく分類できる割合が高い モデルの全体的な精度が高い モデルの学習速度が速い None Time's up