AI実装検定B級~模擬試験②~ 2024年12月8日 ailearn 1. LSTM(長短期記憶)モデルの最大の利点は何ですか? 長期的な文脈情報を保持できる 訓練データを少なくする 短期的な依存関係に強い 訓練が非常に早い None 2. 自然言語処理において、形態素解析の目的は何ですか? テキストの文脈を理解する 単語の品詞や形を特定する 文書全体の構造を解析する 文書を分類する None 3. ニューラルネットワークにおいて「勾配消失問題」を解決するために有効な活性化関数はどれですか? シグモイド関数 ソフトマックス関数 ReLU(Rectified Linear Unit) タンジェントハイパボリック関数 None 4. モデルの「再現率(Recall)」が高いことの意味は何ですか? モデルが正しく分類できるデータの割合が高い モデルが実際に正解であるデータを正しく分類できる割合が高い モデルの全体的な精度が高い モデルの学習速度が速い None 5. モデルの評価指標の一つである「精度(Accuracy)」は、次のどのように計算されますか? 全てのデータに対する正解率 誤分類の割合 予測結果の分散 訓練データの大きさ None 6. モデルの精度評価に用いられる「F1スコア」とは何ですか? モデルの精度を示す基本的な指標 精度と再現率の調和平均を示す指標 訓練データのサイズを示す指標 モデルの学習速度を示す指標 None 7. AIモデルの開発において「MLOps」が担う役割は何ですか? モデルのデータ収集を自動化する 機械学習の開発と運用を統合し、自動化するプロセスを提供する モデルの複雑性を減らす モデルの出力を最適化する None 8. GPTモデルのような自己回帰型モデルとBERTのような双方向モデルの違いは何ですか? GPTは文脈を無視してテキストを生成するが、BERTは文脈を利用する GPTは双方向に文脈を処理し、BERTは単方向に処理する GPTは過去の単語を利用して次の単語を予測し、BERTは全体の文脈を同時に理解する GPTは単語ベクトルに依存せず、BERTはベクトル化しない None 9. トランスフォーマーモデルが従来のRNNに対して持つ優位性として正しいものはどれですか? 並列処理が可能で、計算効率が高い 長期的な依存関係を処理できない 単語間の順序を無視できる 計算コストが低い None 10. NLPモデルにおいて「アテンション機構」の役割は何ですか? モデルの計算負荷を軽減するため 特定の単語に対してより重要な重みを与えるため データの前処理を高速化するため 単語の順番を無視して解析するため None 11. モデルの「ドロップアウト(Dropout)」の主な目的は何ですか? 訓練データの一部を無視して学習を進めることで、過学習を防ぐ モデルの出力を正規化するため 学習率を自動的に調整するため データを削除してモデルを簡略化するため None 12. 2010年代に入り、AI研究が再び活発化した理由として正しいものはどれですか? ディープラーニング技術の進展 エキスパートシステムの復活 量子コンピュータの普及 新しいプログラミング言語の開発 None 13. AI開発において「モデルの再訓練」が必要になる理由として適切でないものはどれですか? データドリフトが発生したため 本番環境でモデルの精度が低下したため 新しいデータが追加されたため モデルのハイパーパラメータが最適化されたため None 14. ニューラルネットワークにおいて、重みの初期化方法が重要な理由は何ですか? 重みの初期化はモデルのサイズに直接影響を与えるため 適切な初期化が行われないと、勾配消失や発散が起こるため 重みの初期化によってモデルの複雑性が変わるため 初期化によって、訓練データの次元が変わるため None 15. AIの運用において「データドリフト」とは何ですか? モデルの出力結果が安定しなくなる現象 モデルがデータをランダムに分類する現象 モデルの学習データが変更される現象 モデルが新しいデータに対して予測精度を失う現象 None 16. 1980年代の「AIの冬」を引き起こした主な要因として最も正しいものはどれですか? ディープラーニングの発展 エキスパートシステムの限界 ハードウェア技術の進歩 AIに対する規制強化 None 17. 「TF-IDF」はどのような目的で使用されますか? 単語間の関連性を計算するため 単語の頻度と重要性を評価するため 文書を分類するため 文書間の類似度を測定するため None 18. AI開発において、データの「標準化」とは何を指しますか? データを0から1の範囲に変換する データを特定のスケールに揃えることで、特徴量のスケールを統一する データの欠損値を補完する データを全て削除する None 19. データの前処理で「次元削減」を行う主な理由は何ですか? データの精度を上げるため 訓練データを削除するため モデルの過学習を防ぐため データの特徴量を減らし、処理を効率化するため None 20. AIモデルの「デプロイ」とは何ですか? モデルを本番環境に展開し、実際に使用可能な状態にすること モデルの学習データを収集すること モデルのハイパーパラメータを最適化すること モデルの評価指標を設定すること None 21. AIモデルの計算において、行列の掛け算が頻繁に使用される理由として正しいものはどれですか? モデルのサイズを減らすため データの精度を上げるため 大量のデータを効率的に処理できるため モデルの複雑性を低下させるため None 22. 「アンサンブル学習」の利点は何ですか? 単一のモデルよりも計算コストを削減できる モデルのパラメータ調整が不要である 訓練データを減らして学習できる 複数の異なるモデルを組み合わせることで、予測精度を向上させる None 23. AI開発における「ハイパーパラメータチューニング」の方法の一つである「グリッドサーチ」の特徴はどれですか? 事前に定義した全てのハイパーパラメータの組み合わせを網羅的に試す ランダムにハイパーパラメータを調整する モデルの複雑性を減らすために使用される データの欠損値を補完するために使用される None 24. 「物理シンボルシステム仮説」がAI研究に与えた影響として最も正しいものはどれですか? エキスパートシステムの普及を促進した AIの思考プロセスをシンボル操作として表現できるようになった 人間の脳の構造を模倣したシステムを開発する基盤となった 強化学習の基礎を確立した None 25. ジェフリー・ヒントンらが提唱した「バックプロパゲーション法」がAIの学習において画期的だった理由はどれですか? 非線形問題を解決できるようにした エキスパートシステムの改良に貢献した コンピュータの処理能力を劇的に向上させた 人間の知識をデータベースに取り込む方法を確立した None 26. テキストデータの前処理として正しくないものは次のうちどれですか? ストップワードの除去 トークン化 文書分類 形態素解析 None 27. ニューラルネットワークにおいて「活性化関数」が持つ主な役割は何ですか? データを正規化する モデルの誤差を計算する 各ニューロンの出力を制限し、非線形性を導入する 各層の重みを更新する None 28. 1990年代に発展した「強化学習」の基本的なアイデアはどれですか? 過去のデータから正しい答えを学習する 複数のAIモデルを統合して最適解を導く 自然言語を使ってAIが自己学習する 環境からのフィードバックに基づいて行動を学習する None 29. テキストの前処理で「ストップワード」とは何を指しますか? 意味が強調される単語 検索エンジンにおける重要なキーワード 頻繁に使われるが、意味的に重要ではない単語 文書の分類基準となる単語 None 30. BERTとTransformerの関係性について正しい説明はどれですか? BERTはTransformerを利用したモデルである TransformerはBERTの改良版である BERTとTransformerは全く異なる技術である BERTはTransformerを不要とする新しいアーキテクチャである None Time's up