AI実装検定B級~模擬試験②~ 2024年12月8日 ailearn 1. データ整理において「正規化」を行う主な理由は何ですか? データの特徴を増やすため データのスケールを揃え、学習を安定させるため データの次元を減らすため モデルの訓練時間を増やすため None 2. モデルの学習でよく使われる「誤差関数(損失関数)」の一つである「平均二乗誤差(MSE)」は、どのように計算されますか? 予測値と実測値の差を全て足し合わせる 予測値と実測値の比率を計算する 予測値と実測値の差を二乗し、その平均を取る 予測値と実測値の差の絶対値を計算する None 3. モデルの評価指標の一つである「AUC(Area Under Curve)」は、何を評価するために使用されますか? モデルの学習速度 精度と再現率のバランス ROC曲線の下の面積を評価し、モデルの分類性能を測る 訓練データのサイズ None 4. AI開発における「ハイパーパラメータチューニング」の方法の一つである「グリッドサーチ」の特徴はどれですか? 事前に定義した全てのハイパーパラメータの組み合わせを網羅的に試す ランダムにハイパーパラメータを調整する モデルの複雑性を減らすために使用される データの欠損値を補完するために使用される None 5. 自然言語処理において、形態素解析の目的は何ですか? テキストの文脈を理解する 単語の品詞や形を特定する 文書全体の構造を解析する 文書を分類する None 6. モデルのハイパーパラメータを最適化するための手法の一つとして、「グリッドサーチ」の特徴は何ですか? 全てのハイパーパラメータの組み合わせを試して最適なものを見つける 一部のハイパーパラメータだけをランダムに試す ハイパーパラメータを自動的に調整する 訓練データを自動で増やす None 7. モデルの精度評価に用いられる「F1スコア」とは何ですか? モデルの精度を示す基本的な指標 精度と再現率の調和平均を示す指標 訓練データのサイズを示す指標 モデルの学習速度を示す指標 None 8. ニューラルネットワークにおいて、勾配降下法の目的は何ですか? モデルの複雑性を増やす 誤差関数を最小化する 重みの初期値を決定する データを前処理する None 9. 自然言語処理において、ニューラルネットワークを使ってテキストを分類するために広く使用されるモデルはどれですか? CNN(畳み込みニューラルネットワーク) RNN(再帰型ニューラルネットワーク) LSTM(長短期記憶) GAN(生成的敵対ネットワーク) None 10. データの標準化と正規化の違いとして正しいものはどれですか? 標準化はデータの平均を0、分散を1に揃え、正規化は0から1の範囲にスケールする 標準化はデータの範囲を揃え、正規化はデータの平均を揃える 標準化は欠損データを処理し、正規化はデータのラベルを処理する 標準化は異常値を削除し、正規化は外れ値を削除する None 11. 自然言語処理(NLP)において、最も一般的に使用される「ベクトル表現」はどれですか? ワードクラウド TF-IDF ワード2ベック(Word2Vec) 形態素解析 None 12. ニューラルネットワークにおいて、重みの初期化方法が重要な理由は何ですか? 重みの初期化はモデルのサイズに直接影響を与えるため 適切な初期化が行われないと、勾配消失や発散が起こるため 重みの初期化によってモデルの複雑性が変わるため 初期化によって、訓練データの次元が変わるため None 13. 1990年代に発展した「強化学習」の基本的なアイデアはどれですか? 過去のデータから正しい答えを学習する 複数のAIモデルを統合して最適解を導く 自然言語を使ってAIが自己学習する 環境からのフィードバックに基づいて行動を学習する None 14. モデルの評価において「クロスバリデーション」が用いられる主な目的は何ですか? モデルの過学習を防ぎ、汎化性能を評価するため 訓練時間を短縮するため モデルの複雑さを増やすため データを削減するため None 15. BERTとTransformerの関係性について正しい説明はどれですか? BERTはTransformerを利用したモデルである TransformerはBERTの改良版である BERTとTransformerは全く異なる技術である BERTはTransformerを不要とする新しいアーキテクチャである None 16. NLPモデルにおいて「アテンション機構」の役割は何ですか? モデルの計算負荷を軽減するため 特定の単語に対してより重要な重みを与えるため データの前処理を高速化するため 単語の順番を無視して解析するため None 17. LSTM(長短期記憶)モデルの最大の利点は何ですか? 長期的な文脈情報を保持できる 訓練データを少なくする 短期的な依存関係に強い 訓練が非常に早い None 18. AIモデルのデプロイ後に、モデルの性能が急激に低下する「データドリフト」が発生した場合の一般的な対応として正しいものはどれですか? モデルを完全に削除し、再開発する モデルをそのまま運用し続ける モデルを再訓練するか、新しいデータで再度学習を行う モデルのハイパーパラメータを調整するだけで十分 None 19. 「L2正則化」は、モデルのどのような問題に対処するために使用されますか? 勾配消失問題 モデルの複雑性を抑え、過学習を防ぐ データの前処理を効率化する データの欠損値を補完する None 20. AI開発のプロセスにおいて、データの「前処理」が重要な理由は何ですか? モデルの予測精度に影響を与えないため モデルが学習に使うデータを整理し、欠損値やノイズを除去するため モデルのサイズを削減するため モデルの学習時間を短縮するため None 21. ジェフリー・ヒントンらが提唱した「バックプロパゲーション法」がAIの学習において画期的だった理由はどれですか? 非線形問題を解決できるようにした エキスパートシステムの改良に貢献した コンピュータの処理能力を劇的に向上させた 人間の知識をデータベースに取り込む方法を確立した None 22. ニューラルネットワークの学習において、「早期終了(Early Stopping)」の目的は何ですか? モデルの訓練を高速化する モデルが過学習する前に学習を停止する 学習率を自動調整する 訓練データのサイズを減らす None 23. AI開発において「モデルの再訓練」が必要になる理由として適切でないものはどれですか? データドリフトが発生したため 本番環境でモデルの精度が低下したため 新しいデータが追加されたため モデルのハイパーパラメータが最適化されたため None 24. テキストデータを用いた自然言語処理において、「BERT」の特徴として正しいものはどれですか? トークン化を行わない 文脈を理解せずに処理する 双方向的に文脈を学習する 単語の出現回数に基づいてベクトル化する None 25. AI開発において、データの「標準化」とは何を指しますか? データを0から1の範囲に変換する データを特定のスケールに揃えることで、特徴量のスケールを統一する データの欠損値を補完する データを全て削除する None 26. ニューラルネットワークにおいて「勾配消失問題」を解決するために有効な活性化関数はどれですか? シグモイド関数 ソフトマックス関数 ReLU(Rectified Linear Unit) タンジェントハイパボリック関数 None 27. 「ハイパーパラメータ」とは何ですか? モデルが自動で調整するパラメータ 学習の前に設定されるモデルのパラメータ 学習データに基づいて計算されるパラメータ モデルの出力結果を評価するための指標 None 28. モデルの「再現率(Recall)」が高いことの意味は何ですか? モデルが正しく分類できるデータの割合が高い モデルが実際に正解であるデータを正しく分類できる割合が高い モデルの全体的な精度が高い モデルの学習速度が速い None 29. 「ドロップアウト」はニューラルネットワークにおいてどのような目的で使用されますか? 訓練中に一部のニューロンをランダムに無効化することで、過学習を防ぐ モデルの学習速度を向上させるために使用される モデルのハイパーパラメータを調整するために使用される モデルの予測結果を正規化するために使用される None 30. 1950年代のAI研究において、ニューラルネットワークの基礎となった「パーセプトロン」を開発した人物は誰ですか? フランク・ローゼンブラット アラン・チューリング ジョン・マッカーシー ジェフリー・ヒントン None Time's up