AI実装検定A級~模擬試験①~ 2024年12月8日 ailearn 1. 順伝播において、出力層で「ソフトマックス関数」を使用するのはどのような目的ですか? モデルの出力を連続値に変換するため 出力を確率分布として解釈するため 勾配の計算をスムーズにするため 出力の次元を減らすため None 2. 順伝播の計算において、各層の出力を計算する際に必要となる要素は次のうちどれですか? 入力データ、重み、バイアス、活性化関数 出力データ、学習率、活性化関数 勾配、学習率、重み バッチサイズ、重み、バイアス None 3. 順伝播における「全結合層(Fully Connected Layer)」の主な役割は何ですか? データの次元を縮小する 特徴を圧縮して次の層に伝える 勾配を計算して更新する 全ての入力に対して線形結合を行い、出力を計算する None 4. 重み共有を行わない場合、畳み込みニューラルネットワーク(CNN)における主な問題は何ですか? 勾配消失が発生する 特徴量が効果的に抽出されなくなる 出力層のユニット数が増加する モデルの計算コストが大幅に増加する None 5. DataFrameの行または列を再配置するための関数はどれですか? df.sort_index() df.reindex() df.drop() df.shift() None 6. ニューラルネットワークの重み更新において、「学習率減衰(Learning Rate Decay)」が効果的である理由は何ですか? 過学習を防ぎ、学習の安定性を向上させるため モデルの収束を速めるため 出力層の精度を向上させるため 勾配消失を防ぐため None 7. Pandasにおいて、行ラベルに基づいてデータを選択するためのメソッドはどれですか? df.loc[] df.iloc[] df.at[] df.ix[] None 8. Numpy配列における行列積を計算するための関数はどれですか? np.matmul() np.dot() np.product() np.cross() None 9. Numpyにおいて、全ての要素がゼロである配列を作成するための関数はどれですか? np.ones() np.zeros() np.empty() np.fill() None 10. 出力層で多クラス分類問題にソフトマックス関数を適用する際、出力が適切な確率分布となるための前提条件は次のうちどれですか? 出力層のユニット数が入力層と同じである 隠れ層の数が十分に多い 出力層のユニット数が1である 出力層のユニット数が分類するクラス数と等しい None 11. Pandasのgroupby()メソッドを使って、DataFrameをグループ化した後に合計を計算する標準的な方法はどれですか? df.groupby('列名').mean() df.groupby('列名').count() df.groupby('列名').sum() df.groupby('列名').apply() None 12. ニューラルネットワークにおいて、出力層の活性化関数として「ReLU」を選択するのはどのような場合ですか? 画像認識タスク バイナリ分類タスク 出力が非負の回帰タスク マルチクラス分類タスク None 13. Numpyにおいて、配列 a = np.array([[1, 2], [3, 4], [5, 6]]) の2番目の行を選択するスライス指定はどれですか? a[1, :] a[:, 1] a[1] a[1:2, :] None 14. 次のうち、回帰問題で一般的に使用される出力層の活性化関数はどれですか? ReLU ソフトマックス シグモイド 線形活性化関数 None 15. Numpy配列 a = np.array([2, 4, 6, 8]) に対して、np.cumsum(a) を実行した場合、出力はどれですか? [2, 4, 6, 8] [2, 6, 12, 20] [2, 6, 12, 18] [2, 8, 18, 32] None 16. 順伝播の計算で「フィードフォワードネットワーク」が使われる理由は何ですか? 循環する構造がないため、安定した学習が行えるから モデルの計算量が少なく、リアルタイム処理に適しているから リカレントニューラルネットワーク(RNN)の一部であるため 重みが固定されているため None 17. 順伝播において、入力データがスパース(多くのゼロを含む)である場合、どのような対策が有効ですか? 重みの初期化をランダムに行う 入力データに対して正規化を行う データを正規分布に従って再生成する スパース性を活かすような活性化関数(ReLUなど)を使用する None 18. PandasのDataFrameにおいて、行数と列数を確認するための属性はどれですか? df.size df.shape df.count() df.columns None 19. Numpyにおいて、np.linalg.inv() 関数を使用する際の条件は何ですか? 行列が対角行列であること 行列の要素が整数であること 行列が正方行列であること 行列が非対称であること None 20. Pandasでデータを読み込むために使用される関数のうち、CSVファイルを読み込むための関数はどれですか? pd.read_excel() pd.read_json() pd.read_csv() pd.read_sql() None 21. ニューラルネットワークにおいて、過学習を防ぐための正則化手法として、次のうちどれが重みの制御に関与しますか? ドロップアウト(Dropout) バッチ正規化(Batch Normalization) 重み減衰(Weight Decay) 勾配クリッピング(Gradient Clipping) None 22. Numpyにおけるブロードキャストの仕組みを考慮すると、a = np.array([1, 2, 3]) と b = np.array([[1], [2], [3]]) のアダマール積 a * b の結果はどれですか? [[1, 2, 3], [2, 4, 6], [3, 6, 9]] [[1, 2, 3], [4, 5, 6], [7, 8, 9]] [1, 4, 9] エラーが発生する None 23. 重みの「ランダム初期化」が重要である理由は次のうちどれですか? 重みが0に設定されると、すべてのニューロンが同じ勾配を持つため モデルのパラメータ数を減らすため 出力層のユニット数を増やすため 勾配爆発を防ぐため None 24. 順伝播における「スカラー乗算」とは何を指しますか? ノード間の重みを各入力に掛け合わせる操作 出力を正規化する操作 活性化関数を適用する操作 入力データの次元を縮小する操作 None 25. Pandasにおいて、Datetimeデータを処理するために最も適切なデータ型はどれですか? np.datetime64 pd.DatetimeIndex pd.Timestamp pd.Period None 26. 出力層で「マルチラベル分類」を行う場合、適切な活性化関数は次のうちどれですか? ソフトマックス ReLU 線形活性化関数 シグモイド None 27. ニューラルネットワークにおける「勾配爆発(Gradient Explosion)」はどのように発生しますか? 重みが非常に大きな値に更新されることにより発生する 活性化関数が不適切に選択されている場合に発生する モデルの学習率が小さすぎる場合に発生する 出力層のユニット数が過剰な場合に発生する None 28. 出力層において「回帰タスク」での予測誤差を最小化するために使用される損失関数として適切なのは次のうちどれですか? クロスエントロピー損失 ハブ損失(Huber Loss) 平均二乗誤差(MSE) 対数損失 None 29. 順伝播の計算で「重み」と「バイアス」の役割は次のうちどれですか? 入力データを増幅する 入力データの次元を減らす 出力を制限する ノード間の結合の強度を調整し、入力にオフセットを加える None 30. Pandasにおいて、Datetime列の月ごとの集計を行うために最も適切な関数はどれですか? df.resample('M').sum() df.groupby('月').sum() df.todatetime() df.month().sum() None 31. Pandasにおいて、列の要素を集計する際に使用される標準的な関数はどれですか? df.apply() df.sum() df.concat() df.mean() None 32. 出力層において「シグモイド関数」を用いると、どのような特性が得られますか? 出力が0〜1の範囲に制限され、バイナリ分類に適する 出力が-1〜1の範囲に制限され、多クラス分類に適する 勾配消失が防げる 出力が常に非負値となる None 33. Numpy配列 a = np.array([1, 2, 3, 4]) において、全ての要素が真(非ゼロ)の場合に真を返す関数はどれですか? np.any() np.nonzero() np.truth() np.all() None 34. Pandasにおいて、条件に基づいてデータをフィルタリングする方法はどれですか? df.query() df.sort() df.filter() df.loc[] None 35. ニューラルネットワークの入力層にデータを正規化して入力する理由は何ですか? モデルの複雑さを減らすため 計算の安定性と学習速度を向上させるため モデルのパラメータ数を増やすため 隠れ層のユニット数を減らすため None 36. ニューラルネットワークの出力層の役割は何ですか? データを内部で処理する データの特徴を学習する モデルの予測結果を外部に出力する 勾配を伝播させる None 37. 重みの初期化において、深層ニューラルネットワークで「He初期化」が推奨されるのは次のうちどのような場合ですか? シグモイド活性化関数を使用する場合 ReLU活性化関数を使用する場合 活性化関数を使用しない場合 勾配爆発を促進する必要がある場合 None 38. 入力層で画像のピクセル値を「0〜1」に正規化する主な理由は何ですか? モデルのパラメータ数を増加させるため 勾配消失を防ぐため 学習を安定させ、収束を速めるため 特徴量を圧縮するため None 39. ニューラルネットワークの入力層で、テキストデータを処理する際に一般的に行われる前処理は次のうちどれですか? 標準化 単語のベクトル化(Embedding) プーリング チャネル数の増加 None 40. PandasのDataFrameにおいて、列のデータ型を確認するために使用される属性はどれですか? df.dtype df.shape df.columns df.dtypes None 41. 順伝播で「バッチ正規化(Batch Normalization)」を使用する主な理由は次のうちどれですか? 重みを初期化するため 各層の出力を一定の範囲に正規化し、学習を安定させるため モデルの計算コストを減らすため 出力の次元を減らすため None 42. 「勾配クリッピング(Gradient Clipping)」が必要になる理由は何ですか? 勾配消失を防ぐため モデルの計算コストを削減するため 勾配爆発を防ぐため 活性化関数の効果を高めるため None 43. Numpyにおいて、配列 a = np.array([1, 2, 3, 4, 5, 6]) を (2, 3) の形状に変換した場合、各要素の順序はどうなりますか? [1, 2, 3, 4, 5, 6] のまま [[1, 2, 3], [4, 5, 6]] [[1, 3, 5], [2, 4, 6]] エラーが発生する None 44. ニューラルネットワークにおける順伝播の基本的な流れはどれですか? 入力層→出力層→中間層 入力層→中間層→出力層 出力層→入力層→中間層 中間層→入力層→出力層 None 45. Numpyにおいて、配列 a = np.array([1, 2, 3, 4]) の要素をシャッフルする関数はどれですか? np.shuffle() np.random.shuffle() np.random.permute() np.random.rand() None 46. Numpy配列 a = np.array([1, 2, 3, 4]) に対して、a + 2 の結果はどれですか? [1, 2, 3, 4, 2] [1, 2, 3, 4] [3, 4, 5, 6] エラーが発生する None 47. ニューラルネットワークの入力層で「欠損データ」をそのまま使用すると、どのような問題が発生しますか? モデルが過学習しやすくなる 勾配消失が発生する 計算が不安定になり、予測精度が低下する モデルのパラメータ数が増加する None 48. 順伝播の過程で、「活性化関数」が使用されないとどうなりますか? モデルの出力が複雑すぎるものになる モデルが線形な変換のみを学習し、表現力が低下する 計算が無限ループに陥る モデルが過学習する None 49. 画像認識タスクで、入力層のデータ形式として4次元テンソル(バッチサイズ×高さ×幅×チャネル数)を使用する理由は何ですか? モデルの計算精度を向上させるため 複数の画像データを一度に処理し、バッチ学習を行うため 特徴量を圧縮するため 勾配消失を防ぐため None 50. ニューラルネットワークの出力層でソフトマックス関数を使用する主な理由は何ですか? 各クラスに属する確率を計算するため 勾配消失を防ぐため 非線形性を導入するため 特徴量を圧縮するため None 51. PandasでNaN値を特定の値で置換するための関数はどれですか? df.fillna() df.dropna() df.replace() df.assign() None 52. ニューラルネットワークの出力層のユニット数は何によって決まりますか? モデルの入力データの次元数 モデルの目的とタスクの種類 活性化関数の種類 隠れ層のユニット数 None 53. ニューラルネットワークにおいて「重み減衰(Weight Decay)」が導入される理由は何ですか? 学習率を動的に調整するため 過学習を防ぐために、重みの大きさにペナルティをかけるため 計算速度を向上させるため モデルの精度を上げるために、重みを一時的に凍結するため None 54. Numpy配列において、次元数を確認するための属性はどれですか? .size .shape .ndim .dtype None 55. 順伝播の計算で使用される活性化関数「ReLU」の利点は次のうちどれですか? 勾配消失を防ぐことができる 出力を0〜1の範囲に制限できる 非線形だが計算コストが高い 常に正の出力を保証する None 56. Numpy配列において、配列の要素を逆順にするために使用するスライスの指定はどれですか? [::-1] [:0] [::2] [0::-1] None 57. PandasのDataFrameにおいて、pivot_table()関数を使用する場合、最も一般的に指定される引数の組み合わせはどれですか? rows, values, columns index, rows, values values, axis, index values, index, columns None 58. 順伝播において、出力層での計算結果は何を表していますか? 各層でのエラーメッセージ モデルが学習した重み モデルの最終的な予測値 入力データの正規化 None 59. 勾配消失問題は、主にどのような状況で発生しますか? 重みが非常に大きな値を取る場合 深層ニューラルネットワークで、勾配が層を通じて次第に小さくなる場合 活性化関数としてReLUが使用されている場合 モデルが過学習している場合 None 60. 「重み減衰(Weight Decay)」の係数を過度に大きく設定すると、どのような影響が予想されますか? モデルの表現力が低下し、十分な学習が行われなくなる モデルが過学習しやすくなる モデルの計算コストが増加する 勾配消失問題が発生する None Time's up