AI実装検定A級~模擬試験①~ 2024年12月8日 ailearn 1. Pandasでデータを読み込むために使用される関数のうち、CSVファイルを読み込むための関数はどれですか? pd.read_excel() pd.read_json() pd.read_csv() pd.read_sql() None 2. ニューラルネットワークの入力層において、欠損データが多い場合に行うべき対策として最も適切なものは次のうちどれですか? 欠損データをそのまま入力する 欠損データを補完するか削除する前処理を行う 欠損データを0に置き換える 欠損データを無視して学習を進める None 3. Pandasにおいて、Datetimeデータを処理するために最も適切なデータ型はどれですか? np.datetime64 pd.DatetimeIndex pd.Timestamp pd.Period None 4. Pandasにおいて、指定した列をインデックスに設定するために使用される関数はどれですか? df.set_index() df.loc[] df.reindex() df.assign() None 5. PandasのDataFrameにおいて、列のデータ型を確認するために使用される属性はどれですか? df.dtype df.shape df.columns df.dtypes None 6. Pandasにおいて、Datetime列の月ごとの集計を行うために最も適切な関数はどれですか? df.resample('M').sum() df.groupby('月').sum() df.todatetime() df.month().sum() None 7. Pandasにおいて、行ラベルに基づいてデータを選択するためのメソッドはどれですか? df.loc[] df.iloc[] df.at[] df.ix[] None 8. DataFrameの列に対して関数を適用し、新しい列を追加するための標準的な方法はどれですか? df.assign('新しい列名', 関数) df.apply('新しい列名', 関数) df['新しい列名'] = df.apply(関数, axis=1) df.transform('新しい列名', 関数) None 9. 順伝播において、モデルの出力が連続値である場合、一般的に使用される活性化関数は次のうちどれですか? ReLU ソフトマックス シグモイド 線形活性化関数 None 10. 入力層で画像のピクセル値を「0〜1」に正規化する主な理由は何ですか? モデルのパラメータ数を増加させるため 勾配消失を防ぐため 学習を安定させ、収束を速めるため 特徴量を圧縮するため None 11. ニューラルネットワークにおいて、出力層の活性化関数として「ReLU」を選択するのはどのような場合ですか? 画像認識タスク バイナリ分類タスク 出力が非負の回帰タスク マルチクラス分類タスク None 12. 順伝播において、出力層で「ソフトマックス関数」を使用するのはどのような目的ですか? モデルの出力を連続値に変換するため 出力を確率分布として解釈するため 勾配の計算をスムーズにするため 出力の次元を減らすため None 13. 出力層において「回帰タスク」での予測誤差を最小化するために使用される損失関数として適切なのは次のうちどれですか? クロスエントロピー損失 ハブ損失(Huber Loss) 平均二乗誤差(MSE) 対数損失 None 14. Pandasにおいて、条件に基づいてデータをフィルタリングする方法はどれですか? df.query() df.sort() df.filter() df.loc[] None 15. 順伝播において、活性化関数を「シグモイド関数」から「ReLU関数」に変更した場合、何が期待されますか? 勾配消失が発生しやすくなる モデルがより非線形なパターンを学習できるようになる モデルの学習速度が向上する可能性がある 出力が負の値になることが多くなる None 16. Numpyにおいて、配列 a = np.array([[1, 2], [3, 4], [5, 6]]) の2番目の行を選択するスライス指定はどれですか? a[1, :] a[:, 1] a[1] a[1:2, :] None 17. Numpyにおいて、全ての要素がゼロである配列を作成するための関数はどれですか? np.ones() np.zeros() np.empty() np.fill() None 18. ニューラルネットワークにおける順伝播の基本的な流れはどれですか? 入力層→出力層→中間層 入力層→中間層→出力層 出力層→入力層→中間層 中間層→入力層→出力層 None 19. 順伝播における「全結合層(Fully Connected Layer)」の主な役割は何ですか? データの次元を縮小する 特徴を圧縮して次の層に伝える 勾配を計算して更新する 全ての入力に対して線形結合を行い、出力を計算する None 20. 画像認識タスクにおける入力層の一般的なデータ形式は何ですか? 3次元テンソル 1次元ベクトル 2次元画像 スカラー値 None 21. ニューラルネットワークの入力層において、異なる次元の特徴量が混在している場合の対処法として適切なのはどれですか? 全ての特徴量を削除する 特徴量ごとに適切なスケーリングを行う 特徴量をそのまま入力する 高次元の特徴量を削減する None 22. ニューラルネットワークで「重み共有」が使用される主な理由は何ですか? モデルの学習率を向上させるため モデルのパラメータ数を削減し、効率的な計算を可能にするため 活性化関数の効果を強化するため 勾配消失を防ぐため None 23. Numpy配列 a = np.array([[1, 2], [3, 4]]) に対して a.T を実行した結果はどれですか? [[1, 2], [3, 4]] [[2, 1], [4, 3]] エラーが発生する [[1, 3], [2, 4]] None 24. 重みの初期化手法として「Xavier初期化」が適しているのはどのような場合ですか? 活性化関数としてReLUを使用する場合 勾配爆発を防ぐために、重みを大きく初期化する必要がある場合 活性化関数としてシグモイドやtanhを使用する場合 モデルの深さが非常に浅い場合 None 25. Pandasにおいて、複数のDataFrameを行方向に結合するために使用される関数はどれですか? pd.concat() pd.merge() pd.join() pd.append() None 26. 順伝播における「スカラー乗算」とは何を指しますか? ノード間の重みを各入力に掛け合わせる操作 出力を正規化する操作 活性化関数を適用する操作 入力データの次元を縮小する操作 None 27. 重みの初期化において、深層ニューラルネットワークで「He初期化」が推奨されるのは次のうちどのような場合ですか? シグモイド活性化関数を使用する場合 ReLU活性化関数を使用する場合 活性化関数を使用しない場合 勾配爆発を促進する必要がある場合 None 28. ニューラルネットワークの入力層にデータを正規化して入力する理由は何ですか? モデルの複雑さを減らすため 計算の安定性と学習速度を向上させるため モデルのパラメータ数を増やすため 隠れ層のユニット数を減らすため None 29. 分類タスクにおいて、出力層で使用される一般的な活性化関数は次のうちどれですか? シグモイド ReLU ソフトマックス 線形活性化関数 None 30. ニューラルネットワークの入力層で「欠損データ」をそのまま使用すると、どのような問題が発生しますか? モデルが過学習しやすくなる 勾配消失が発生する 計算が不安定になり、予測精度が低下する モデルのパラメータ数が増加する None 31. Numpy配列の要素ごとの掛け算に使用される演算子はどれですか? @ * & % None 32. 順伝播において、正規化手法が使用される主な理由は次のうちどれですか? 学習率の設定を不要にするため モデルの出力を0〜1に制限するため 勾配消失や勾配爆発を防ぎ、学習を安定させるため 隠れ層のニューロン数を増やすため None 33. ニューラルネットワークで重みの「早期停止(Early Stopping)」が有効な理由は何ですか? 過学習を防ぐため モデルのパラメータ数を削減するため 勾配消失を防ぐため モデルの重みを一時的に凍結するため None 34. PandasでDataFrameを作成するために使用される関数はどれですか? pd.Series() pd.DataFrame() pd.array() pd.matrix() None 35. 順伝播において、出力層での計算結果は何を表していますか? 各層でのエラーメッセージ モデルが学習した重み モデルの最終的な予測値 入力データの正規化 None 36. 「勾配クリッピング(Gradient Clipping)」が必要になる理由は何ですか? 勾配消失を防ぐため モデルの計算コストを削減するため 勾配爆発を防ぐため 活性化関数の効果を高めるため None 37. 重みの更新に使用される最も一般的な手法は何ですか? モーメンタム法 勾配降下法 アダム(Adam) SGD(確率的勾配降下法) None 38. ニューラルネットワークの重みが「ランダム初期化」される理由の一つに、次の現象の防止があります。それは何ですか? 勾配消失 モデルの学習が停滞する ニューロンが同じ勾配を持つことによる「対称性の破れ」の欠如 活性化関数の不安定化 None 39. PandasのDataFrameにおいて、行数と列数を確認するための属性はどれですか? df.size df.shape df.count() df.columns None 40. 次のうち、回帰問題で一般的に使用される出力層の活性化関数はどれですか? ReLU ソフトマックス シグモイド 線形活性化関数 None 41. Numpy配列の形状を変形するために使用される関数はどれですか? np.reshape() np.resize() np.reform() np.shape() None 42. ニューラルネットワークの重み更新において、「学習率減衰(Learning Rate Decay)」が効果的である理由は何ですか? 過学習を防ぎ、学習の安定性を向上させるため モデルの収束を速めるため 出力層の精度を向上させるため 勾配消失を防ぐため None 43. Numpy配列における行列積を計算するための関数はどれですか? np.matmul() np.dot() np.product() np.cross() None 44. ニューラルネットワークにおいて、過学習を防ぐための正則化手法として、次のうちどれが重みの制御に関与しますか? ドロップアウト(Dropout) バッチ正規化(Batch Normalization) 重み減衰(Weight Decay) 勾配クリッピング(Gradient Clipping) None 45. 順伝播において、畳み込み層で使用される「フィルタ(カーネル)」はどのような役割を果たしますか? ノード間の結合強度を決定する データの次元を縮小する 入力画像から特徴を抽出する 出力をスケーリングする None 46. Numpyにおいて、np.arange(1, 10, 2) の出力はどれですか? [1, 2, 3, 4, 5, 6, 7, 8, 9] [1, 3, 5, 7, 9] [1, 2, 4, 6, 8] [1, 3, 6, 9] None 47. PandasのDataFrameにおいて、特定の列を選択するための標準的な方法はどれですか? df.select() df['列名'] df.pick() df.loc() None 48. 重み共有を行わない場合、畳み込みニューラルネットワーク(CNN)における主な問題は何ですか? 勾配消失が発生する 特徴量が効果的に抽出されなくなる 出力層のユニット数が増加する モデルの計算コストが大幅に増加する None 49. 勾配降下法を用いて重みを更新する際の「学習率」の役割は何ですか? 重みの更新量を調整する モデルの出力を決定する 各層のニューロンの数を決定する 活性化関数を選択する None 50. Numpyにおけるブロードキャストの仕組みを考慮すると、a = np.array([1, 2, 3]) と b = np.array([[1], [2], [3]]) のアダマール積 a * b の結果はどれですか? [[1, 2, 3], [2, 4, 6], [3, 6, 9]] [[1, 2, 3], [4, 5, 6], [7, 8, 9]] [1, 4, 9] エラーが発生する None 51. Pandasにおいて、欠損値(NaN)を削除するために使用される関数はどれですか? df.fillna() df.replace() df.remove() df.dropna() None 52. 画像認識タスクで、入力層のデータ形式として4次元テンソル(バッチサイズ×高さ×幅×チャネル数)を使用する理由は何ですか? モデルの計算精度を向上させるため 複数の画像データを一度に処理し、バッチ学習を行うため 特徴量を圧縮するため 勾配消失を防ぐため None 53. DataFrameの行または列を再配置するための関数はどれですか? df.sort_index() df.reindex() df.drop() df.shift() None 54. Pandasにおいて、列の要素を集計する際に使用される標準的な関数はどれですか? df.apply() df.sum() df.concat() df.mean() None 55. Numpy配列 a = np.array([2, 4, 6, 8]) に対して、np.cumsum(a) を実行した場合、出力はどれですか? [2, 4, 6, 8] [2, 6, 12, 20] [2, 6, 12, 18] [2, 8, 18, 32] None 56. PandasのDataFrameにおいて、pivot_table()関数を使用する場合、最も一般的に指定される引数の組み合わせはどれですか? rows, values, columns index, rows, values values, axis, index values, index, columns None 57. 順伝播の計算で使用される活性化関数「ReLU」の利点は次のうちどれですか? 勾配消失を防ぐことができる 出力を0〜1の範囲に制限できる 非線形だが計算コストが高い 常に正の出力を保証する None 58. Numpy配列 a = np.array([[1, 2], [3, 4]]) に対して np.dot(a, a) を実行した結果はどれですか? [[7, 10], [15, 22]] [[1, 2], [3, 4]] [[1, 4], [9, 16]] エラーが発生する None 59. 順伝播の計算で「重み」と「バイアス」の役割は次のうちどれですか? 入力データを増幅する 入力データの次元を減らす 出力を制限する ノード間の結合の強度を調整し、入力にオフセットを加える None 60. ニューラルネットワークにおいて「重み減衰(Weight Decay)」が導入される理由は何ですか? 学習率を動的に調整するため 過学習を防ぐために、重みの大きさにペナルティをかけるため 計算速度を向上させるため モデルの精度を上げるために、重みを一時的に凍結するため None Time's up