1.
ディープラーニングモデルにおいて「ヒートマップ」が解釈性向上のために使われる場面として適切なのはどれですか?
2.
モデルの解釈性が低いと考えられるディープラーニングモデルに対して、解釈を提供する代表的な技術はどれですか?
3.
モデル解釈性の評価に使われる指標として正しいものはどれですか?
4.
SHAP(Shapley Additive exPlanations)とは何ですか?
5.
SHAPの利点として正しいものはどれですか?
6.
モデルの解釈性を高めるために「部分依存プロット(Partial Dependence Plot, PDP)」が使用される理由は何ですか?
7.
解釈性の高いモデルとして知られるものはどれですか?
8.
モデルの解釈性が低い場合、どのようなリスクが生じますか?
9.
「逆伝播法(Backpropagation)」がモデル解釈性に与える影響は何ですか?
11.
モデル解釈性を向上させるために「代理モデル」が使用される理由はどれですか?
12.
モデル解釈性を考慮したAIシステムの設計において、「倫理的意思決定」を補助するために重要となる要素はどれですか?
13.
モデルの解釈性を犠牲にせずに精度を向上させるための技術として適切なのはどれですか?
16.
モデルの解釈性を高めるために、複雑なモデルを単純化する手法を何と呼びますか?
18.
部分依存プロット(PDP)が使用される目的として最も適切なのはどれですか?
19.
モデルの解釈性が重要とされる分野はどれですか?
20.
モデルの解釈性が求められる理由として最も適切なものはどれですか?
21.
SHAPとLIMEの違いとして最も適切なのはどれですか?
23.
LIMEを使用する際に考慮すべき重要な点は何ですか?
24.
モデルの解釈性が低い場合、実運用で直面するリスクとして最も適切なのはどれですか?
25.
モデル解釈性を向上させるための代表的な手法の一つとして「注意機構(Attention Mechanism)」があるが、その主な目的は何ですか?
26.
LIME(Local Interpretable Model-agnostic Explanations)とは何ですか?