G検定-ディープラーニングの応用例(モデルの解釈性)-

1. 
モデルの解釈性を高めるために「部分依存プロット(Partial Dependence Plot, PDP)」が使用される理由は何ですか?

2. 
モデルの解釈性とは何を指しますか?

3. 
モデル解釈性を向上させるために「代理モデル」が使用される理由はどれですか?

4. 
モデル解釈性を向上させるための代表的な手法の一つとして「注意機構(Attention Mechanism)」があるが、その主な目的は何ですか?

5. 
SHAP(Shapley Additive exPlanations)とは何ですか?

6. 
部分依存プロット(PDP)が使用される目的として最も適切なのはどれですか?

7. 
モデルの解釈性が低い場合、実運用で直面するリスクとして最も適切なのはどれですか?

8. 
モデル解釈性の評価に使われる指標として正しいものはどれですか?

9. 
モデルの解釈性を犠牲にせずに精度を向上させるための技術として適切なのはどれですか?

10. 
モデルの解釈性が求められる理由として最も適切なものはどれですか?

11. 
モデルの解釈性が低い場合、どのようなリスクが生じますか?

12. 
LIME(Local Interpretable Model-agnostic Explanations)とは何ですか?

13. 
モデル解釈性を考慮したAIシステムの設計において、「倫理的意思決定」を補助するために重要となる要素はどれですか?

14. 
LIMEを使用する際に考慮すべき重要な点は何ですか?

15. 
解釈性の高いモデルとして知られるものはどれですか?

16. 
グローバルな解釈性とは何ですか?

17. 
「ローカルな解釈性」とは何ですか?

18. 
ブラックボックスモデルとは何ですか?

19. 
SHAPとLIMEの違いとして最も適切なのはどれですか?

20. 
「ホワイトボックスモデル」とは何ですか?

21. 
モデルの解釈性が重要とされる分野はどれですか?

22. 
モデルの解釈性が低いと考えられるディープラーニングモデルに対して、解釈を提供する代表的な技術はどれですか?

23. 
モデルの解釈性を高めるために、複雑なモデルを単純化する手法を何と呼びますか?

24. 
「逆伝播法(Backpropagation)」がモデル解釈性に与える影響は何ですか?

25. 
ディープラーニングモデルにおいて「ヒートマップ」が解釈性向上のために使われる場面として適切なのはどれですか?

26. 
SHAPの利点として正しいものはどれですか?

コメントを残すにはログインしてください。