1.
AIシステムが高い信頼性を維持するために「説明責任」を果たす際、開発者が特に注意すべき点として最も適切なものはどれか。
2.
AI社会原則の「プライバシー保護」の具体的な実施例として正しいものはどれか。
3.
AI社会原則における「持続可能性」の意味として最も適切なものはどれか。
4.
AI社会原則の「責任共有」の理念に基づく適切な行動はどれか。
5.
AI社会原則の「説明責任」の要件として正しいものはどれか。
6.
AI社会原則の「公平性」の目的として最も適切なものはどれか。
7.
AIの活用によってプライバシー保護が損なわれた場合、企業が最も重視すべき対応として適切なものはどれか。
8.
AI社会原則の「透明性」における実施例として最も適切なものはどれか。
9.
AI社会原則の「倫理性」の要件として最も適切なものはどれか。
10.
AI社会原則の「安全性」と関連が深い取り組みとして最も適切なものはどれか。
11.
企業AはAIを利用して顧客データを分析する際、透明性を確保するために最も重要な対応として適切なものはどれか。
12.
AI社会原則の「インクルーシブ性(包摂性)」が重視する点として正しいものはどれか。
13.
AIの利用において持続可能性を確保するために、企業が最も優先して実施すべき取り組みとして適切なものはどれか。
14.
AI社会原則の1つである「人間中心性」において、最も重要とされる要素はどれか。
15.
AIモデルが特定の人種に対して偏見を持つ結果を出した場合、公平性の観点からAI開発者が最初に行うべき対応はどれか。