1.
AIシステムにおける「セキュリティインシデント」の報告が遅れることで、どのようなリスクが増大しますか?
2.
AIシステムにおける「安全性」とは、どのようなことを指しますか?
3.
AIシステムにおける「説明可能性(エクスプレイナビリティ)」が欠如している場合、どのようなセキュリティリスクが生じますか?
4.
AIシステムのセキュリティリスクとして「攻撃対象領域」とは何を指しますか?
5.
AIシステムが敵対的攻撃を受けるリスクを軽減するために、どのような手法が有効ですか?
6.
AIの「セキュリティバイデザイン」とは、どのような概念ですか?
7.
AIシステムにおける「バックドア攻撃」とは何ですか?
8.
AIシステムがサイバー攻撃を受けた場合、何が最優先で行うべき対応ですか?
9.
AIシステムの安全性確保のために「サンドボックス環境」を利用する主な目的は何ですか?
10.
AIシステムにおける「ゼロデイ攻撃」とは何ですか?
11.
医療分野で使用されるAIシステムが不正アクセスを受けた場合、どのようなセキュリティリスクが考えられますか?
12.
AIシステムのセキュリティリスクを評価するために使用される「リスクベースアプローチ」とは何ですか?
13.
AIシステムの「セキュリティ」と「プライバシー」の違いとして正しいのはどれですか?
14.
AIシステムのセキュリティリスクとして、「モデルインバージョン攻撃」とは何を指しますか?
15.
AIのセキュリティにおける「動的リスク評価」が重要とされる理由は何ですか?
16.
AIシステムの安全性とセキュリティを向上させるために、「レッドチーミング(Red Teaming)」とは何を指しますか?
17.
AIシステムが敵対的攻撃に耐性を持つためには、どのような設計が必要ですか?
18.
医療分野で使用されるAIシステムにおいて、「データトレーサビリティ」が特に重要視される理由は何ですか?
19.
自動運転車におけるAIのセキュリティ対策として、リアルタイムでの「異常検知システム」が必要な理由は何ですか?
20.
AIシステムに対して「分散型攻撃」が行われた場合、どのようなリスクが発生しますか?
21.
AIシステムの「ロバストネス」とは何ですか?
22.
AIを用いた金融取引システムにおける「機密性、完全性、可用性(CIA)」の原則とは何ですか?
23.
AIのセキュリティに関するリスクとして「データポイズニング」とは何ですか?
24.
AIシステムの安全性において、「フェールセーフ」とは何を指しますか?
25.
AIシステムのセキュリティ対策において、データの「暗号化」の目的は何ですか?
26.
AIにおける「敵対的攻撃(Adversarial Attack)」とは何を指しますか?