生成AIパスポート-Transformerモデルとその派生モデルの系譜(Transformerモデル以降の派生モデルの系譜)-

1. 
DistilBERTの設計目的として正しいものはどれか。

2. 
BERT(Bidirectional Encoder Representations from Transformers)の特徴として正しいものはどれか。

3. 
XLNetがBERTと比較して導入した改良点として正しいものはどれか。

4. 
RoBERTa(Robustly Optimized BERT)の主な改良点として正しいものはどれか。

5. 
T5(Text-to-Text Transfer Transformer)が他のモデルよりも幅広いタスクに適応できる理由として正しいものはどれか。

6. 
GPT(Generative Pre-trained Transformer)の主要な特徴として正しいものはどれか。

7. 
ALBERTがBERTと比較して効率性を向上させた主な理由として正しいものはどれか。

8. 
T5(Text-to-Text Transfer Transformer)の特長として正しいものはどれか。

9. 
T5と他のTransformer派生モデルを区別する際の特徴として正しいものはどれか。

10. 
GPT-3が「ゼロショット学習」で高い性能を発揮する理由として最も適切なものはどれか。

11. 
ALBERT(A Lite BERT)の主な改良点として正しいものはどれか。

12. 
Vision Transformer(ViT)がCNN(畳み込みニューラルネットワーク)と比較して異なる主な特徴として正しいものはどれか。

13. 
Vision Transformer(ViT)の主な特長として正しいものはどれか。

14. 
XLNetがBERTと異なる主な点として正しいものはどれか。

15. 
GPT-3が従来のGPTシリーズと比較して注目された主な理由として正しいものはどれか。

コメントを残すにはログインしてください。