Skip to content

Latest commit

 

History

History
24 lines (17 loc) · 392 Bytes

アテンションモデル.md

File metadata and controls

24 lines (17 loc) · 392 Bytes

Note

guid: OV?m:I[fy!
notetype: AI-Vocabulary-Style

Tags

Front

アテンションモデル

Back-EN

Attention model

Back-FR

Modèle d'attention

Reading

Sentence

機械翻訳などの Transformer, 自然言語理解の BERT やその他多くの現在 SoTA となっている自然言語処理のモデルは Attention ベースのモデルです。