2020-05-01から1ヶ月間の記事一覧

解説 - XLNet: Generalized Autoregressive Pretraining for Language Understanding

元論文 https://papers.nips.cc/paper/8812-xlnet-generalized-autoregressive-pretraining-for-language-understanding.pdf 事前学習モデル XLNet を提案. Fine-tuning により SQuAD や GLUE などの 20 タスクで BERT (さらには RoBERTa) を上回った. BERT …

解説 - Unified Language Model Pre-training forNatural Language Understanding and Generation

元論文 https://papers.nips.cc/paper/9464-unified-language-model-pre-training-for-natural-language-understanding-and-generation.pdf Natural Language Understanding (NLU) と Natural Language Generation (NLG) のための事前学習法として UNIfied p…