【NLP】RoBERTa: A Robustly Optimized BERT Pretraining Approach
RoBERTa: A Robustly Optimized BERT Pretraining Approachtag: #ReadPaper #NLPQ1 论文试图解决什么问题?如何使用更好的超参数与数据集对 BERT 进行充分的训练。Q2 这是否是一个新的问题?学疏才浅,不清楚,但应该是的。不谈 novelty, 自从 BERT 提出后,在其框架上做出一些改动获得一些效果,这种想法应该是显而易见