Bert变体--Roberta

发布时间 2023-04-17 23:43:36作者: shiiiilong

Roberta

论文地址:https://arxiv.org/pdf/1907.11692.pdf

Static vs. Dynamic Masking

Roberta使用动态Mask。

Bert在预处理训练数据时,每个样本会进行一次随机的mask,后续的每个训练步都采用这次mask,实际上就是每个epoch是重复的,被称为静态mask。Roberta在预处理时没有进行mask,而是在每次向模型提供输入时进行随机mask,这意味着mask是变化的、动态的。

Model Input Format and Next Sentence Prediction

Roberta去除了 NSP 任务,更改输入为 FULL-SENTENCES

Bert为了捕捉句子之间的关系,使用了NSP任务进行预训练。论文中对输入与NSP任务设置了下面的两组实验:

使用NSP:
SEGMENT-PAIR+NSP: 输入为连续的两个段落 (Bert)
SENTENCE-PAIR+NSP: 输入为连续的两个句子 (会提升bs,以达到和SEGMENT-PAIR相同token数量)

放弃NSP:
FULL-SENTENCES: 输入为连续的句子,可以跨Doc (Roberta)
DOC-SENTENCES: 输入为连续的句子,不能跨Doc (会略微提升bs,以达到和FULL-SENTENCES相同token数量)

image

large batches,more dataset, pretrain longer

更大 Batch size
image

更多数据,更多epoch
image

byte-level BPE

Bert使用 wordpiece(BPE的一种),用 unicode characters 作为最小子词单元。
Roberta使用 byte-level BPE, bytes 作为最小子词单元