gpt4 book ai didi

language-model - 使用域文本预训练 BERT/RoBERTa 语言模型,预计需要多长时间?哪个更快?

转载 作者:行者123 更新时间:2023-12-02 00:07:37 24 4
gpt4 key购买 nike

我想使用领域语料库(与情感相关的文本)预训练 BERT 和 RoBERTa MLM。使用 50k~100k 单词需要多长时间。由于 RoBERTa 没有接受过预测下一句目标的训练,一个训练目标比 BERT 少,并且具有更大的小批量和学习率,我认为 RoBERTa 会快得多吗?

最佳答案

100k 字太少,无法训练像 BERT 或 RoBERTa 这样的大型模型。 the RoBERTa paper的主要主张是 BERT 实际上训练不足。 BERT 使用 16 GB 的文本数据进行训练,而 RoBERTa 使用 160 GB 的纯文本。

对于您描述的小型特定领域数据,您可以尝试微调现有模型。在这种情况下,我会选择 RoBERTa,因为它似乎经过更好的预训练,没有下一句目标(这对它预处理数据很麻烦)并且它使用 SentencePiece 进行标记化,这允许无损去标记化。

关于language-model - 使用域文本预训练 BERT/RoBERTa 语言模型,预计需要多长时间?哪个更快?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/60137162/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com