gpt4 book ai didi

tensorflow - 使用附加数据重新训练现有的基本 BERT 模型

转载 作者:行者123 更新时间:2023-12-04 04:01:43 26 4
gpt4 key购买 nike

我使用 cased_L-12_H-768_A-12 生成了新的 Base BERT 模型(dataset1_model_cased_L-12_H-768_A-12)作为来自 biobert-run_classifier 的训练多标签分类

我需要添加更多额外数据作为dataset2,模型应该是dataset2_model_cased_L-12_H-768_A-12

tensorflow-hub帮助解决我的问题?

模型训练生命周期如下图,

cased_L-12_H-768_A-12 => dataset1 => dataset1_model_cased_L-12_H-768_A-12

dataset1_model_cased_L-12_H-768_A-12 => dataset2 =>dataset2_model_cased_L-12_H-768_A-12

最佳答案

Tensorflow Hub 是一个用于共享预训练模型片段或整个模型的平台,以及一个促进这种共享的 API。在 TF 1.x 中,此 API 是一个独立的 API,而在 TF 2.x 中,此 API(SavedModel:https://www.tensorflow.org/guide/saved_model)是核心 TF API 的一部分。

在建议的训练生命周期示例中,使用 SavedModel 在训练步骤之间保存相关模型可以简化流水线架构设计。或者,您可以使用作为 TF 模型花园的一部分提供的编码示例来执行此预训练:https://github.com/tensorflow/models/tree/master/official/nlp .

关于tensorflow - 使用附加数据重新训练现有的基本 BERT 模型,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/62948266/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com