- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
微调 API 中关于 model
属性的 OpenAI 文档说明有点令人困惑:
model
The name of the base model to fine-tune. You can select one of "ada", "babbage", "curie", "davinci", or a fine-tuned model created after 2022-04-21.
我的问题:微调基础模型好还是微调模型好?
我使用文件 mydata1K.jsonl
从 ada
创建了一个微调模型:
ada + mydata1K.jsonl --> ada:ft-acme-inc-2022-06-25
现在我有一个更大的示例文件 mydata2K.jsonl
,我想用它来改进微调模型。在这第二轮微调中,是再次微调 ada
还是微调我的微调模型 ada:ft-acme-inc-2022-06- 25
?我假设这是可能的,因为我的微调模型是在 2022 年 4 月 21 日之后创建的。
ada + mydata2K.jsonl --> better-model
或
ada:ft-acme-inc-2022-06-25 + mydata2K.jsonl --> even-better-model?
最佳答案
如果您阅读 Fine-tuning documentation唯一谈论“微调微调模型”的部分是高级用法下的以下部分:
If you have already fine-tuned a model for your task and now haveadditional training data that you would like to incorporate, you cancontinue fine-tuning from the model. This creates a model that haslearned from all of the training data without having to re-train fromscratch.
To do this, pass in the fine-tuned model name when creating a newfine-tuning job (e.g.,
-m curie:ft-<org>-<date>
). Other trainingparameters do not have to be changed, however if your new trainingdata is much smaller than your previous training data, you may find ituseful to reducelearning_rate_multiplier
by a factor of 2 to 4.
你问的是两个选项:
ada + bigger-training-dataset.jsonl
ada:ft-acme-inc-2022-06-25 + additional-training-dataset.jsonl
文档没有说明哪个选项更好会产生更好的结果。
然而...
为什么?
When training a fine-tuned model, the total tokens used will be billedaccording to our training rates.
如果您选择选项 1,您将为训练数据集中的某些代币支付两次费用。首先是对初始训练数据集进行微调,其次是对更大的训练数据集进行微调(即 bigger-training-dataset.jsonl
= initial-training-dataset.jsonl
+ additional-training-dataset.jsonl
)。
最好从经过微调的模型继续微调,因为您只需为附加训练数据集中的 token 付费。
阅读更多关于 fine-tuning pricing calculation 的信息.
关于transformer-model - OpenAI GPT-3 API : Fine tune a fine tuned model?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/72758187/
这一章我们介绍在下游任务微调中固定LM参数,只微调Prompt的相关模型。这类模型的优势很直观就是微调的参数量小,能大幅降低LLM的微调参数量,是轻量级的微调替代品。和前两章微调LM和全部冻结的pr
LLM微调方法(Efficient-Tuning)六大主流方法:思路讲解&优缺点对比[P-tuning、Lora、Prefix tuing等] 由于LLM参数量都是在亿级以上,少则数十亿,多
微调 API 中关于 model 属性的 OpenAI 文档说明有点令人困惑: model The name of the base model to fine-tune. You can selec
微调 API 中关于 model 属性的 OpenAI 文档说明有点令人困惑: model The name of the base model to fine-tune. You can selec
我正在尝试使用带有调整网格的 Caret 创建模型 svmGrid up_inside Support Vector Machines with Linear Kernel 100 samples
当涉及到语言模型(LLM)的教学微调时,什么时候应该选择有监督的微调培训器(SFTTrainer)而不是常规的Transformers培训器?据我所知,常规的Transformers培训人员通常指的是
RHEL/CentOS 在 6.3 版本以后引入了一套新的系统调优工具 tuned/tuned-adm,其中 tuned 是服务端程序,用来监控和收集系统各个组件的数据,并依据数据提供的信息动态调整
关闭。这个问题需要debugging details .它目前不接受答案。 想改善这个问题吗?更新问题,使其成为 on-topic对于堆栈溢出。 2年前关闭。 Improve this questio
我有一个大约 4MB 的文件,该文件是一个仅包含普通键盘字符的 ascii 文件。我尝试了 java.io 包中的许多类来将文件内容读取为字符串。逐个字符地读取它们(使用 FileReader 和 B
之一: torchvision 中包含了很多预训练好的模型,这样就使得 fine-tune 非常容易。本文主要介绍如何 fine-tune torchvision 中预训练好的模型。 安装
有没有办法停止ray.tune实验(例如使用 PBT)当明显过度拟合或一个指标长时间没有改善时? 最佳答案 现在,这在 Tune 中得到了很好的支持,https://github.com/ray-pr
构建 LINQ 表达式(对我来说,是 linq to object)时,有很多方法可以完成某件事,其中一些方法比其他方法更好、更高效。 有没有好的方法来“调整”或优化这些表达式? 人们采用哪些基本指标
我正在尝试保存一个经过微调的 bert 模型。我已经正确运行了代码 - 它工作正常,并且在 ipython 控制台中我可以调用 getPrediction 并让它产生结果。 我已保存体重文件(最高的是
我有这样的查询。 SELECT count(*) FROM table1 e WHERE e.column1=1 AND e.id IN (SELECT MAX(ID) FROM
我在 node.js 上使用 ffmpeg。并选择“-tune Zerolatency”以实现低延迟 但是当我插入“-tune Zerolatency”时,出现错误:无法识别的选项“tune”。 有人
我目前正在训练 CNN 来对波进行分类。虽然代码运行完美,但用于超参数调整的 GridSearchCV 无法按预期工作。我很困惑,因为我在 MLP 中使用了类似的代码来调整超参数,而且效果很好。这是完
我的应用程序在我的 iPad 上运行。但它的表现非常糟糕——我的速度低于 15fps。谁能帮我优化一下? 它基本上是一个轮子(派生自 UIView),包含 12 个按钮(派生自 UIControl)。
SQL Turning 是Quest公司出品的Quest Central软件中的一个工具。Quest Central是一款集成化、图形化、跨平台的数据库管理解决方案,可以同时管理 Oracle、DB
让事件记录在开发环境中对所有查询使用 SQL_NO_CACHE 的简单方法是什么? 我想优化最坏情况加载时间的语句。希望这样做是有意义的,但是我在第一页命中时查询非常慢,而下次所有查询都非常快,因为服
我有一个电子邮件数据集,我正在使用 SVM 来确定电子邮件是否是垃圾邮件 我将数据集分为测试和训练,然后随机挑选了一组 500 条记录来调整 svm。我正在使用 RBF 内核。以下是原始数据 make
我是一名优秀的程序员,十分优秀!