- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
OpenAI 的文本模型具有上下文长度,例如:Curie 的上下文长度为 2049 个标记。它们提供 max_tokens 和 stop 参数来控制生成序列的长度。因此,当获得停止 token 或达到 max_tokens 时,生成就会停止。
问题是:生成文本时,我不知道提示符包含多少个标记。因为我不知道,所以我无法设置 max_tokens = 2049 - number_tokens_in_prompt。
这使我无法为各种长度的文本动态生成文本。我需要的是继续生成直到停止 token 。
我的问题是:
最佳答案
正如官方所说OpenAI article :
To further explore tokenization, you can use our interactive Tokenizertool, which allows you to calculate the number of tokens and see howtext is broken into tokens. Alternatively, if you'd like to tokenizetext programmatically, use Tiktoken as a fast BPE tokenizerspecifically used for OpenAI models. Other such libraries you canexplore as well include transformers package for Python or thegpt-3-encoder package for NodeJS.
分词器可以将文本字符串拆分为标记列表,如官方 OpenAI example 中所述。关于使用 Tiktoken 计算代币:
Tiktoken is a fast open-source tokenizer by OpenAI.
Given a text string (e.g.,
"tiktoken is great!"
) and an encoding(e.g.,"cl100k_base"
), a tokenizer can split the text string into alist of tokens (e.g.,["t", "ik", "token", " is", " great", "!"]
).Splitting text strings into tokens is useful because GPT models seetext in the form of tokens. Knowing how many tokens are in a textstring can tell you:
- whether the string is too long for a text model to process and
- how much an OpenAI API call costs (as usage is priced by token).
Tiktoken 支持 OpenAI 模型使用的 3 种编码( source ):
编码名称 | OpenAI 模型 |
---|---|
cl100k_base |
gpt-4 , gpt-3.5-turbo , text-embedding-ada-002 |
p50k_base |
text-davinci-003 , text-davinci-002 |
r50k_base |
GPT-3 models ( text-curie-001 、 text-babbage-001 、 text-ada-001 、 davinci 、 curie 、 babbage 、 ada ) |
对于cl100k_base
和p50k_base
编码:
对于r50k_base
编码、分词器可用于多种语言:
请注意gpt-3.5-turbo
和gpt-4
使用代币的方式与官方OpenAI documentation中说明的其他型号相同:
Chat models like
gpt-3.5-turbo
andgpt-4
use tokens in the same way asother models, but because of their message-based formatting, it's moredifficult to count how many tokens will be used by a conversation.If a conversation has too many tokens to fit within a model’s maximumlimit (e.g., more than 4096 tokens for
gpt-3.5-turbo
), you will haveto truncate, omit, or otherwise shrink your text until it fits. Bewarethat if a message is removed from the messages input, the model willlose all knowledge of it.Note too that very long conversations are more likely to receiveincomplete replies. For example, a
gpt-3.5-turbo
conversation that is4090 tokens long will have its reply cut off after just 6 tokens.
安装或升级tiktoken:pip install --upgrade tiktoken
您有两个选择。
选项 1:在上表中搜索给定 OpenAI 模型的正确编码
如果你运行get_tokens_1.py
,您将得到以下输出:
9
get_tokens_1.py
import tiktoken
def num_tokens_from_string(string: str, encoding_name: str) -> int:
encoding = tiktoken.get_encoding(encoding_name)
num_tokens = len(encoding.encode(string))
return num_tokens
print(num_tokens_from_string("Hello world, let's test tiktoken.", "cl100k_base"))
选项 2:使用 tiktoken.encoding_for_model()
自动加载给定 OpenAI 模型的正确编码
如果你运行get_tokens_2.py
,您将得到以下输出:
9
get_tokens_2.py
import tiktoken
def num_tokens_from_string(string: str, encoding_name: str) -> int:
encoding = tiktoken.encoding_for_model(encoding_name)
num_tokens = len(encoding.encode(string))
return num_tokens
print(num_tokens_from_string("Hello world, let's test tiktoken.", "gpt-3.5-turbo"))
注意:如果您仔细查看 usage
OpenAI API 响应中的字段,您会看到它报告 10
用于相同消息的 token 。那是1
代币比 Tiktoken 多。我还没弄清楚为什么。我过去对此进行了测试(请参阅我的 past answer )。正如 @Jota 在下面的评论中提到的,OpenAI API 响应报告的 token 使用情况与 Tiktoken 之间似乎仍然不匹配。
关于openai-api - OpenAI API : How do I count tokens before(! ) 我发送 API 请求?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/75804599/
我已经设置了 Azure API 管理服务,并在自定义域上配置了它。在 Azure 门户中 API 管理服务的配置部分下,我设置了以下内容: 因为这是一个客户端系统,我必须屏蔽细节,但以下是基础知识:
我是一名习惯 React Native 的新程序员。我最近开始学习 Fetch API 及其工作原理。我的问题是,我找不到人们使用 API key 在他们的获取语句中访问信息的示例(我很难清楚地表达有
这里有很多关于 API 是什么的东西,但是我找不到我需要的关于插件 API 和类库 API 之间的区别。反正我不明白。 在 Documenting APIs 一书中,我读到:插件 API 和类库 AP
关闭。这个问题不满足Stack Overflow guidelines .它目前不接受答案。 想改善这个问题吗?更新问题,使其成为 on-topic对于堆栈溢出。 7年前关闭。 Improve thi
我正在尝试找出设计以下场景的最佳方法。 假设我已经有了一个 REST API 实现,它将从不同的供应商那里获取书籍并将它们返回给我自己的客户端。 每个供应商都提供单独的 API 来向其消费者提供图书。
请有人向我解释如何使用 api key 以及它有什么用处。 我对此进行了很多搜索,但得到了不同且相互矛盾的答案。有人说 API key 是保密的,它从不作为通信的一部分发送,而其他人则将它发送给客户端
关闭。这个问题是opinion-based .它目前不接受答案。 想改进这个问题?更新问题,以便 editing this post 可以用事实和引用来回答它. 4年前关闭。 Improve this
谁能告诉我为什么 WSo2 API 管理器不进行身份验证?我已经设置了两个 WSo2 API Manager 1.8.0 实例并创建了一个 api。它作为原型(prototype) api 工作正常。
我在学习 DSL 的过程中遇到了 Fluent API。 我在流利的 API 上搜索了很多……我可以得出的基本结论是,流利的 API 使用方法链来使代码流利。 但我无法理解——在面向对象的语言中,我们
基本上,我感兴趣的是在多个区域设置 WSO2 API 管理器;例如亚洲、美国和欧洲。一些 API 将部署在每个区域的数据中心内,而其他 API 将仅部署在特定区域内。 理想情况下,我想要的是一个单一的
我正在构建自己的 API,供以下用户使用: 1) 安卓应用 2) 桌面应用 我的网址之一是:http://api.chatapp.info/order_api/files/getbeers.php我的
我需要向所有用户显示我的站点的分析,但使用 OAuth 它显示为登录用户配置的站点的分析。如何使用嵌入 API 实现仪表板但仅显示我的网站分析? 我能想到的最好的可能性是使用 API key 而不是客
我正在研究大公司如何管理其公共(public) API。我想到的是拥有成熟 API 的公司,例如 Google、Facebook、Twitter 和 Amazon。 这些公司向公众公开了许多不同的 A
在定义客户可访问的 API 时,以下是首选的行业惯例: a) 定义一组显式 API 方法,每个方法都有非常狭窄和特定的目的,例如: SetUserName SetUserAge Se
这在本地 deserver 和部署时都会发生。我成功地能够通过留言簿教程使用 API 资源管理器,但现在我已经创建了自己的项目并尝试访问我编写的第一个 API,它从未出现过。搜索栏旁边的黄色“正在加载
我正在尝试使用 http://ip-api.com/ api通过我的ip地址获取经度和纬度。当我访问 http://ip-api.com/json从我的浏览器或使用 curl,它以 json 格式返回
这里的典型示例是 Twitter 的 API。我从概念上理解 REST API 的工作原理,本质上它只是针对您的特定请求向他们的服务器查询,然后您会在其中收到响应(JSON、XML 等),很棒。 但是
我能想到的最好的标题,但要澄清的是,情况是这样的: 我正在开发一种类似短 url 的服务,该服务允许用户使用他们的 Twitter 帐户“登录”并发布内容。现在这项服务可以包含在 Tweetdeck
我正在设计用于管理评论和讨论线程的 API 方案。我想有一个点 /discussions/:discussionId 当您GET 时,它会返回一组评论和一些元数据。评论也许可以单独访问 /discus
关闭。这个问题需要更多focused .它目前不接受答案。 想改进这个问题吗? 更新问题,使其只关注一个问题 editing this post . 关闭去年。 Improve this quest
我是一名优秀的程序员,十分优秀!