- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我已经为此奋斗了几个小时。显然,我不是专家,但我已经做到了这一点 - api 设置,在前端运行,当我输入聊天提示时,它会出现错误,并且gunicorn 返回大长错误。
这是我的 ai_chat.py 最新源代码(我已经经历了大约 100 个变体,几乎同样的失败,显然我对 api 文档的理解不足以在工作这么长时间后对其进行故障排除,感觉就像我在兔子洞里)
ai_chat.py
GNU nano 6.2 ai_chat.py
import asyncio
import openai
import functools
from concurrent.futures import ThreadPoolExecutor
openai.api_key = "AI KEY GOES HERE"
loop = asyncio.get_event_loop()
executor = ThreadPoolExecutor()
def _generate_response_sync(prompt):
response = openai.Completion.create(
engine="gpt-3.5-turbo",
prompt=f"User: {prompt}\nAssistant:",
max_tokens=150,
n=1,
stop=["User:"],
temperature=0.5,
)
return response.choices[0].text.strip()
async def generate_response(prompt):
response = await loop.run_in_executor(executor, functools.partial(_generate_response_sync, prompt))
return response
以下是在前端网站提交用户聊天时,gunicorn 出现的错误:
73.35.113.109:0 - "POST /chat HTTP/1.1" 500
[2023-04-28 20:05:58 +0000] [206218] [ERROR] Exception in ASGI application
Traceback (most recent call last):
File "/root/mental/mental/lib/python3.10/site-packages/uvicorn/protocols/http/h11_impl.py", line 429, in run_asgi
result = await app( # type: ignore[func-returns-value]
File "/root/mental/mental/lib/python3.10/site-packages/uvicorn/middleware/proxy_headers.py", line 78, in __call__
return await self.app(scope, receive, send)
File "/root/mental/mental/lib/python3.10/site-packages/fastapi/applications.py", line 276, in __call__
await super().__call__(scope, receive, send)
File "/root/mental/mental/lib/python3.10/site-packages/starlette/applications.py", line 122, in __call__
await self.middleware_stack(scope, receive, send)
File "/root/mental/mental/lib/python3.10/site-packages/starlette/middleware/errors.py", line 184, in __call__
raise exc
File "/root/mental/mental/lib/python3.10/site-packages/starlette/middleware/errors.py", line 162, in __call__
await self.app(scope, receive, _send)
File "/root/mental/mental/lib/python3.10/site-packages/starlette/middleware/exceptions.py", line 79, in __call__
raise exc
File "/root/mental/mental/lib/python3.10/site-packages/starlette/middleware/exceptions.py", line 68, in __call__
await self.app(scope, receive, sender)
File "/root/mental/mental/lib/python3.10/site-packages/fastapi/middleware/asyncexitstack.py", line 21, in __call__
raise e
File "/root/mental/mental/lib/python3.10/site-packages/fastapi/middleware/asyncexitstack.py", line 18, in __call__
await self.app(scope, receive, send)
File "/root/mental/mental/lib/python3.10/site-packages/starlette/routing.py", line 718, in __call__
await route.handle(scope, receive, send)
File "/root/mental/mental/lib/python3.10/site-packages/starlette/routing.py", line 276, in handle
await self.app(scope, receive, send)
File "/root/mental/mental/lib/python3.10/site-packages/starlette/routing.py", line 66, in app
response = await func(request)
File "/root/mental/mental/lib/python3.10/site-packages/fastapi/routing.py", line 237, in app
raw_response = await run_endpoint_function(
File "/root/mental/mental/lib/python3.10/site-packages/fastapi/routing.py", line 163, in run_endpoint_function
return await dependant.call(**values)
File "/root/mental/src/main.py", line 37, in chat_post
response = await generate_response(chat_message.message)
File "/root/mental/src/ai_chat.py", line 9, in generate_response
File "/usr/lib/python3.10/concurrent/futures/thread.py", line 58, in run
result = self.fn(*self.args, **self.kwargs)
File "/root/mental/src/ai_chat.py", line 13, in _generate_response_sync
prompt=f"User: {prompt}\nAssistant:",
File "/root/mental/mental/lib/python3.10/site-packages/openai/api_resources/chat_completion.py", line 25, in create
return super().create(*args, **kwargs)
File "/root/mental/mental/lib/python3.10/site-packages/openai/api_resources/abstract/engine_api_resource.py", line 153, in create
response, _, api_key = requestor.request(
File "/root/mental/mental/lib/python3.10/site-packages/openai/api_requestor.py", line 226, in request
resp, got_stream = self._interpret_response(result, stream)
File "/root/mental/mental/lib/python3.10/site-packages/openai/api_requestor.py", line 620, in _interpret_response
self._interpret_response_line(
File "/root/mental/mental/lib/python3.10/site-packages/openai/api_requestor.py", line 683, in _interpret_response_line
raise self.handle_error_response(
openai.error.InvalidRequestError: Invalid URL (POST /v1/engines/gpt-3.5-turbo/chat/completions)
它在带有 Gunicorn 的 apache2 服务器上运行 - 如果您需要更多信息,请告诉我。
使用 apache2 和 Gunicorn 在 Web 前端构建人工智能聊天机器人,托管在我的 ubuntu 服务器上。
api 和前端工作正常,但是当将聊天提交到提示中时,我正在使用的引擎和聊天脚本出现问题
最佳答案
您的代码中有多个错误。您的代码适用于任何 GPT-3 模型,但您希望使用 gpt-3.5-turbo
模型(即 GPT-3.5 模型)。您当前的代码适用于 Completions API .
您需要做的是编写代码,使其与 Chat Completions API 一起工作。 (即 GPT-3.5 API)如果您想使用 GPT-3.5 模型。
更改以下内容:
Completion
(Completions API)到ChatCompletion
(Chat Completion API)engine
参数(Completions API)到 model
参数(Chat Completions API)prompt
参数(Completions API)到 messages
参数(Chat Completions API)注意:将 engine
参数更改为 model
参数可以解决无效 URL (POST/v1/engines/gpt-3.5-turbo/chat/completions)
错误,但如果您不修复所有其他问题,您将遇到更多错误。
试试这个:
import asyncio
import openai
import functools
from concurrent.futures import ThreadPoolExecutor
openai.api_key = "sk-xxxxxxxxxxxxxxxxxxxx"
loop = asyncio.get_event_loop()
executor = ThreadPoolExecutor()
def _generate_response_sync(prompt):
response = openai.ChatCompletion.create( # Change this
model = "gpt-3.5-turbo", # Change this
messages = [ # Change this
{"role": "assistant", "content": `{prompt}`}
],
max_tokens = 150,
n = 1,
temperature = 0.5,
)
return response['choices'][0]['message']['content'] # Change this
async def generate_response(prompt):
response = await loop.run_in_executor(executor, functools.partial(_generate_response_sync, prompt))
return response
关于python-3.x - OpenAI ChatGPT (GPT-3.5) API 错误 : "Invalid URL (POST/v1/engines/gpt-3.5-turbo/chat/completions)" (migrating GPT-3 to GPT-3. 5 API),我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/76133067/
Google Cloud Compute 中的 Google Compute Engine、App Engine 和 Container Engine 之间的实际区别是什么?什么时候使用什么? 有什么
我有一个在 Google App Engine 中运行的应用程序,它访问在 Google Compute Engine 中的机器上运行的服务。 Google App Engine 应用程序是该服务唯一
我们正在谷歌云中构建一个应用程序。我们使用 App Engine 作为前端,使用 Compute Engine 作为后端。在这些 Compute Engine 实例上,我正在运行一个接受特定“命令”消
我有一个现有的 GAE 应用程序(我们称之为应用程序 A)正在运行的情况,但由于非技术原因无法修改。当用户迁移到新的客户端版本时,我们需要将他们的数据从应用程序 A 迁移到新的 GAE 应用程序(我称
我正在尝试发现 App Engine 上的其他已部署服务。类似于 this文章建议。 我的代码是这样的: import ( "fmt" "net/http" "google.g
我想在我的网站上为“图像处理”事件设置服务器。如果我在 GCE 中使用“n1-standard-1”实例,GAE 中的可比功率是多少?是因为我算错了,还是同一个功率两者价格相差很大? 最佳答案 按小时
我在 Googl Compute Engine 和 Google App Engine 标准环境中的应用程序中创建了一个 VM 实例。我打算在 App Engine 中使用我的应用程序,在 Compu
我像往常一样使用 appcfg.py 更新我的应用程序,但收到一条错误消息。我试过 appcfg.py 回滚,两次尝试之间等了十分钟,但我仍然收到相同的错误消息。我该怎么办? 无法对 apps/dev
我想在 Google Compute Engine 上放置一个 Redis 服务器,并通过 AppEngine 的套接字支持与其对话。唯一的问题是似乎没有特定的防火墙规则说“此 AppEngine 应
我想知道 App Engine 和 Compute Engine 之间有什么区别。任何人都可以向我解释其中的区别吗? 最佳答案 App Engine 是一种平台即服务。这意味着您只需部署代码,平台会为
我正在编写一个在 App Engine 的 Go 运行时上运行的 Go 应用程序。 我注意到几乎所有使用 App Engine 服务(例如 Datastore、Mail 甚至 Capabilities
是否有人有在 Grid Engine/Sun Grid Engine/Son of Grid Engine 上运行 Docker 的经验,并且能够 monitor the resource used
我读了很多论坛,因为 grails app-engine 插件多年来没有更新,所以不可能将 grails 应用程序部署到谷歌应用程序引擎。当我准备放弃时,我发现使用 intellij 部署项目是可能的
当前设置, 运行 Windows Server 2012 (GCE Server 2012) 的谷歌计算引擎 运行 Debian Wheezy(GCE 服务器 Wheezy)的 Google 计算引擎
特定于基于 Docker 的部署,这两者之间有什么区别?由于 Google App Engine Flexible 现在也支持基于 Dockerfile 的部署,并且它也是完全托管的服务,因此它似乎比
我相信 Google Kubernetes Engine (GKE) 在 Google Compute Engine (GCE) 上运行。那么,在服务器管理方面使用 Google Kubernetes
TLDR;关于这个问题有任何更新吗? Google App Engine communicate with Compute Engine over internal network -- 是否可以在同
我正在尝试使用 Go SDK 为 App Engine 编写应用程序,但它似乎与单元测试有一种有趣的关系。人有written libraries左右this original, outdated一组工
在 App Engine 中,我想对在同一个 Google 云项目中创建的 Compute Engine 实例上运行的网络服务器进行 http fetch 调用,我想知道是否可以在不启用的情况下对实例
在编写 Go App Engine 标准应用程序时,过去的情况是您必须使用 App Engine SDK访问数据存储。然而,最近(从 Go 1.11 开始?),如果你只使用 Cloud Datasto
我是一名优秀的程序员,十分优秀!