gpt4 book ai didi

flask - 对于 Rasa core 和 Rasa nlu 来说,可靠的基础设施应该如何?

转载 作者:行者123 更新时间:2023-12-03 16:21:31 28 4
gpt4 key购买 nike

我的 REST 应用程序是用 Python 和 Flask 开发的,我也在使用 Rasa Core 和 Rasa NLU。目前一切都是一个单一的本地开发服务器。您想知道哪些理想的生产建议?

我想象的一个场景:在一台服务器上处理所有 REST 火焰和数据库结构,在另一台服务器上保留 Rasa Core 和“微型”python 应用程序,在第三台服务器上保留 Rasa NLU。

但问题是:所有用户最终都会询问 3 台级联服务器,所以我认为所有服务器都受到相同的请求瓶颈。

如果您将 1 台服务器留给所有或 3 台服务器,那么理想的设置是什么? (对于 AWS)

最佳答案

要成为最可扩展的,您可以使用具有负载平衡的容器化解决方案。

  • Rasa NLU 有一个公共(public) docker 容器(或者你可以创建你的
    自己的)。使用 docker 和 kubernetes 将 NLU 扩展到任意大小
    你需要你的基地
  • 为您的 rasa 核心创建单独的 docker 容器,连接到 NLU 负载均衡器以进行 NLU 转换。如果需要,也可以在这里使用负载均衡器。
  • 对您的 REST 应用程序执行相同操作,连接到 #2 负载均衡器

  • 此解决方案将允许您单独扩展 NLU 和核心,但是如果您需要单独执行此操作,您还需要扩展您的 REST 应用程序。

    如果你有兴趣,我写了一个教程 here :

    关于flask - 对于 Rasa core 和 Rasa nlu 来说,可靠的基础设施应该如何?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/49653135/

    28 4 0
    Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
    广告合作:1813099741@qq.com 6ren.com