gpt4 book ai didi

kubernetes - 服务模型中的 Kubeflow Pipeline

转载 作者:行者123 更新时间:2023-12-02 12:04:31 25 4
gpt4 key购买 nike

我开始为一个项目深入研究 kubeflow 管道并且有一个初学者的问题。看起来 kubeflow 管道很适合训练,但是在生产中服务呢?

我有一个相当密集的训练预处理管道,并且必须将相同的管道应用于生产预测。我可以使用像 Seldon Serving 这样的东西来创建一个端点来启动预处理管道,应用模型,然后返回预测吗?还是将所有东西都放在一个 docker 容器中的更好方法?

最佳答案

是的,你绝对可以用谢顿来服务。事实上,Kubeflow 团队提供了一种简单的方法来连接训练和服务:fairing

Fairing 提供了一种部署预测端点的编程方式。你也可以看看this example关于如何使用您的训练结果部署您的 Seldon 端点。

关于kubernetes - 服务模型中的 Kubeflow Pipeline,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/55836235/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com