gpt4 book ai didi

tensorflow - 通过 RESTful API 部署 Tensorflow 模型的示例

转载 作者:行者123 更新时间:2023-12-02 23:18:13 25 4
gpt4 key购买 nike

是否有通过 RESTful API 部署 Tensorflow 模型的示例代码?我看到了命令行程序和移动应用程序的示例。是否有一个框架可以实现这一点,或者人们只需加载模型并通过 Web 框架(如 Flask)公开预测方法来获取输入(例如通过 JSON)并返回响应?我所说的框架是指针对大量预测请求的扩展。当然,由于模型是不可变的,我们可以启动预测服务器的多个实例并将其放在负载均衡器(如 HAProxy)后面。我的问题是,人们是否使用某种框架来实现此目的,或者从头开始执行此操作,或者,也许这已经在 Tensorflow 中可用,但我没有注意到。

最佳答案

https://github.com/sugyan/tensorflow-mnist显示了一个使用 Flask 并加载预训练模式(恢复)的简单restAPI 示例。

@app.route('/api/mnist', methods=['POST'])
def mnist():
input = ((255 - np.array(request.json, dtype=np.uint8)) / 255.0).reshape(1, 784)
output1 = simple(input)
output2 = convolutional(input)
return jsonify(results=[output1, output2])

此外,请参阅 https://tensorflow-mnist.herokuapp.com/ 上的在线演示。看来 API 足够快了。

关于tensorflow - 通过 RESTful API 部署 Tensorflow 模型的示例,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/34036689/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com