- c - 在位数组中找到第一个零
- linux - Unix 显示有关匹配两种模式之一的文件的信息
- 正则表达式替换多个文件
- linux - 隐藏来自 xtrace 的命令
EDIT2:下面的 Github 链接包含从进程调用 TF 模型的问题的可能解决方案。它们包括即时执行和专用服务器进程,通过 http 请求为 TF 模型预测提供服务。我想知道与每次初始化全局变量并调用 tf.train.Server
相比,使用自定义服务器和请求我是否可以随时获胜,但它似乎是更优雅的方式。
我将调查内存泄漏,如果它消失了,请关闭此问题。
编辑:添加了问题的简单可重现示例:
https://github.com/hcl14/Tensorflow-server-launched-from-child-process
背景:我正在运行 Tensorflow 服务器,并从“ fork ”进程连接到它。动态创建(和销毁)进程对我来说很重要——我把高负载的部分代码移到了那里,因为 weird memory leak ,对 Python 分析器不可见(线程不能解决问题)。因此,我希望进程能够快速初始化并立即开始工作。只有当进程被销毁时,内存才会被释放。
在做实验时,我找到了一个解决方案,将加载的模型和图形保存到全局变量中,然后由子进程(默认使用 'fork' 模式)获取,然后调用服务器。
问题:对我来说奇怪的是,加载keras模型后,我无法锁定我不希望修改的图形,我需要运行tf.global_variables_initializer()
每次我在子进程中打开新 session 。但是,在没有任何 session 创建的情况下在主流中运行虚拟运行正常。我知道在这种情况下,tensorflow 使用默认 session ,但图形上的所有变量都应在模型运行后初始化,因此我希望新 session 能够与先前定义的图形正常工作。
因此,我认为修改模型会使 Python 对子进程进行大量 pickle('fork' 模式),这会产生计算和内存开销。
请原谅我写了很多代码。我使用的模型对我来说是旧版和黑盒,所以我的问题可能与它有关。 Tensorflow版本是1.2(无法升级,模型不兼容),Python 3.6.5。
另外,也许我的解决方案效率低下,还有更好的解决方案,我将不胜感激您的建议。
我的设置如下:
1.Tensorflow服务器在主进程中启动:
初始化服务器:
def start_tf_server():
import tensorflow as tf
cluster = tf.train.ClusterSpec({"local": [tf_server_address]})
server = tf.train.Server(cluster, job_name="local", task_index=0)
server.join() # block process from exiting
在主进程中:
p = multiprocessing.Process(target=start_tf_server)
p.daemon=True
p.start() # this process never ends, unless tf server crashes
# WARNING! Graph initialization must be made only after Tf server start!
# Otherwise everything will hang
# I suppose this is because of another session will be
# created before the server one
# init model graph before branching processes
# share graph in the current process scope
interests = init_interests_for_process()
global_vars.multiprocess_globals["interests"] = interests
2.init_interests_for_process()
是一个模型初始化器,它加载我的遗留模型并在全局变量中共享它。我做了一个虚拟模型传递以在图表上初始化所有内容,然后想要锁定图表。但它不起作用:
def init_interests_for_process():
# Prevent errors on my GPU and disable tensorflow
# complaining about CPU instructions
import os
os.environ["CUDA_VISIBLE_DEVICES"]= ""
os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2'
import tensorflow as tf
from tensorflow.contrib.keras import models
# create tensorflow graph
graph = tf.get_default_graph()
with graph.as_default():
TOKENIZER = joblib.load(TOKENIZER_FILE)
NN1_MODEL = models.load_model(NN1_MODEL_FILE)
with open(NN1_CATEGORY_NAMES_FILE, 'r') as f:
NN1_CATEGORY_NAMES = f.read().splitlines()
NN2_MODEL = models.load_model(NN2_MODEL_FILE)
with open(NN2_CATEGORY_NAMES_FILE, 'r') as f:
NN2_CATEGORY_NAMES = f.read().splitlines()
# global variable with all the data to be shared
interests = {}
interests["TOKENIZER"] = TOKENIZER
interests["NN1_MODEL"] = NN1_MODEL
interests["NN1_CATEGORY_NAMES"] = NN1_CATEGORY_NAMES
interests["NN2_MODEL"] = NN2_MODEL
interests["NN2_CATEGORY_NAMES"] = NN2_CATEGORY_NAMES
interests['all_category_names'] = NN1_CATEGORY_NAMES + \
NN2_CATEGORY_NAMES
# Reconstruct a Python object from a file persisted with joblib.dump.
interests["INTEREST_SETTINGS"] = joblib.load(INTEREST_SETTINGS_FILE)
# dummy run to create graph
x = tf.contrib.keras.preprocessing.sequence.pad_sequences(
TOKENIZER.texts_to_sequences("Dummy srting"),
maxlen=interests["INTEREST_SETTINGS"]["INPUT_LENGTH"]
)
y1 = NN1_MODEL.predict(x)
y2 = NN2_MODEL.predict(x)
# PROBLEM: I want, but cannot lock graph, as child process
# wants to run its own tf.global_variables_initializer()
# graph.finalize()
interests["GRAPH"] = graph
return interests
3.现在我生成进程(实际上,进程是从另一个进程生成的 - 层次结构很复杂):
def foo(q):
result = call_function_which_uses_interests_model(some_data)
q.put(result)
return # I've read it is essential for destroying local variables
q = Queue()
p = Process(target=foo,args=(q,))
p.start()
p.join()
result = q.get() # retrieve data
4.在这个过程中我调用模型:
# retrieve model from global variable
interests = global_vars.multiprocess_globals["interests"]
tokenizer = interests["TOKENIZER"]
nn1_model = interests["NN1_MODEL"]
nn1_category_names = interests["NN1_CATEGORY_NAMES"]
nn2_model = interests["NN2_MODEL"]
nn2_category_names = interests["NN2_CATEGORY_NAMES"]
input_length = interests["INTEREST_SETTINGS"]["INPUT_LENGTH"]
# retrieve graph
graph = interests["GRAPH"]
# open session for server
logger.debug('Trying tf server at ' + 'grpc://'+tf_server_address)
sess = tf.Session('grpc://'+tf_server_address, graph=graph)
# PROBLEM: and I need to run variables initializer:
sess.run(tf.global_variables_initializer())
tf.contrib.keras.backend.set_session(sess)
# finally, make a call to server:
with sess.as_default():
x = tf.contrib.keras.preprocessing.sequence.pad_sequences(
tokenizer.texts_to_sequences(input_str),
maxlen=input_length)
y1 = nn1_model.predict(x)
y2 = nn2_model.predict(x)
如果每次生成新进程时我不锁定图形并运行变量初始化程序,一切正常。 (除了,每次调用有大约 30-90 MB 的内存泄漏,python 内存分析器不可见)。当我想锁定图表时,我收到有关未初始化变量的错误:
FailedPreconditionError (see above for traceback):
Attempting to use uninitialized value gru_1/bias
[[Node: gru_1/bias/read = Identity[T=DT_FLOAT, _class=["loc:@gru_1/bias"],
_device="/job:local/replica:0/task:0/cpu:0"](gru_1/bias)]]
提前致谢!
最佳答案
您是否考虑过 TensorFlow Serving? https://www.tensorflow.org/serving/
通常您希望缓存 session ,我相信这是 TF 服务使用的策略。这将是迄今为止将 TF 模型部署到数据中心的最佳体验。
你也可以往另一个方向走tf.enable_eager_execution()
,这消除了对 session 的需要。变量仍然会被初始化,尽管它会在 Python 变量对象创建后立即发生。
但如果您真的想创建和销毁 session ,您可以用常量 ("freeze" it) 替换图中的变量。在这种情况下,我还会考虑禁用图优化,因为使用一组新的提要和提取的第一个 session.run
调用默认会花一些时间优化图(通过 配置
。GraphOptions
原型(prototype)中的 RewriterConfig
(从对问题的评论中扩展)
关于python - tensorflow 服务器 : I don't want to initialize global variables for every session,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/52700621/
我对这个错误很困惑: Cannot implicitly convert type 'System.Func [c:\Program Files (x86)\Reference Assemblies\
考虑这段代码: pub trait Hello { fn hello(&self); } impl Hello for Any { fn hello(&self) {
问题很简单。是否可以构造这样一个类型 T,对于它下面的两个变量声明会产生不同的结果? T t1 = {}; T t2{}; 我已经研究 cppreference 和标准一个多小时了,我了解以下内容:
Intellij idea 给我这个错误:“Compare (T, T) in Comparator cannot be applied to (T, T)” 对于以下代码: public class
任何人都可以告诉我 : n\t\t\t\t\n\t\t\t 在以下来自和 dwr 服务的响应中的含义和用途是什么. \r\n\t\t\t \r\n\t\t\t
让 T 成为一个 C++ 类。 下面三个指令在行为上有什么区别吗? T a; T a(); T a = T(); T 为不带参数的构造函数提供了显式定义这一事实是否对问题有任何改变? 后续问题:如果
Rust中的智能指针是什么 智能指针(smart pointers)是一类数据结构,是拥有数据所有权和额外功能的指针。是指针的进一步发展 指针(pointer)是一个包含内存地
比如我有一个 vector vector > v={{true,1},{true,2},{false,3},{false,4},{false,5},{true,6},{false,7},{true,8
我有一个来自 .xls 电子表格的数据框,我打印了 print(df.columns.values) 列,输出包含一个名为:Poll Responses\n\t\t\t\t\t。 我查看了 Excel
This question already has answers here: What are good reasons for choosing invariance in an API like
指针类型作为类型前缀与在类型前加斜杠作为后缀有什么区别。斜线到底是什么意思? 最佳答案 语法 T/~ 和 T/& 基本上已被弃用(我什至不确定编译器是否仍然接受它)。在向新向量方案过渡的初始阶段,[T
我正在尝试找到一种方法来获取模板参数的基类。 考虑以下类: template class Foo { public: Foo(){}; ~Foo(){};
这是一个让我感到困惑的小问题。我不知道如何描述它,所以只看下面的代码: struct B { B() {} B(B&) { std::cout ::value #include
为什么有 T::T(T&) 而 T::T(const T&) 更适合 copy ? (大概是用来实现move语义的???) 原始描述(被melpomene证明是错误的): 在C++11中,支持了一种新
在 Java 7 中使用 eclipse 4.2 并尝试实现 List 接口(interface)的以下方法时,我收到了警告。 public T[] toArray(T[] a) { ret
假设有三个函数: def foo[T](a:T, b:T): T = a def test1 = foo(1, "2") def test2 = foo(List(), ListBuffer()) 虽
我对柯里化(Currying)和非柯里化(Currying)泛型函数之间类型检查的差异有点困惑: scala> def x[T](a: T, b: T) = (a == b) x: [T](a: T,
考虑一个类A,我如何编写一个具有与相同行为的模板 A& pretty(A& x) { /* make x pretty */ return x; } A pretty(A&& x) {
Eclipse 表示由于泛型类型橡皮擦,类型参数不允许使用 instanceof 操作。 我同意在运行时不会保留任何类型信息。但是请考虑以下类的通用声明: class SomeClass{ T
在 C++14 中: 对于任何整数或枚举类型 T 以及对于任何表达式 expr: 有没有区别: struct S { T t { expr }; }; 和 struct S { T t = { exp
我是一名优秀的程序员,十分优秀!