- android - 多次调用 OnPrimaryClipChangedListener
- android - 无法更新 RecyclerView 中的 TextView 字段
- android.database.CursorIndexOutOfBoundsException : Index 0 requested, 光标大小为 0
- android - 使用 AppCompat 时,我们是否需要明确指定其 UI 组件(Spinner、EditText)颜色
我是 Tensorflow 新手。我正在尝试使用 Google ML Engine 上的 Estimator 构建并提供模型。但是,在尝试了几种方法后,我不确定如何保存模型以供服务。
我已经以可接受的精度成功训练了模型。当我尝试保存模型以供服务时,我四处搜索并找到了几种方法。然而,我仍然遇到了一些问题......
根据针对发布的其他一些问题提出的建议,我尝试了 3 种导出方法:
1) 获取序列化示例作为输入 - 我遇到错误“TypeError:字节类型的对象不是 JSON 可序列化”。另外,我找不到一种好方法来提供序列化示例以实现有效服务。由于我使用 ML Engine 进行服务,因此使用 JSON 输入似乎会更容易。
2) 通过“基本”预处理获取 JSON 作为输入 - 我能够成功导出模型。将模型加载到 ML Engine 后,我尝试做出一些预测。虽然返回了预测结果,但我发现无论我如何更改 JSON 输入,都会返回相同的结果。我查看了培训期间获得的验证结果。该模型应该能够返回各种结果。我认为服务函数中的预处理有问题,所以我尝试了第三种方法......
3)具有“相同”预处理的 JSON 输入 - 我无法理解这一点,但我认为可能需要进行与我在模型训练期间处理数据的方式完全相同的预处理。然而,由于服务输入函数使用 tf.placeholders,我不知道如何复制相同的预处理以使导出的模型起作用......
(请原谅我糟糕的编码风格......)
<小时/>训练代码:
col_names = ['featureA','featureB','featureC']
target_name = 'langIntel'
col_def = {}
col_def['featureA'] = {'type':'float','tfType':tf.float32,'len':'fixed'}
col_def['featureB'] = {'type':'int','tfType':tf.int64,'len':'fixed'}
col_def['featureC'] = {'type':'bytes','tfType':tf.string,'len':'var'}
def _float_feature(value):
if not isinstance(value, list): value = [value]
return tf.train.Feature(float_list=tf.train.FloatList(value=value))
def _int_feature(value):
if not isinstance(value, list): value = [value]
return tf.train.Feature(int64_list=tf.train.Int64List(value=value))
def _bytes_feature(value):
if not isinstance(value, list): value = [value]
return tf.train.Feature(
bytes_list=tf.train.BytesList(
value=[p.encode('utf-8') for p in value]
)
)
functDict = {'float':_float_feature,
'int':_int_feature,'bytes':_bytes_feature
}
training_targets = []
# Omitted validatin partition
with open('[JSON FILE PATH]') as jfile:
json_data_input = json.load(jfile)
random.shuffle(json_data_input)
with tf.python_io.TFRecordWriter('savefile1.tfrecord') as writer:
for item in json_data_input:
if item[target_name] > 0:
feature = {}
for col in col_names:
feature[col] = functDict[col_def[col]['type']](item[col])
training_targets.append(item[target_name])
example = tf.train.Example(
features=tf.train.Features(feature=feature)
)
writer.write(example.SerializeToString())
def _parse_function(example_proto):
example = {}
for col in col_names:
if col_def[col]['len'] == 'fixed':
example[col] = tf.FixedLenFeature([], col_def[col]['tfType'])
else:
example[col] = tf.VarLenFeature(col_def[col]['tfType'])
parsed_example = tf.parse_single_example(example_proto, example)
features = {}
for col in col_names:
features[col] = parsed_example[col]
labels = parsed_example.get(target_name)
return features, labels
def my_input_fn(batch_size=1,num_epochs=None):
dataset = tf.data.TFRecordDataset('savefile1.tfrecord')
dataset = dataset.map(_parse_function)
dataset = dataset.shuffle(10000)
dataset = dataset.repeat(num_epochs)
dataset = dataset.batch(batch_size)
iterator = dataset.make_one_shot_iterator()
features, labels = iterator.get_next()
return features, labels
allColumns = None
def train_model(
learning_rate,
n_trees,
n_batchespl,
batch_size):
periods = 10
vocab_list = ('vocab1', 'vocab2', 'vocab3')
featureA_bucket = tf.feature_column.bucketized_column(
tf.feature_column.numeric_column(
key="featureA",dtype=tf.int64
), [5,10,15]
)
featureB_bucket = tf.feature_column.bucketized_column(
tf.feature_column.numeric_column(
key="featureB",dtype=tf.float32
), [0.25,0.5,0.75]
)
featureC_cat = tf.feature_column.indicator_column(
tf.feature_column.categorical_column_with_vocabulary_list(
key="featureC",vocabulary_list=vocab_list,
num_oov_buckets=1
)
)
theColumns = [featureA_bucket,featureB_bucket,featureC_cat]
global allColumns
allColumns = theColumns
regressor = tf.estimator.BoostedTreesRegressor(
feature_columns=theColumns,
n_batches_per_layer=n_batchespl,
n_trees=n_trees,
learning_rate=learning_rate
)
training_input_fn = lambda: my_input_fn(batch_size=batch_size,num_epochs=5)
predict_input_fn = lambda: my_input_fn(num_epochs=1)
regressor.train(
input_fn=training_input_fn
)
# omitted evaluation part
return regressor
regressor = train_model(
learning_rate=0.05,
n_trees=100,
n_batchespl=50,
batch_size=20)
导出试用 1:
def _serving_input_receiver_fn():
serialized_tf_example = tf.placeholder(dtype=tf.string, shape=None,
name='input_example_tensor'
)
receiver_tensors = {'examples': serialized_tf_example}
features = tf.parse_example(serialized_tf_example, feature_spec)
return tf.estimator.export.ServingInputReceiver(features,
receiver_tensors
)
servable_model_dir = "[OUT PATH]"
servable_model_path = regressor.export_savedmodel(servable_model_dir,
_serving_input_receiver_fn
)
导出试用 2:
def serving_input_fn():
feature_placeholders = {
'featureA': tf.placeholder(tf.int64, [None]),
'featureB': tf.placeholder(tf.float32, [None]),
'featureC': tf.placeholder(tf.string, [None, None])
}
receiver_tensors = {'inputs': feature_placeholders}
feature_spec = tf.feature_column.make_parse_example_spec(allColumns)
features = tf.parse_example(feature_placeholders, feature_spec)
return tf.estimator.export.ServingInputReceiver(features,
feature_placeholders
)
servable_model_dir = "[OUT PATH]"
servable_model_path = regressor.export_savedmodel(
servable_model_dir, serving_input_fn
)
导出试用 3:
def serving_input_fn():
feature_placeholders = {
'featureA': tf.placeholder(tf.int64, [None]),
'featureB': tf.placeholder(tf.float32, [None]),
'featureC': tf.placeholder(tf.string, [None, None])
}
def toBytes(t):
t = str(t)
return t.encode('utf-8')
tmpFeatures = {}
tmpFeatures['featureA'] = tf.train.Feature(
int64_list=feature_placeholders['featureA']
)
# TypeError: Parameter to MergeFrom() must be instance
# of same class: expected tensorflow.Int64List got Tensor.
tmpFeatures['featureB'] = tf.train.Feature(
float_list=feature_placeholders['featureB']
)
tmpFeatures['featureC'] = tf.train.Feature(
bytes_list=feature_placeholders['featureC']
)
tmpExample = tf.train.Example(
features=tf.train.Features(feature=tmpFeatures)
)
tmpExample_proto = tmpExample.SerializeToString()
example = {}
for key, tensor in feature_placeholders.items():
if col_def[key]['len'] == 'fixed':
example[key] = tf.FixedLenFeature(
[], col_def[key]['tfType']
)
else:
example[key] = tf.VarLenFeature(
col_def[key]['tfType']
)
parsed_example = tf.parse_single_example(
tmpExample_proto, example
)
features = {}
for key in tmpFeatures.keys():
features[key] = parsed_example[key]
return tf.estimator.export.ServingInputReceiver(
features, feature_placeholders
)
servable_model_dir = "[OUT PATH]"
servable_model_path = regressor.export_savedmodel(
servable_model_dir, serving_input_fn
)
应该如何构建服务输入函数才能输入 JSON 文件进行预测?非常感谢您的任何见解!
最佳答案
只是提供更新 - 我仍然无法完成导出。然后,我使用 Keras 重建了训练模型,并成功导出了用于服务的模型(重建模型可能花费了更少的时间来弄清楚如何在我的案例中导出估计器模型......)
关于python - 如何保存 Tensorflow 估计器模型以在 Google ML Engine 上提供服务,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/56190772/
我开发了一个具有基本安全性的 Spring Boot 应用程序。我有两个具有相同路径和不同 http 方法的端点。当我使用默认密码/使用 application.yml 中给出的密码包含基本安全性时,
我的代码是这样的: 或者,像这样: 如果我首先列出 webm 源,Firefox 4 会播放它,但 Firefox 3.6 也会尝试播放它(但会失败,因为它不支持 webm)。
我希望提供一个泛型类型作为类型参数而不首先将其解析为具体类型。换句话说,我正在寻找一种方法来指定从基类继承时可以使用的类型映射函数。 示例(不正确的)语法,希望比我能解释得更好: abstract c
我在 .NET 中编写了一些桌面应用程序,它们既提供了用于正常使用的前端 GUI,也提供了用于其他需求(例如扩展、调度、自动化、高级使用等)的命令行界面。命名两个可执行文件的最佳做法是什么,因为它们构
我最近在这里思考了很多关于屏幕抓取以及它可能是一项什么样的任务。所以我提出以下问题。 作为网站开发人员,您是否会公开简单的 API 以防止用户抓取屏幕,例如 JSON 结果? 然后这些结果可以实现缓存
我正在为一个项目使用 Dojo 1.9,但我不明白 dojo.provide 的正确替代方案与传统风格相比,AMD 风格。我正在阅读 this文档页面。 很明显,这就是旧语法映射到新语法的方式: 旧
我正在开发一个 Angular 应用程序。当我使用 ng serve 正常运行它时,它运行没有任何错误.但是,当我运行 ng build --prod ,它给出了以下错误。 ERROR in Ille
我有一个 Mac 应用程序。在我的 Mac 应用程序中,我的屏幕之一有一个包含文本字段的 scrollView。在同一屏幕上,我有一个需要提供打印选项的按钮。可以打印文本字段的文本。打印按钮应调用 M
我已经成功地为普通媒体文件提供媒体文件,但是当我尝试提供管理媒体文件时,我失败了。请帮我找出问题所在,因为我已经尝试解决问题几个小时但没有运气(也一直在谷歌搜索并阅读有关提供静态文件的 django
我正在尝试创建一个简单的错误处理项目,它会在收到错误(例如 404、422 或 500)后为 JSON 提供错误数据。我使用来自 this 的代码网站,但它不适合我。 我实际上有这两个类: 基本 Co
假设我有一个名为 Number 的类(class),我打算对 Number 进行大量相等比较对象。我担心通用 Number::equals(Object o) 的“开销”(类比较等...)方法。在这种
假定以下情况: 对等方A只希望将音频流发送给对等方B 对等B只希望将视频流发送给对等A 从而, 与创建报价 var sdpConstraints = { “必填”:{ 'OfferToReceiveA
因为我有一些角度,所以我想检查角度模数 360°: double angle = 0; double expectedAngle = 360; angle.Should().B
这是我的程序中构建的 monad 堆栈: type Px a = ReaderT PConf (State PState) a 其中 PConf 和 PState 是保存应用程序的配置和状态的任意数据
因为我有一些角度,所以我想检查角度模数 360°: double angle = 0; double expectedAngle = 360; angle.Should().B
我有一个小程序需要以某些权限运行,这意味着加载时会显示一条警告消息。如果用户拒绝警告消息,我想重定向到错误页面并解释发生了什么。有什么办法可以做到这一点吗? 我研究过让计时器运行并在特定时间段后重定向
从我可以从 Firebase 文档中推断出,似乎需要服务器来提供静态内容(html和 javascript),所以你需要有一台托管机器和一个静态内容服务器在某处启动并运行,或某些服务托管静态站点。 对
关闭。这个问题是opinion-based 。目前不接受答案。 想要改进这个问题吗?更新问题,以便 editing this post 可以用事实和引文来回答它。 . 已关闭 3 年前。 Improv
我的项目根目录的静态文件夹中有一个文本文件。 我想提供它,所以我创建了: @csrf_exempt def display_text(request): content = retur
我目前正在研究指针,为了进一步理解我正在尝试使用指针将两个数值数组连接成一个。代码如下所示。 #include void concat(int **pa,int **pb,int **pc) {
我是一名优秀的程序员,十分优秀!