- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我对 TFX 很陌生,但有一个明显有效的 ML 管道,可通过 BulkInferrer 使用。 .这似乎只以 Protobuf 格式生成输出,但由于我正在运行批量推理,我想将结果通过管道传输到数据库。 (DB 输出似乎应该是批量推理的默认值,因为批量推理和 DB 访问都利用了并行化......但 Protobuf 是一种每条记录的序列化格式。)
我想我可以使用类似 Parquet-Avro-Protobuf 的东西进行转换(尽管这是在 Java 中,而管道的其余部分在 Python 中),或者我可以自己编写一些东西来逐一使用所有 protobuf 消息,将它们转换为 JSON,将 JSON 反序列化为一个字典列表,然后将 dict 加载到 Pandas DataFrame 中,或者将其存储为一堆键值对,我将其视为一次性数据库......但这听起来像是很多工作和痛苦,涉及并行化和优化常见用例。顶层 Protobuf 消息定义是 Tensorflow 的 PredictionLog .
这一定是一个常见的用例,因为 TensorFlowModelAnalytics 的功能类似于 this one使用 Pandas 数据帧。我宁愿能够直接写入数据库(最好是 Google BigQuery)或 Parquet 文件(因为 Parquet/Spark 似乎比 Pandas 并行化得更好),而且,这些似乎应该是常见用例,但我没有找到任何例子。也许我使用了错误的搜索词?
我也看了PredictExtractor ,因为“提取预测”听起来接近我想要的......但官方文档似乎没有说明应该如何使用该类。我以为TFTransformOutput听起来像是一个有前途的动词,但实际上它是一个名词。
我显然在这里遗漏了一些基本的东西。有没有人想将 BulkInferrer 结果存储在数据库中的原因?是否有允许我将结果写入数据库的配置选项?也许我想添加一个 ParquetIO或 BigQueryIO实例到 TFX 管道? (TFX 文档说它使用 Beam“under the hood”,但这并没有说明我应该如何将它们一起使用。)但是这些文档中的语法看起来与我的 TFX 代码完全不同,我不确定它们是否重新兼容?
帮助?
最佳答案
(从相关问题复制以提高知名度)
经过一番挖掘,这里是另一种方法,它假设不知道 feature_spec
预先。请执行下列操作:
BulkInferrer
写信给 output_examples
而不是 inference_result
通过添加 output_example_spec到组件构建。 StatisticsGen
和一个 SchemaGen
BulkInferrer
之后的主管道中的组件为上述 output_examples
生成模式SchemaGen
的工件和 BulkInferrer
阅读TFRecords并做任何必要的事情。 bulk_inferrer = BulkInferrer(
....
output_example_spec=bulk_inferrer_pb2.OutputExampleSpec(
output_columns_spec=[bulk_inferrer_pb2.OutputColumnsSpec(
predict_output=bulk_inferrer_pb2.PredictOutput(
output_columns=[bulk_inferrer_pb2.PredictOutputCol(
output_key='original_label_name',
output_column='output_label_column_name', )]))]
))
statistics = StatisticsGen(
examples=bulk_inferrer.outputs.output_examples
)
schema = SchemaGen(
statistics=statistics.outputs.output,
)
之后,您可以执行以下操作:
import tensorflow as tf
from tfx.utils import io_utils
from tensorflow_transform.tf_metadata import schema_utils
# read schema from SchemaGen
schema_path = '/path/to/schemagen/schema.pbtxt'
schema_proto = io_utils.SchemaReader().read(schema_path)
spec = schema_utils.schema_as_feature_spec(schema_proto).feature_spec
# read inferred results
data_files = ['/path/to/bulkinferrer/output_examples/examples/examples-00000-of-00001.gz']
dataset = tf.data.TFRecordDataset(data_files, compression_type='GZIP')
# parse dataset with spec
def parse(raw_record):
return tf.io.parse_example(raw_record, spec)
dataset = dataset.map(parse)
在这一点上,数据集就像任何其他解析过的数据集一样,因此写入 CSV 或 BigQuery 表或从那里开始的任何内容都是微不足道的。它确实帮助了我们
ZenML与我们的
BatchInferencePipeline .
关于database - 如何从 TFX BulkInferrer 获取数据帧或数据库写入?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/65525944/
我是 tensorflow 的初学者,现在我在一个项目中需要为 tensorflow 部署分布式生产平台。如果我能得到一些帮助来澄清我的想法,我将不胜感激。 阅读online doument , 和
有没有办法使用tfx-cli从“tfx”服务器下载task.json? 我想使用以下命令恢复我们在 tfx 中上传的 task.json: tfx build tasks upload –task.p
有没有办法使用tfx-cli从“tfx”服务器下载task.json? 我想使用以下命令恢复我们在 tfx 中上传的 task.json: tfx build tasks upload –task.p
在阅读 TFX 的文档时,尤其是与数据预处理相关的部分,我认为流水线设计更适合分类特征。 我想知道 TFX 是否也可以用于涉及图像的管道。 最佳答案 是的,TFX 也可以用于涉及图像的管道。 特别是在
您好,我正在尝试让 TFX Pipeline 像练习一样运行。我正在使用 ImportExampleGen 从磁盘加载 TFRecords。 TFRecord 中的每个 Example 都包含字节字符
我是 TFX 的新手,我一直在学习 Keras 教程,并且已经使用我的数据成功创建了 TFX 管道。当我学习通过带有 TF 服务的 Docker 为我的模型提供服务时,我的数据输入必须按如下方式序列化
我对 TFX 很陌生,但有一个明显有效的 ML 管道,可通过 BulkInferrer 使用。 .这似乎只以 Protobuf 格式生成输出,但由于我正在运行批量推理,我想将结果通过管道传输到数据库。
我正在尝试为我的模型制作一个评估器。到目前为止,所有其他组件都很好,但是当我尝试此配置时: eval_config = tfma.EvalConfig( model_specs=[
嘿,我正在开发一个包,该包生成用于训练 GPT-2 的 TFX 管道(参见 https://github.com/steven-mi/tfx-gpt2)。 我想知道如何在本地将我的管道部署到 Kube
据我了解,TensorFlow 使用 MLMD记录和检索与工作流相关的元数据。这可能包括: 管道组件的结果 关于通过管道组件生成的工件的元数据 有关这些组件执行的元数据 有关管道和关联沿袭信息的元数据
我喜欢让多个培训师使用相同的 ExampleGen、Schema 和 Transform 同时运行。下面是我的代码,添加了额外的组件作为 trainer2 evaluator2 和 pusher2。但
当我访问我的 Kubeflow 端点以使用克隆的 TFX 上传和运行管道时,该过程在生成此消息的第一步开始挂起: “此步骤处于待处理状态,并显示以下消息:ImagePullBackOff: Back-
我的公司有一个本地 TFS 2017 实例。我知道如何通过 Web 界面安装和更新扩展程序,但这很乏味。我想知道是否有更快的方法来使用 tfs-cli . 最佳答案 由于某种原因,我花了一段时间才弄清
我希望有人能澄清 TensorFlow 与其依赖项(Beam、AirFlow、Flink 等)之间的关系 我正在引用主 TFX 页面: https://www.tensorflow.org/tfx/g
我们正在 Airflow 上构建一个自动化的 TFX 管道,我们的模型基于 Keras Tutorial .我们保存keras模型如下: model.save(fn_args.serving_mode
我是一名优秀的程序员,十分优秀!