- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我有一个流读取准备将特征数据发布到一个已经注册的模型中。所有代码都在 Python 中。以下模型和元数据在常规笔记本中的流之外运行。在流中是另一回事。主要问题是从流中写入的数据(写入目标表)具有 NULL 预测。另一件事是 foreachBatch
函数似乎没有响应,甚至对故意植入的语法错误也是如此。日志或笔记本反馈中没有迹象表明这是一个问题。就好像没有被调用一样。
我意识到我正在向表写入两次(一次在函数中,一次在 writeStream
中。只有一条记录来自 writeStream
- 而不是功能。
代码如下:
from pyspark.sql import SparkSession
from pyspark.sql.functions import explode
from pyspark.sql.functions import split
spark = SparkSession \
.builder \
.appName("MyTest") \
.getOrCreate()
# Create a streaming DataFrame
lines = spark.readStream \
.format("delta") \
.option('ignoreDeletes','true') \
.table("schema.transformeddata")
fixedValueStream = lines.select('feature1','feature2', 'feature3')
# Split the lines into words
def batchpredictions(df, epoch_id):
pyfunc_udf = mlflow.pyfunc.spark_udf(spark, model_uri='runs:/<myrunid>/model')
prediction = df.withColumn("prediction", pyfunc_udf(struct('feature1','feature2','feature3')))
prediction.write.mode("append").saveAsTable("schema.transformeddata_prediction")
fixedValueStream.writeStream.format("delta").outputMode("append").foreachBatch(batchpredictions).option("checkpointLocation", "/delta/events/_checkpoints/etl-from-json").table("schema.transformeddata_prediction")
传入数据:
feature1, feature2, feature3
1 , 5 , 9
2 , 6 , 10
3 , 7 , 11
4 , 8 , 12
传出数据
feature1, feature2, feature3, prediction
1 , 5 , 9 , NULL
2 , 6 , 10 , NULL
3 , 7 , 11 , NULL
4 , 8 , 12 , NULL
关于我做错了什么的任何线索?
*更新:感谢 Mike 的回复。我的目标是使用您建议的一些内容开始优化下面的解决方案。现在我只需要找到一些可以工作的东西来依靠。当前状态下的解决方案如下。
from pyspark.sql import SparkSession
from pyspark.sql.functions import explode
from pyspark.sql.functions import *
import mlflow
import mlflow.xgboost
import xgboost
import numpy as np
import pandas as pd
from pyspark.sql.types import *
# Load model as a PysparkUDF
loaded_model = mlflow.pyfunc.load_model('runs:/<mymodelrunid>/model')
spark = SparkSession \
.builder \
.appName("MyTest") \
.getOrCreate()
# Create a streaming DataFrame
lines = spark.readStream \
.format("delta") \
.option('ignoreDeletes','true') \
.table("<myschema>.<mytableinput>")
fixedValueStream = lines.select('feature1','feature2', 'feature3', 'feature4', 'feature5')
def foreach_batch_function(df, epoch_id):
#text value of the multi class prediction GREEN, RED, BLUE
df = df.withColumn("pred_class", lit(' '))
#Prepare 3 holders for the 3 class scores returned from multiclass model.
#Done before hand so I don't have to deal with data type/additional column index/key issues.
df = df.withColumn("prediction_class1", lit(0.00).cast("double"))
df = df.withColumn("prediction_class2", lit(0.00).cast("double"))
df = df.withColumn("prediction_class3", lit(0.00).cast("double"))
#Select back into pandas frame
pd_df = df.select('feature1','feature2', 'feature3', 'feature4', 'feature5','pred_class','prediction_class1','prediction_class2','prediction_class3').toPandas()
#Pass pandas frame into model and return array of shape [<batch-df-rows-count>][3]
y_pred = loaded_model.predict(pd_df)
#Retun the max column score
predicted_idx = np.argmax(y_pred, axis=1)
#Translate said column into end user labels
y_pred_class = np.where(predicted_idx == 1, 'GREEN', np.where(predicted_idx == 0, 'RED', 'BLUE' ))
#Assign class to place holder column
pd_df["pred_class"] = y_pred_class
#Store the 3 prediction strengths into place holder columns
pd_df["prediction_class1"] = y_pred[:,0]
pd_df["prediction_class2"] = y_pred[:,1]
pd_df["prediction_class3"] = y_pred[:,2]
#Write out back to a monitoring table
result = spark.createDataFrame(pd_df)
result.write.option("mergeSchema","true").format("delta").option("header", "true").mode("append").saveAsTable("<myschema>.<mytableoutput>")
#write stream out
fixedValueStream.writeStream.foreachBatch(foreach_batch_function).start()
最佳答案
正如@AlexOtt 在评论中指出的那样,就您当前编写的问题而言,无需应用 foreachBatch
。
您需要做的就是使用 withColumn
将 UDF 应用到您的流数据帧。
如果您确实需要使用 foreachBatch
,可能是因为您正在写入不可流式接收器格式,您可以阅读下面的操作方法。
查看 Structured Streaming Programming Guidelines 中关于 foreachBatch
的文档,您不需要在最终的 writeStream 中使用 format
和 outputMode
。相反,写入数据的逻辑是在 foreachBatch 函数中定义的。此外,在流中使用 saveAsTable
看起来也不正确。
总体而言,您的代码应如下所示:
def batchpredictions(df, epoch_id):
# Split the lines into words
pyfunc_udf = mlflow.pyfunc.spark_udf(spark, model_uri='runs:/<myrunid>/model')
prediction = df.withColumn("prediction", pyfunc_udf(struct('feature1', 'feature2', 'feature3')))
prediction.write.mode("append").format("delta").save("/tmp/delta-table")
fixedValueStream.writeStream.foreachBatch(batchpredictions).option("checkpointLocation", "/delta/events/_checkpoints/etl-from-json").start()
关于python - 如何在流中应用 MLFlow 预测模型?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/67269002/
我正在通过 labrepl 工作,我看到了一些遵循此模式的代码: ;; Pattern (apply #(apply f %&) coll) ;; Concrete example user=> (a
我从未向应用商店提交过应用,但我会在不久的将来提交。 到目前为止,我对为 iPhone 而非 iPad 进行设计感到很自在。 我了解,通过将通用PAID 应用放到应用商店,客户只需支付一次就可以同时使
我有一个应用程序,它使用不同的 Facebook 应用程序(2 个不同的 AppID)在 Facebook 上发布并显示它是“通过 iPhone”/“通过 iPad”。 当 Facebook 应用程序
我有一个要求,我们必须通过将网站源文件保存在本地 iOS 应用程序中来在 iOS 应用程序 Webview 中运行网站。 Angular 需要服务器来运行应用程序,但由于我们将文件保存在本地,我们无法
所以我有一个单页客户端应用程序。 正常流程: 应用程序 -> OAuth2 服务器 -> 应用程序 我们有自己的 OAuth2 服务器,因此人们可以登录应用程序并获取与用户实体关联的 access_t
假设我有一个安装在用户设备上的 Android 应用程序 A,我的应用程序有一个 AppWidget,我们可以让其他 Android 开发人员在其中以每次安装成本为基础发布他们的应用程序推广广告。因此
Secrets of the JavaScript Ninja中有一个例子它提供了以下代码来绕过 JavaScript 的 Math.min() 函数,该函数需要一个可变长度列表。 Example:
当我分别将数组和对象传递给 function.apply() 时,我得到 NaN 的 o/p,但是当我传递对象和数组时,我得到一个数字。为什么会发生这种情况? 由于数组也被视为对象,为什么我无法使用它
CFSDN坚持开源创造价值,我们致力于搭建一个资源共享平台,让每一个IT人在这里找到属于你的精彩世界. 这篇CFSDN的博客文章ASP转换格林威治时间函数DateDiff()应用由作者收集整理,如果你
我正在将列表传递给 map并且想要返回一个带有合并名称的 data.frame 对象。 例如: library(tidyverse) library(broom) mtcars %>% spl
我有一个非常基本的问题,但我不知道如何实现它:我有一个返回数据框,其中每个工具的返回值是按行排列的: tmp<-as.data.frame(t(data.frame(a=rnorm(250,0,1)
我正在使用我的 FB 应用创建群组并邀请用户加入我的应用群组,第一次一切正常。当我尝试创建另一个组时,出现以下错误: {"(OAuthException - #4009) (#4009) 在有更多用户
我们正在开发一款类似于“会说话的本”应用程序的 child 应用程序。它包含大量用于交互式动画的 JPEG 图像序列。 问题是动画在 iPad Air 上播放正常,但在 iPad 2 上播放缓慢或滞后
我关注 clojure 一段时间了,它的一些功能非常令人兴奋(持久数据结构、函数式方法、不可变状态)。然而,由于我仍在学习,我想了解如何在实际场景中应用,证明其好处,然后演化并应用于更复杂的问题。即,
我开发了一个仅使用挪威语的应用程序。该应用程序不使用本地化,因为它应该仅以一种语言(挪威语)显示。但是,我已在 Info.plist 文件中将“本地化 native 开发区域”设置为“no”。我还使用
读完 Anthony's response 后上a style-related parser question ,我试图说服自己编写单体解析器仍然可以相当紧凑。 所以而不是 reference ::
multicore 库中是否有类似 sapply 的东西?还是我必须 unlist(mclapply(..)) 才能实现这一点? 如果它不存在:推理是什么? 提前致谢,如果这是一个愚蠢的问题,我们深表
我喜欢在窗口中弹出结果,以便更容易查看和查找(例如,它们不会随着控制台继续滚动而丢失)。一种方法是使用 sink() 和 file.show()。例如: y <- rnorm(100); x <- r
我有一个如下所示的 spring mvc Controller @RequestMapping(value="/new", method=RequestMethod.POST) public Stri
我正在阅读 StructureMap关于依赖注入(inject),首先有两部分初始化映射,具体类类型的接口(interface),另一部分只是实例化(请求实例)。 第一部分需要配置和设置,这是在 Bo
我是一名优秀的程序员,十分优秀!