gpt4 book ai didi

google-bigquery - 从 Google App Engine 应用程序运行 Google Dataflow 管道?

转载 作者:行者123 更新时间:2023-12-05 01:17:52 25 4
gpt4 key购买 nike

我正在使用 DataflowPipelineRunner 创建数据流作业。我尝试了以下场景。

  1. 不指定任何机器类型
  2. 用g1小机
  3. 使用 n1-highmem-2

在上述所有场景中,输入是来自 GCS 的文件,该文件非常小(KB 大小),输出是大查询表。

我在所有场景中都遇到了内存不足的错误

我编译后的代码大小是 94mb。我只尝试字数统计示例,它没有读取任何输入(它在作业开始前失败)。请帮助我理解为什么会出现此错误。

注意:我正在使用 appengine 开始工作。

注意:相同的代码适用于 beta versoin 0.4.150414

编辑 1

根据答案中的建议尝试了以下操作,

  1. 已从自动缩放切换到基本缩放
  2. 使用的机器类型B2,提供 256MB 内存

经过这些配置,Java堆内存问题就解决了。但是它试图将一个 jar 上传到超过 10Mb 的暂存位置,因此它失败了。

它记录以下异常

com.google.api.client.http.HttpRequest execute: exception thrown while executing request
com.google.appengine.api.urlfetch.RequestPayloadTooLargeException: The request to https://www.googleapis.com/upload/storage/v1/b/pwccloudedw-stagging-bucket/o?name=appengine-api-L4wtoWwoElWmstI1Ia93cg.jar&uploadType=resumable&upload_id=AEnB2Uo6HCfw6Usa3aXlcOzg0g3RawrvuAxWuOUtQxwQdxoyA0cf22LKqno0Gu-hjKGLqXIo8MF2FHR63zTxrSmQ9Yk9HdCdZQ exceeded the 10 MiB limit.
at com.google.appengine.api.urlfetch.URLFetchServiceImpl.convertApplicationException(URLFetchServiceImpl.java:157)
at com.google.appengine.api.urlfetch.URLFetchServiceImpl.fetch(URLFetchServiceImpl.java:45)
at com.google.apphosting.utils.security.urlfetch.URLFetchServiceStreamHandler$Connection.fetchResponse(URLFetchServiceStreamHandler.java:543)
at com.google.apphosting.utils.security.urlfetch.URLFetchServiceStreamHandler$Connection.getInputStream(URLFetchServiceStreamHandler.java:422)
at com.google.apphosting.utils.security.urlfetch.URLFetchServiceStreamHandler$Connection.getResponseCode(URLFetchServiceStreamHandler.java:275)
at com.google.api.client.http.javanet.NetHttpResponse.<init>(NetHttpResponse.java:36)
at com.google.api.client.http.javanet.NetHttpRequest.execute(NetHttpRequest.java:94)
at com.google.api.client.http.HttpRequest.execute(HttpRequest.java:965)
at com.google.api.client.googleapis.media.MediaHttpUploader.executeCurrentRequestWithoutGZip(MediaHttpUploader.java:545)
at com.google.api.client.googleapis.media.MediaHttpUploader.executeCurrentRequest(MediaHttpUploader.java:562)
at com.google.api.client.googleapis.media.MediaHttpUploader.resumableUpload(MediaHttpUploader.java:419)
at com.google.api.client.googleapis.media.MediaHttpUploader.upload(MediaHttpUploader.java:336)
at com.google.api.client.googleapis.services.AbstractGoogleClientRequest.executeUnparsed(AbstractGoogleClientRequest.java:427)
at com.google.api.client.googleapis.services.AbstractGoogleClientRequest.executeUnparsed(AbstractGoogleClientRequest.java:352)
at com.google.api.client.googleapis.services.AbstractGoogleClientRequest.execute(AbstractGoogleClientRequest.java:469)
at com.google.cloud.hadoop.util.AbstractGoogleAsyncWriteChannel$UploadOperation.call(AbstractGoogleAsyncWriteChannel.java:357)
at java.util.concurrent.FutureTask.run(FutureTask.java:260)
at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1168)
at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:605)
at com.google.apphosting.runtime.ApiProxyImpl$CurrentRequestThreadFactory$1$1.run(ApiProxyImpl.java:1152)
at java.security.AccessController.doPrivileged(Native Method)
at com.google.apphosting.runtime.ApiProxyImpl$CurrentRequestThreadFactory$1.run(ApiProxyImpl.java:1146)
at java.lang.Thread.run(Thread.java:745)
at com.google.apphosting.runtime.ApiProxyImpl$CurrentRequestThreadFactory$2$1.run(ApiProxyImpl.java:1195)

我尝试直接上传 jar 文件 - appengine-api-1.0-sdk-1.9.20.jar,它仍然尝试上传这个 jar appengine-api-L4wtoWwoElWmstI1Ia93cg.jar 。我不知道它是什么 jar 。对这个 jar 有什么想法是值得赞赏的。

请帮我解决这个问题。

最佳答案

简短的回答是,如果您在 Managed VM 上使用 AppEngine您不会遇到 AppEngine 沙箱限制(使用 F1 or B1 instance class 时出现 OOM、执行时间限制问题、列入白名单的 JRE 类)。如果您真的想在 App Engine 沙箱中运行,那么您对 ​​Dataflow SDK 的使用最符合 AppEngine 沙箱的限制。下面我将解释常见问题以及人们为遵守 AppEngine 沙盒限制所做的工作。

Dataflow SDK 需要一个 AppEngine 实例类,它有足够的内存来执行用户应用程序以构建管道、暂存任何资源并将作业描述发送到 Dataflow 服务。通常我们看到用户需要使用 instance class内存超过 128mb,不会出现 OOM 错误。

如果您的应用程序所需的资源已经暂存,通常构建管道并将其提交到数据流服务通常需要不到几秒钟的时间。将 JAR 和任何其他资源上传到 GCS 可能需要 60 秒以上的时间。这可以通过预先将 JAR 预暂存到 GCS 来手动解决(如果 Dataflow SDK 检测到它们已经存在,将跳过再次暂存它们)或使用 task queue获得 10 分钟的限制(请注意,对于大型应用程序,10 分钟可能不足以暂存所有资源)。

最后,在 AppEngine 沙箱环境中,您和您的所有依赖项仅限于使用 whitelisted JRE 中的类,否则你会得到如下异常:

java.lang.SecurityException:
java.lang.IllegalAccessException: YYY is not allowed on ZZZ
...

编辑 1

我们对类路径上的 jars 内容进行哈希处理,并使用修改后的文件名将它们上传到 GCS。 AppEngine 使用自己的 JAR 运行沙盒环境,appengine-api-L4wtoWwoElWmstI1Ia93cg.jar 指的是 appengine-api.jar,它是沙盒环境添加的 jar。从我们的PackageUtil#getUniqueContentName(...)可以看出我们只是在 .jar 之前附加 -$HASH

我们正在努力解决您看到 RequestPayloadToLarge 异常的原因,目前建议您设置 filesToStage 选项并过滤掉执行您的程序不需要的 jar解决您面临的问题的数据流。您可以看到我们如何构建文件以使用 DataflowPipelineRunner#detectClassPathResourcesToStage(...) 进行暂存。 .

关于google-bigquery - 从 Google App Engine 应用程序运行 Google Dataflow 管道?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/34130899/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com