gpt4 book ai didi

java - Google App Engine 中长时间运行的程序

转载 作者:塔克拉玛干 更新时间:2023-11-02 07:46:34 26 4
gpt4 key购买 nike

我用 Java 编写了一个 servlet 代码,用于从存储在 Google Cloud Storage 中的文件中读取一行。阅读每一行后,我将其传递给 prediction API 。一旦我得到通过的文本的预测。我将它附加到原始行并将其存储在 Google 云存储中的其他文件中。

此源文件是一个 csv 文件,包含 10,000 多条记录。因为我是单独解析它,所以将它传递给预测 API,然后存储回 Cloud Storage。这样做需要很多时间。由于 App Engine 有 30 个部分的限制,任务队列也有限制。任何人都可以建议我一些选择吗?由于重新启动程序不是一种选择,因为我无法从我停止的地方启动预测。

这是我的代码:

@SuppressWarnings("serial")
public class PredictionWebAppServlet extends HttpServlet {

private static final String APPLICATION_NAME = "span-test-app";

static final String MODEL_ID = "span-senti";
static final String STORAGE_DATA_LOCATION = "/bigdata/training_set/";
private static HttpTransport httpTransport;
private static final JsonFactory JSON_FACTORY = JacksonFactory
.getDefaultInstance();

public static final String INPUT_BUCKETNAME = "bigdata";
public static final String INPUT_FILENAME = "abc.csv";

public static final String OUTPUT_BUCKETNAME = "bigdata";
public static final String OUTPUT_FILENAME = "def.csv";

private static Credential authorize() throws Exception {

Credential cr = new GoogleCredential.Builder()
.setTransport(httpTransport)
.setJsonFactory(JSON_FACTORY)
.setServiceAccountId(
"878482284233-aacp8vd5297aqak7v5r0f507qr63mab4@developer.gserviceaccount.com")
.setServiceAccountScopes(
Collections.singleton(PredictionScopes.PREDICTION))
.setServiceAccountPrivateKeyFromP12File(
new File(
"28617ba6faac0a51eb2208edba85d2e20e6081b4-privatekey.p12"))
.build();
return cr;
}



public void doGet(HttpServletRequest req, HttpServletResponse resp)
throws IOException {
try {
httpTransport = GoogleNetHttpTransport.newTrustedTransport();
Credential credential = authorize();

Prediction prediction = new Prediction.Builder(httpTransport,
JSON_FACTORY, credential).setApplicationName(APPLICATION_NAME)
.build();


GcsService gcsService = GcsServiceFactory.createGcsService();

GcsFilename filename = new GcsFilename(INPUT_BUCKETNAME, INPUT_FILENAME);
GcsFilename filename1 = new GcsFilename(OUTPUT_BUCKETNAME,
OUTPUT_FILENAME);
GcsFileOptions options = new GcsFileOptions.Builder()
.mimeType("text/html").acl("public-read")
.addUserMetadata("myfield1", "my field value").build();


GcsOutputChannel writeChannel = gcsService.createOrReplace(filename1, options);

PrintWriter writer = new PrintWriter(Channels.newWriter(writeChannel,
"UTF8"));


GcsInputChannel readChannel = null;
BufferedReader reader = null;

readChannel = gcsService.openReadChannel(filename, 0);
reader = new BufferedReader(Channels.newReader(readChannel, "UTF8"));
String line;
String cvsSplitBy = ",";
String temp_record = "";
Input input = new Input();
InputInput inputInput = new InputInput();


while ((line = reader.readLine()) != null) {

String[] post = line.split(cvsSplitBy);

inputInput.setCsvInstance(Collections
.<Object> singletonList(post[1]));
input.setInput(inputInput);

Output output = prediction.trainedmodels()
.predict("878482284233", MODEL_ID, input).execute();
for (int i = 0; i < 10; i++) {
temp_record = temp_record + post[i] + ",";
}
temp_record = temp_record + output.getOutputLabel();


writer.println(temp_record);

}

writer.flush();
writer.close();

//resp.getWriter().println(temp_record);
} catch (Exception e) {
// TODO Auto-generated catch block
e.printStackTrace();
}
finally{

}
}
}

最佳答案

你自己在暗示。

如果您认为您的工作可以在 10 分钟内完成,您可以单独使用任务队列。

否则,您将需要结合使用任务队列和后端。您需要将其推送到后端实例中。看看Push queues and backends

更新 - 使用模块而不是后端

后端已弃用,取而代之的是模块。使用模块的一种方法是:

  1. 将您的应用程序转换为模块结构
  2. 定义一个带有手动缩放的模块
  3. 处理该模块中的“/_ah/start”url
  4. 在“/_ah/start”处理程序中执行所有作业

手动缩放实例对其运行时间没有限制。如果实例具有手动扩展,您可以在“/_ah/start”请求中“永远”运行。嘿,如果你愿意,你甚至可以启动线程。但这对于这项工作来说应该不是必需的。一直运行直到完成。

关于java - Google App Engine 中长时间运行的程序,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/24738860/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com