gpt4 book ai didi

hadoop - 使用 Google Cloud Dataflow 合并 Google Cloud Storage 中的文件

转载 作者:可可西里 更新时间:2023-11-01 15:32:30 26 4
gpt4 key购买 nike

Nathan Marz 在他的书“Big Data”中描述了如何维护 HDFS 中的数据文件。以及如何使用他的 Pail 优化文件大小以尽可能接近原生 HDFS block 大小在 Map Reduce 之上运行的库.

  1. 是否有可能在 Google Cloud Storage 中获得相同的结果? ?
  2. 我可以使用Google Cloud Dataflow吗?而不是 MapReduce 用于此目的?

最佳答案

Google Cloud Storage 允许组合对象,让您可以将一个对象存储在多个部分中,然后将它们组合起来,一次最多可组合 32 个部分,总共 1024 个组成部分。 API 中提供了此功能。

Composite Objects and Parallel Uploads - Google Cloud Platform Developer's Guide

关于hadoop - 使用 Google Cloud Dataflow 合并 Google Cloud Storage 中的文件,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/30351591/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com