- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我正在寻找一种方法,将大量文件(超过 1000 万个)从 S3 存储桶移动到 Google Cloud Storage,但到目前为止遇到了问题。
目前我正在使用 gsutil,因为它本身支持 S3 和 GCS 之间的通信,但我获得的性能不太好。也许我只是做错了事情,但我一直在使用以下 gsutil 命令:
gsutil -m cp -R s3://bucket gs://bucket
我启动了一个 c3.2xlarge AWS 实例(16GB 8CPU),这样我就可以获得足够的马力,但该盒子的吞吐量似乎并没有比 2GB 2CPU 盒子更好,我不明白?
我一直在摆弄 ~/.boto
配置文件,目前设置了以下选项:
parallel_process_count = 8
parallel_thread_count = 100
我认为将线程数增加 10 倍肯定会有所帮助,但从我到目前为止的测试来看,还没有产生任何影响。还有什么可以提高性能吗?
或者是否有更好的工具可以将 S3 数据移动到 GCS?我正在查看 SDK,很想用 Java 编写一些东西。
最佳答案
Google Cloud Storage Online Cloud Import专门用于从大量 URL 列表或 S3 存储桶将大尺寸和大量文件导入到 GCS。它是针对使用“gsutil -m”需要太长时间的数据大小而设计的(这是首先尝试的一件好事)。目前可以免费使用。
(免责声明,我是该项目的 PM)
关于amazon-s3 - 将数百万个文件从 S3 复制到 GCS 的最佳方式?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/24682010/
3-d 中的点由 (x,y,z) 定义。任意两点 (X,Y,Z) 和 (x,y,z) 之间的距离 d 为 d= Sqrt[(X-x)^2 + (Y-y)^2 + (Z-z)^2]。现在一个文件中有一百
我是一名优秀的程序员,十分优秀!