gpt4 book ai didi

amazon-s3 - 将数据从 S3 导入到 DynamoDB

转载 作者:行者123 更新时间:2023-12-01 13:45:13 24 4
gpt4 key购买 nike

我正在尝试将已上传到 S3 的 JSON 文件导入 DynamoDB

我按照亚马逊给的教程做了

http://docs.aws.amazon.com/datapipeline/latest/DeveloperGuide/dp-importexport-ddb-console-start.html

但是当我尝试激活管道时,组件 TableLoadActivity 失败并且 DDBDestinationTable 显示 CASCADE_FAILED

都报错

在 org.apache.hadoop.mapreduce.JobSubmitter.writeOldSplits(JobSubmitter.java:520) 在 org.apache.hadoop.mapreduce.JobSubmitter.writeSplits(JobSubmitter.java:512) 在 org.apache.hadoop.mapreduce。 JobSubmitter.submitJobInternal(JobSubmitter.java:394) 在 org.apache.hadoop.mapreduce.Job$10.run(Job.java:1285) 在 org.apache.hadoop.mapreduce.Job$10.run(Job.java:1282)在 java.security.AccessController.doPrivileged(Native Method) 在 javax.security.auth.Subject.doAs(Subject.java:415) 在 org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1548) 在 org .apache.hadoop.mapreduce.Job.submit(Job.java:1282) 在 org.apache.hadoop.mapred.JobClient$1.run(JobClient.java:562) 在 org.apache.hadoop.mapred.JobClient$1.run (JobClient.java:557) 在 java.security.AccessController.doPrivileged(Native Method) 在 javax.security.auth.Subject.doAs(Subject.java:415) 在 org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation) .java:1548) 在 org.apache.hadoop.mapred.JobClient.submit工作内部(

任何帮助将不胜感激

最佳答案

我发现您必须选择存在“ list ”的内部文件夹。这曾经是包含备份日期和时间的文件夹。

我在选择父文件夹时收到此错误,我给出了我的表名。

关于amazon-s3 - 将数据从 S3 导入到 DynamoDB,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/36460009/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com