gpt4 book ai didi

hadoop - Hive动态分区-Spark的并发写入会破坏数据

转载 作者:行者123 更新时间:2023-12-02 18:23:38 26 4
gpt4 key购买 nike

我们已经设置了一个 Spark 作业,以插入到Hive中(使用数据框)。配置单元表用于创建动态分区。只要我们运行一个spark作业以将数据插入Hive,一切都将正常运行。

我们遇到的问题是,我们期望运行并发的Spark作业以将数据加载到Hive中。这似乎不起作用。我读过,动态分区不提供排他锁,而是提供共享锁。在我们的案例中,我们可以看到,如果同时运行4-5个Spark作业,则数据将被破坏,某些记录将丢失。几乎每次都非常容易复制。

有人解决了吗?即使用带有并发作业的动态分区将其插入配置单元表,并仍确保不会发生数据损坏。任何输入,不胜感激!

Spark 代码的片段:

// Set hive conf to allow dynamic partitions to be created
sqlContext.setConf("hive.exec.dynamic.partition.mode", "nonstrict")

//Create temp table to load data into Hive
parsedDataDF.registerTempTable("parsedDatatempTable")

//Insert data into Hive, dynamic partitioning
sqlContext.sql("insert into table " + hiveDBToLoad + "." + hiveTableToLoad + " partition (partition_1, partition_2, partition_3) " +
"select * from parsedDatatempTable")

最佳答案

    $partition_tbl=array();
$partition_tbl[]=array(
'tbl'=>$wpdb->prefix.'postmeta',
'field'=>'meta_id',
'limit'=>2,
'part_key'=>'p',
);
$partition_tbl[]=array(
'tbl'=>$wpdb->prefix.'posts',
'field'=>'ID',
'limit'=>2,
'part_key'=>'pos',
);

if(!empty($partition_tbl)){
foreach($partition_tbl as $ppptt){
$field=$ppptt['field'];
$tbl=$ppptt['tbl'];
$limit=$ppptt['limit'];
$part_key=$ppptt['part_key'];
$get_max = $wpdb->get_results("SELECT * FROM ".$wpdb->prefix."postmeta ORDER BY $field DESC LIMIT 0, 1");
if(!empty($get_max)){
$max=$get_max[0]->$field;
if($max > $limit){
$partcc=ceil($max/$limit);
$has_partitions = $wpdb->get_results("EXPLAIN partitions SELECT * FROM ".$tbl);
$haspartarr=array('none');
if(!empty($has_partitions)){
if(!empty($has_partitions[0]->partitions)){
$haspartarr=explode(",",$has_partitions[0]->partitions);
if(count($haspartarr) > 1){
unset($haspartarr[count($haspartarr)-1]);
}
}
}
$part_sql='';
$part_arr=array();
$first=true;
for($i=0;$i<$partcc;$i++){
$cpart=$part_key.$i;
$reclim=$limit*($i+1);
if(!in_array($cpart,$haspartarr)){
if(empty($has_partitions[0]->partitions)){
$part_arr[]="PARTITION $cpart VALUES LESS THAN ($reclim)";
}else{
$nwlmn=($reclim-$limit);
if($first){
$part_sql.="ALTER TABLE $tbl REORGANIZE PARTITION $cpart INTO (";
$first=false;
$morel=$nwlmn-$limit;
}
$part_arr[]="PARTITION $cpart VALUES LESS THAN ($reclim)";
}
}
}
if(empty($has_partitions[0]->partitions) && !empty($part_arr)){
$cpart=$part_key.$i;
$part_arr[]="PARTITION $cpart VALUES LESS THAN MAXVALUE";
$part_sql.="ALTER TABLE $tbl PARTITION BY RANGE($field)(";
$part_sql.=implode(",",$part_arr);
$part_sql.=")";
$wpdb->get_results($part_sql);
}else{
if(!empty($part_arr)){
$cpart=$part_key.$i;
$part_arr[]="PARTITION $cpart VALUES LESS THAN MAXVALUE";
$part_sql.=implode(",",$part_arr);
$part_sql.=");";
$wpdb->get_results($part_sql);
}
}
}
}

}
}

关于hadoop - Hive动态分区-Spark的并发写入会破坏数据,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/41349118/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com