- android - RelativeLayout 背景可绘制重叠内容
- android - 如何链接 cpufeatures lib 以获取 native android 库?
- java - OnItemClickListener 不起作用,但 OnLongItemClickListener 在自定义 ListView 中起作用
- java - Android 文件转字符串
我正在 Apache flink sql api 中构建管道。管道进行简单的投影查询。但是,我需要在查询之前和查询之后再写一次元组(恰好是每个元组中的一些元素)。事实证明,我用来写入 redis 的代码严重降低了性能。即 flink 以非常小的数据速率产生背压。我的代码有什么问题,我该如何改进。请有任何建议。
当我停止向redis写入前后性能都非常出色。这是我的管道代码:
public class QueryExample {
public static Long throughputCounterAfter=new Long("0");
public static void main(String[] args) {
int k_partitions = 10;
reamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
env.setStreamTimeCharacteristic(TimeCharacteristic.EventTime);
env.setParallelism(5 * 32);
Properties props = new Properties();
props.setProperty("zookeeper.connect", "zookeeper-node-01:2181");
props.setProperty("bootstrap.servers", "kafka-node-01:9092,kafka-node-02:9092,kafka-node-03:9092");
// not to be shared with another job consuming the same topic
props.setProperty("group.id", "flink-group");
props.setProperty("enable.auto.commit","false");
FlinkKafkaConsumer011<String> purchasesConsumer=new FlinkKafkaConsumer011<String>("purchases",
new SimpleStringSchema(),
props);
DataStream<String> purchasesStream = env
.addSource(purchasesConsumer)
.setParallelism(Math.min(5 * 32, k_partitions));
DataStream<Tuple4<Integer, Integer, Integer, Long>> purchaseWithTimestampsAndWatermarks =
purchasesStream
.flatMap(new PurchasesParser())
.assignTimestampsAndWatermarks(new BoundedOutOfOrdernessTimestampExtractor<Tuple4<Integer, Integer, Integer, Long>>(Time.seconds(10)) {
@Override
public long extractTimestamp(Tuple4<Integer, Integer, Integer, Long> element) {
return element.getField(3);
}
});
Table purchasesTable = tEnv.fromDataStream(purchaseWithTimestampsAndWatermarks, "userID, gemPackID,price, rowtime.rowtime");
tEnv.registerTable("purchasesTable", purchasesTable);
purchaseWithTimestampsAndWatermarks.flatMap(new WriteToRedis());
Table result = tEnv.sqlQuery("SELECT userID, gemPackID, rowtime from purchasesTable");
DataStream<Tuple2<Boolean, Row>> queryResultAsDataStream = tEnv.toRetractStream(result, Row.class);
queryResultAsDataStream.flatMap(new WriteToRedis());
try {
env.execute("flink SQL");
} catch (Exception e) {
e.printStackTrace();
}
}
/**
* write to redis
*/
public static class WriteToRedis extends RichFlatMapFunction<Tuple4<Integer, Integer, Integer, Long>, String> {
RedisReadAndWrite redisReadAndWrite;
@Override
public void open(Configuration parameters) {
LOG.info("Opening connection with Jedis to {}", "redis");
this.redisReadAndWrite = new RedisReadAndWrite("redis",6379);
}
@Override
public void flatMap(Tuple4<Integer, Integer, Integer, Long> input, Collector<String> out) throws Exception {
this.redisReadAndWrite.write(input.f0+":"+input.f3+"","time_seen", TimeUnit.NANOSECONDS.toMillis(System.nanoTime())+"");
}
}
}
public class RedisReadAndWrite {
private Jedis flush_jedis;
public RedisReadAndWrite(String redisServerName , int port) {
flush_jedis=new Jedis(redisServerName,port);
}
public void write(String key,String field, String value) {
flush_jedis.hset(key,field,value);
}
}
附加部分:我尝试了第二个实现过程函数,该函数使用 Jedis 批量写入 toredis。但是我收到以下错误。 org.apache.flink.runtime.client.JobExecutionException:redis.clients.jedis.exceptions.JedisConnectionException:java.net.SocketException:套接字未连接。我试着减少批处理消息的数量,但过了一会儿我仍然遇到错误。
下面是流程函数的实现:
/** * 使用进程函数写入redis */
public static class WriteToRedisAfterQueryProcessFn extends ProcessFunction<Tuple2<Boolean, Row>, String> {
Long timetoFlush;
@Override
public void open(Configuration parameters) {
flush_jedis=new Jedis("redis",6379,1800);
p = flush_jedis.pipelined();
this.timetoFlush=System.currentTimeMillis()-initialTime;
}
@Override
public void processElement(Tuple2<Boolean, Row> input, Context context, Collector<String> collector) throws Exception {
p.hset(input.f1.getField(0)+":"+new Instant(input.f1.getField(2)).getMillis()+"","time_updated",TimeUnit.NANOSECONDS.toMillis(System.nanoTime())+"");
throughputAccomulationcount++;
System.out.println(throughputAccomulationcount);
if(throughputAccomulationcount==50000){
throughputAccomulationcount=0L;
p.sync();
}
}
}
最佳答案
毫无疑问,您遇到的性能不佳是因为您正在为每次写入向 redis 发出同步请求。 @kkrugler 已经提到了异步 i/o,这是针对这种情况的常见补救措施。这将需要切换到支持异步操作的 redis 客户端之一。
另一种在使用外部服务时常用的解决方案是将写入组批处理在一起。使用绝地武士,您可以使用 pipelining .例如,您可以将 WriteToRedis
RichFlatMapFunction 替换为 ProcessFunction,该 ProcessFunction 以一定大小的批处理对 Redis 进行流水线写入,并根据需要依赖超时来刷新其缓冲区。您可以使用 Flink 的 ListState 作为缓冲区。
关于redis - 如何高效地将数据从flink管道写入redis,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/53947481/
我正在使用 Assets 管道来管理我的 Grails 3.0 应用程序的前端资源。但是,似乎没有创建 CoffeeScript 文件的源映射。有什么办法可以启用它吗? 我的 build.gradle
我有一个我想要的管道: 提供一些资源, 运行一些测试, 拆资源。 我希望第 3 步中的拆卸任务运行 不管 测试是否通过或失败,在第 2 步。据我所知 runAfter如果前一个任务成功,则只运行一个任
如果我运行以下命令: Measure-Command -Expression {gci -Path C:\ -Recurse -ea SilentlyContinue | where Extensio
我知道管道是一个特殊字符,我需要使用: Scanner input = new Scanner(System.in); String line = input.next
我再次遇到同样的问题,我有我的默认处理方式,但它一直困扰着我。 有没有更好的办法? 所以基本上我有一个运行的管道,在管道内做一些事情,并想从管道内返回一个键/值对。 我希望整个管道返回一个类型为 ps
我有三个环境:dev、hml 和 qa。 在我的管道中,根据分支,阶段有一个条件来检查它是否会运行: - stage: Project_Deploy_DEV condition: eq(varia
我有 Jenkins Jenkins ver. 2.82 正在运行并想在创建新作业时使用 Pipeline 功能。但我没有看到这个列为选项。我只能在自由式项目、maven 项目、外部项目和多配置之间进
在对上一个问题 (haskell-data-hashset-from-unordered-container-performance-for-large-sets) 进行一些观察时,我偶然发现了一个奇
我正在寻找有关如何使用管道将标准输出作为其他命令的参数传递的见解。 例如,考虑这种情况: ls | grep Hello grep 的结构遵循以下模式:grep SearchTerm PathOfFi
有没有办法不因声明性管道步骤而失败,而是显示警告?目前我正在通过添加 || exit 0 来规避它到 sh 命令行的末尾,所以它总是可以正常退出。 当前示例: sh 'vendor/bin/phpcs
我们正在从旧的 Jenkins 设置迁移到所有计划都是声明性 jenkinsfile 管道的新服务器……但是,通过使用管道,我们无法再手动清除工作区。我如何设置 Jenkins 以允许 手动点播清理工
我在 Python 中阅读了有关 Pipelines 和 GridSearchCV 的以下示例: http://www.davidsbatista.net/blog/2017/04/01/docume
我有一个这样的管道脚本: node('linux'){ stage('Setup'){ echo "Build Stage" } stage('Build'){ echo
我正在使用 bitbucket 管道进行培训 这是我的 bitbucket-pipelines.yml: image: php:7.2.9 pipelines: default:
我正在编写一个程序,其中输入文件被拆分为多个文件(Shamir 的 secret 共享方案)。 这是我想象的管道: 来源:使用 Conduit.Binary.sourceFile 从输入中读取 导管:
我创建了一个管道,它有一个应该只在开发分支上执行的阶段。该阶段还需要用户输入。即使我在不同的分支上,为什么它会卡在这些步骤的用户输入上?当我提供输入时,它们会被正确跳过。 stage('Deplo
我正在尝试学习管道功能(%>%)。 当试图从这行代码转换到另一行时,它不起作用。 ---- R代码--原版----- set.seed(1014) replicate(6,sample(1:8))
在 Jenkins Pipeline 中,如何将工件从以前的构建复制到当前构建? 即使之前的构建失败,我也想这样做。 最佳答案 Stuart Rowe 还在 Pipeline Authoring Si
我正在尝试使用 执行已定义的作业构建 使用 Jenkins 管道的方法。 这是一个简单的例子: build('jenkins-test-project-build', param1 : 'some-
当我使用 where 过滤器通过管道命令排除对象时,它没有给我正确的输出。 PS C:\Users\Administrator> $proall = Get-ADComputer -filter *
我是一名优秀的程序员,十分优秀!