- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我在 Google Cloud 中的 DataFlow 上运行的 Apache Beam 2.2.0 中有一个批处理作业,它与 Bigtable 交互。该作业似乎在非常小的测试数据集上正确执行,但似乎并行化不佳,而且确实没有充分利用投入的资源。
目标大致是实现以下目标:
我用 10 个 n1-standard-1 工作人员运行这项工作,明确禁止自动缩放,因为我试图缩小规模。每个工作线程的 CPU 利用率低于 10%,BigTable 实例似乎同样未得到充分利用(几乎为零 Activity )。我的自定义计数器显示了一点点进度,因此工作并没有卡住,但工作速度非常慢。
以下是相关代码片段:
// Use side inputs to provide the relevant Table ID at each step
final PCollectionView<String> tableA =
p.apply(Create.of("TableA")).apply(View.<String>asSingleton());
final PCollectionView<String> tableB =
p.apply(Create.of("TableB")).apply(View.<String>asSingleton());
final PCollectionView<String> tableC =
p.apply(Create.of("TableC")).apply(View.<String>asSingleton());
p.apply(Create.of(inputID.getBytes())) // <- Initial keyword "Bob"
.apply(ParDo.of(new PartialMatch(configBT, tableA))
.withSideInputs(tableA))
.apply(ParDo.of(new PartialMatch(configBT, tableB))
.withSideInputs(tableB))
.apply(ParDo.of(new PartialMatch(configBT, tableC))
.withSideInputs(tableC))
.apply(ParDo.of(new GetInfo(configBT)))
.apply(Sum.<String>integersPerKey())
.apply(ParDo.of(new LogInfo(configBT)));
p.run().waitUntilFinish();
class PartialMatch extends AbstractCloudBigtableTableDoFn<byte[], byte[]>
{
private static final long serialVersionUID = 1L;
final PCollectionView<String> m_tableName;
private Counter m_ct = Metrics.counter(PartialMatch.class, "matched");
public PartialMatch(CloudBigtableConfiguration config,PCollectionView<String> side1)
{
super(config);
m_tableName = side1;
}
@ProcessElement
public void processElement(DoFn<byte[], byte[]>.ProcessContext c)
{
try
{
byte rowKey[] = c.element();
Scan s = new Scan(rowKey);
FilterList fList = new FilterList(FilterList.Operator.MUST_PASS_ALL);
fList.addFilter(new PrefixFilter(rowKey));
fList.addFilter(new KeyOnlyFilter());
s.setFilter(fList);
ResultScanner scanner = getConnection().getTable(TableName.valueOf(c.sideInput(m_tableName))).getScanner(s);
for (Result row : scanner)
{
String rowKeyEls[] = new String(row.getRow()).split(DEF_SPLIT);
c.output(rowKeyEls[1].getBytes());
}
scanner.close();
m_ct.inc();
} catch (IOException e){e.printStackTrace();}
}
}
class GetInfo extends AbstractCloudBigtableTableDoFn<byte[], KV<String, Integer>>
{
private static final long serialVersionUID = 1L;
private Counter m_ct = Metrics.counter(GetInfo.class, "extracted");
private Counter m_ctFail = Metrics.counter(GetInfo.class, "failed");
public GetInfo(CloudBigtableConfiguration config)
{
super(config);
}
@ProcessElement
public void processElement(DoFn<byte[], KV<String, Integer>>.ProcessContext c)
{
try
{
byte rowKey[] = c.element();
Result trnRow = getConnection().getTable(TableName.valueOf(DEF_TBL_ID)).get(new Get(rowKey));
if(trnRow.isEmpty())
m_ctFail.inc();
else
{
String b = new String(trnRow.getColumnLatestCell(DEF_CF, DEF_CN_B).getValueArray());
String s = new String(trnRow.getColumnLatestCell(DEF_CF,DEF_CN_S).getValueArray());
c.output(KV.of(b + DEF_FUSE + s, 1));
m_ct.inc();
}
} catch (IOException e){e.printStackTrace();}
}
}
class LogInfo extends AbstractCloudBigtableTableDoFn<KV<String, Integer>, Integer>
{
private static final long serialVersionUID = 1L;
private Counter m_ct = Metrics.counter(LogInfo.class, "logged");
public LogInfo(CloudBigtableConfiguration config)
{
super(config);
}
@ProcessElement
public void processElement(DoFn<KV<String, Integer>, Integer>.ProcessContext c)
{
try
{
Table tGraph = getConnection().getTable(TableName.valueOf(DEF.ID_TBL_GRAPH));
String name = c.element().getKey();
Integer ct = c.element().getValue();
tGraph.put(new Put(name.getBytes()).addColumn(DEF.ID_CF_INF, DEF.ID_CN_CNT, Bytes.toBytes(ct)));
m_ct.inc();
}catch (IOException e){e.printStackTrace();}
c.output(0);
}
}
什么可能会减慢速度?
最佳答案
有几件事。
@Setup
中,并将其关闭到 @Teardown
Reshuffle.viaRandomKey()
。BigtableIO.write()
会为您完成此操作,因此我建议您使用它而不是手工编写的代码。关于java - DataFlow 批处理作业速度慢/并行性不佳,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/48875452/
有没有办法同时运行 2 个不同的代码块。我一直在研究 R 中的并行包,它们似乎都基于在循环中运行相同的函数。我正在寻找一种同时运行不同函数的方法(循环的 1 次迭代)。例如,我想在某个数据对象上创建一
无论如何增加 Parallel.For 启动后的循环次数?示例如下: var start = 0; var end = 5; Parallel.For(start, end, i => { C
我是 Golang 的新手,正在尝试了解并发和并行。我阅读了下面提到的关于并发和并行的文章。我执行了相同的程序。但没有得到相同的(混合字母和字符)输出。首先获取所有字母,然后获取字符。似乎并发不工作,
我正在寻找同时迭代 R 中两个或多个字符向量/列表的方法,例如。有没有办法做这样的事情: foo <- c('a','c','d') bar <- c('aa','cc','dd') for(i in
我对 Raku 很陌生,我对函数式方法有疑问,尤其是 reduce。 我最初有这样的方法: sub standardab{ my $mittel = mittel(@_); my $foo =
我最近花了很多时间来学习实时音频处理的细节,我发现的大多数库/工具都是c / c++代码或脚本/图形语言的形式,并在其中编译了c / c++代码。引擎盖。 使用基于回调的API,与GUI或App中的其
我正在使用 JMeter 进行图像负载测试。我有一个图像名称数组并遍历该数组,我通过 HTTP 请求获取所有图像。 -> loop_over_image - for loop controller
我整个晚上都在困惑这个问题...... makeflags = ['--prefix=/usr','--libdir=/usr/lib'] rootdir='/tmp/project' ps = se
我正在尝试提高计算图像平均值的方法的性能。 为此,我使用了两个 For 语句来迭代所有图像,因此我尝试使用一个 Parallel For 来改进它,但结果并不相同。 我做错了吗?或者是什么导致了差异?
假设您有一个并行 for 循环实现,例如ConcRT parallel_for,将所有工作放在一个 for 循环体内总是最好的吗? 举个例子: for(size_t i = 0; i < size()
我想并行运行一部分代码。目前我正在使用 Parallel.For 如何让10、20或40个线程同时运行 我当前的代码是: Parallel.For(1, total, (ii) =>
我使用 PAY API 进行了 PayPal 自适应并行支付,其中无论用户(买家)购买什么,都假设用户购买了总计 100 美元的商品。在我的自适应并行支付中,有 2 个接收方:Receiver1 和
我正在考虑让玩家加入游戏的高效算法。由于会有大量玩家,因此算法应该是异步的(即可扩展到集群中任意数量的机器)。有细节:想象有一个无向图(每个节点都是一个玩家)。玩家之间的每条边意味着玩家可以参加同一场
我有一个全局变量 volatile i = 0; 和两个线程。每个都执行以下操作: i++; System.out.print(i); 我收到以下组合。 12、21 和 22。 我理解为什么我没有得到
我有以下称为 pgain 的方法,它调用我试图并行化的方法 dist: /***************************************************************
我有一个 ruby 脚本读取一个巨大的表(约 2000 万行),进行一些处理并将其提供给 Solr 用于索引目的。这一直是我们流程中的一大瓶颈。我打算在这里加快速度,我想实现某种并行性。我对 Ru
我正在研究 Golang 并遇到一个问题,我已经研究了几天,我似乎无法理解 go routines 的概念以及它们的使用方式。 基本上我是在尝试生成数百万条随机记录。我有生成随机数据的函数,并将创建一
我希望 for 循环使用 go 例程并行。我尝试使用 channel ,但没有用。我的主要问题是,我想在继续之前等待所有迭代完成。这就是为什么在它不起作用之前简单地编写 go 的原因。我尝试使用 ch
我正在使用 import Control.Concurrent.ParallelIO.Global main = parallel_ (map processI [1..(sdNumber runPa
我正在尝试通过 makePSOCKcluster 连接到另一台计算机: library(parallel) cl ... doTryCatch -> recvData -> makeSOCKm
我是一名优秀的程序员,十分优秀!