- r - 以节省内存的方式增长 data.frame
- ruby-on-rails - ruby/ruby on rails 内存泄漏检测
- android - 无法解析导入android.support.v7.app
- UNIX 域套接字与共享内存(映射文件)
我正在开发一个示例项目,该项目从 bigquery 获取输出并将其发布到 pubsub。 bigquery 的行输出可能大于 100,000。我看到有批量发布的选项,而且我在多个地方读到每批 1k 条消息是理想的。我遇到的问题是,在我的一生中,我无法让它批量处理多条消息,我认为解决方案很简单,但我不知道如何去做。
这是我现在所拥有的,它所做的只是一次发布一条消息。
func publish(client pubsub.Client, data []byte) (string, error) {
ctx := context.Background()
topic := client.Topic("topic-name")
topic.PublishSettings = pubsub.PublishSettings{
// ByteThreshold: 5000,
CountThreshold: 1000, // no matter what I put here it still sends one per publish
// DelayThreshold: 1000 * time.Millisecond,
}
result := topic.Publish(ctx, &pubsub.Message{
Data: data,
})
id, err := result.Get(ctx)
if err != nil {
return "", err
}
return id, nil
}
这个函数被调用:
for _, v := range qr {
data, err := json.Marshal(v)
if err != nil {
log.Printf("Unable to marshal %s", data)
continue
}
id, err := publish(*pubsubClient, data)
if err != nil {
log.Printf("Unable to publish message: %s", data)
}
log.Printf("Published message with id: %s", id)
}
其中 qr 是包含从 bigquery 查询返回的数据的结构片段。
现在,是不是由于我调用函数 publish
的方式导致每条消息都被发布,并且 topic.PublishSettings
被每个方法调用覆盖,所以它忘记了以前的消息?我在这里不知所措。
我在这里看到了一些批量发布的代码:https://github.com/GoogleCloudPlatform/golang-samples/blob/master/pubsub/topics/main.go#L217
但他们实际上并没有在他们的示例中调用它,所以我不知道应该如何完成。
旁注并进一步证明我的观点它不起作用,如果我在 topic.PublishSettings
var 中设置 DelayThreshold
说,1 秒,它只是每秒发布一条消息,而不是所有应该在内存中的消息。
感谢您的帮助,谢谢。
编辑#1:
所以根据 kingkupps 的评论,为了测试目的,我将代码切换为:(项目和主题名称从真实名称切换)
func QueryAndPublish(w http.ResponseWriter, r *http.Request) {
ctx := context.Background()
// setting up the pubsub client
pubsubClient, err := pubsub.NewClient(ctx, "fake-project-id")
if err != nil {
log.Fatalf("Unable to get pubsub client: %v", err)
}
// init topic and settings for publishing 1000 messages in batch
topic := pubsubClient.Topic("fake-topic")
topic.PublishSettings = pubsub.PublishSettings{
// ByteThreshold: 5000,
CountThreshold: 1000,
// DelayThreshold: 1000 * time.Millisecond,
}
// bq set up
bqClient, err := bigquery.NewClient(ctx, "fake-project-id")
if err != nil {
log.Fatalf("Unable to get bq client: %v", err)
}
// bq query function call
qr, err := query(*bqClient)
if err != nil {
log.Fatal(err)
}
log.Printf("Got query results, publishing now")
// marshalling messages to json format
messages := make([][]byte, len(qr))
timeToMarshal := time.Now()
for i, v := range qr {
data, err := json.Marshal(v)
if err != nil {
log.Printf("Unable to marshal %s", data)
continue
}
messages[i] = data
}
elapsedMarshal := time.Since(timeToMarshal).Nanoseconds() / 1000000
log.Printf("Took %v ms to marshal %v messages", elapsedMarshal, len(messages))
// publishing messages
timeToPublish := time.Now()
publishCount := 0
for _, v := range messages {
// ignore result, err from topic.Publish return, just publish
topic.Publish(ctx, &pubsub.Message{
Data: v,
})
publishCount++
}
elapsedPublish := time.Since(timeToPublish).Nanoseconds() / 1000000
log.Printf("Took %v ms to publish %v messages", elapsedPublish, publishCount)
fmt.Fprint(w, "Job completed")
}
现在它所做的是,当我的消息计数为 100,000 时,它将在大约 600 毫秒内完成发布调用,但在后台,它仍将一个接一个地发布到 pubsub 端点。
我可以在 StackDriver 和 Wireshark 中看到这一点,我在 Stackdriver 中的消息/秒大约是 10-16/秒,Wireshark 显示每条消息发送的新连接。
最佳答案
这很可能是因为当你调用
topic.PublishSettings = pubsub.PublishSettings{
//字节阈值:5000,
计数阈值:1000,
//DelayThreshold: 1000 * time.Millisecond,
}
您正在将发布设置重置为零初始化结构。这会将 topic.PublishSettings.ByteThreshold 设置为 0,这意味着所有消息将立即发布;你告诉它等到它有 0 个字节,它总是有 0 个字节。
相反,您应该执行以下操作来设置 CountThreshold:
topic.PublishSettings.CountThreshold = 1000
其他领域也一样。它们已经初始化为默认值,如所述 here ,如果你想改变它们,直接修改它们而不是重新分配整个 PublishSetttings 对象。
关于Go GCP Cloud PubSub 不批量发布消息,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/54612521/
对新版本 com.google.cloud.pubsub.spi.v1.Publisher.publish(pubsubMessage).get() 的调用永远挂起。我不确定问题是什么。 代码片段:
根据这里:https://cloud.google.com/pubsub/docs/reference/rest/v1/PubsubMessage 当发布者向队列发送消息时,不应填充时间戳字段。所以这
Google PubSub 是否适合小批量(10 条消息/秒)但任务关键型消息传递,保证在任何固定时间段内及时传递每条消息? 或者,它是否更适合高吞吐量,其中个别消息可能偶尔会丢失或无限期延迟? 编辑
我们创建了一个 pull使用 GCP Web GUI 的默认确认截止时间为 10 秒的 PubSub 订阅。原来是我们太乐观了,我们的服务处理一批拉取的消息需要10多秒的时间。该服务不会抛出异常,它实
批处理 pubsub 请求的 NODEJS 示例代码如下所示: // Imports the Google Cloud client library const PubSub = require(`@
在 Google PubSub 中,可以异步调用来自客户端的发布调用。因此,我认为可以同时触发多个发布请求并将其发送到服务器,尤其是在批处理阈值太低的情况下。 如果这是真的,pubsub 客户端如何控
根据堆栈驱动程序图表,我们开始注意到某个主题/订阅的“未确认消息”数量不时增加。 症状 我不知道我们可以信任多少堆栈驱动程序图表,但我已经检查过: 拉取操作数与发布操作数一样多 问题发生时ack操作计
我有一个将数据写入 Google Cloud pubsub 的应用程序,根据 pubsub 的文档,由于重试机制导致的重复是偶尔会发生的事情。还有乱序消息的问题,这在 pubsub 中也不能保证。 另
我有一个包含多个拉取订阅的 pubsub 主题。我想要某种机制,我可以在其中发布带有“优先级”标签的消息,使消息尽可能地跳到队列的前面。 我不需要任何有保证的排序语义,只需要“尽力而为”的优先级机制。
我在我们的平台中集成了 GMB API,并与 PubSub 合作以获取实时评论通知。 为此,我已经完成了以下步骤: Created topic在谷歌 PubSub 云上。 创建了它的 subscrip
试图找出在本地测试 PubSub 推送端点的最佳方法。我们尝试过使用 ngrok.io,但您必须拥有域才能加入白名单(这样做的工具也已损坏……导致无限重定向循环)。我们还尝试在本地模拟 PubSub。
我们希望通过带有 pubsub 触发器 ( https://firebase.google.com/docs/functions/pubsub-events ) 的 firebase 云函数接收有关某
关闭。这个问题是opinion-based .它目前不接受答案。 想改善这个问题吗?更新问题,以便可以通过 editing this post 用事实和引文回答问题. 2年前关闭。 Improve t
我有一个向 PubSub 主题发布消息的简单服务,偶尔会收到“已超过截止日期”错误消息: GaxError(RPC failed, caused by ) Python代码: from google.
我的应用程序发布少量消息(最多每几秒 1 条)。它不订阅。 首次使用时,PubSub 会创建 60 个永久保持事件状态的线程,如下所示: "grpc-default-worker-ELG-1-1 Id
我想检查运行代码是否有权在特定项目中执行“pubsub.topics.list”。这段代码: try (TopicAdminClient admin = getTopicAdmin()) {
我正在开发微博 spring mvc hibernate 应用程序。我需要实现像推特这样的发布订阅功能。 我正在使用 RabbitMQ 通过 Spring AMQP 抽象进行消息传递。 我在网络上到处
我对 Airflow 很陌生,并尝试使用 apache Airflow 与 google pubsub 的集成,我猜它是添加到“Airflow-300”JIRA 下的。如果我在这里阅读不正确,请纠正我
我正在学习 https://www.woolha.com/tutorials/node-js-google-cloud-pub-sub-basic-examples 上的教程并且有一些困难.. 我在
我在我的 .net 核心微服务中使用 DAPR 和 Docker。我在 docker-compose.yml 中进行了以下配置以运行代理和 dapr pubsub 配置。 PUBSUB.yml api
我是一名优秀的程序员,十分优秀!