gpt4 book ai didi

docker - Vert.x 高可用性不起作用

转载 作者:行者123 更新时间:2023-12-02 18:11:04 31 4
gpt4 key购买 nike

简要描述;简介

我刚刚开始使用 VertX,我想通过一个小玩具示例来尝试高可用性功能。在我的设置中,我有一个 fatjar 应用程序,它部署到多个 docker 容器中。应用程序以编程方式创建一个 VertX 实例并启动一个名为 ContainerVerticle 的 Verticle。 .这会运行一个 HTTP 服务器并充当“启动器”——当接收到“SPAWN”命令时,它会部署另一个名为 AppVerticle 的 Verticle。在高可用性模式下。这个想法是我想在 3 个容器上运行它,然后在其中一个上杀死 JVM,这应该将 AppVerticle 重新部署到另一个 docker 容器。

实际结果 :verticles 可以使用事件总线相互交谈,集群似乎也正常工作:根据日志文件,成员可以看到对方。但是,当我杀死一个verticle时,它并没有被重新部署。

更多细节

(所有源代码都是用 Kotlin 编写的)
顶点初始化:

    val hzConfig = Config()
val mgr = HazelcastClusterManager(hzConfig) // empty config -> use default
val hostAddress = getAddress() // get the local ip address (not localhost!)

val options = VertxOptions()
.setClustered(true)
.setClusterHost(hostAddress)
.setClusterPort(18001)
.setClusterManager(mgr)
//.setQuorumSize(2)
.setHAEnabled(true)

val eventBusOptions = EventBusOptions()
eventBusOptions
.setClustered(true)
.setHost(hostAddress)
.setPort(18002)
options.setEventBusOptions(eventBusOptions)

Vertx.clusteredVertx(options) { res ->
if (res.succeeded()) {
val vertx = res.result()
vertx.deployVerticle(ContainerVerticle::class.java.name,
DeploymentOptions()
.setHa(false)) // ContainerVerticle should not restart
}
}

ContainerVerticle(我们的“启动器”)
class ContainerVerticle : AbstractVerticle() {
...
override fun start(startFuture: Future<Void>?) {

val router = createRouter()
val port = config().getInteger("http.port", 8080)

vertx.eventBus().consumer<Any>("mynamspace.container.spawn") { message ->
val appVerticleID = message.body()
log.info(" - HANDLE SPAWN message \"${appVerticleID}\"")
val appVerticleConfig = JsonObject().put("ID", appVerticleID)

vertx.deployVerticle(AppVerticle::class.java.name, // Deploy the APP!!!
DeploymentOptions()
.setConfig(appVerticleConfig)
.setInstances(1)
.setHa(true))
}

vertx.createHttpServer()... // omitted (see github link)
}

private fun createRouter(): Router { ... } // omitted (see github link)

val handlerRoot = Handler<RoutingContext> { routingContext ->
val cmd = routingContext.bodyAsString
val tokens = cmd.split(" ")
if (tokens[0] == "spawn") {
vertx.eventBus().send("mynamspace.container.spawn", tokens[1]) // round-robin
routingContext.response().end("Successfully handled command ${cmd}\n")
} else if (tokens[0] == "send") {
vertx.eventBus().send("mynamspace.app.${tokens[1]}", tokens[2])
routingContext.response().end("success\n")
} else {
routingContext.response().end("ERROR: Unknown command ${cmd}\n")
}
}
}

最后一部分:AppVerticle:
class AppVerticle : AbstractVerticle() {
var timerID = 0L
override fun start(startFuture: Future<Void>?) {
val id = config().getString("ID")
log.info(" SPAWNED app verticle \"${id}\"")

vertx.eventBus().consumer<Any>("mynamspace.app.${id}") { message ->
val cmd = message.body()
log.info(" - app verticle \"${id}\" handled message ${cmd}")
}

timerID = vertx.setPeriodic(1000) {
log.info(" - app verticle \"${id}\" is alive")
}
}
}

运行

打开 3 个终端并运行 3 个 docker 实例。小细节:这里我们将端口 8080 重新映射到三个不同的端口 8081、8082、8083,我们还为容器提供了唯一的名称:cont1、cont2、cont3
docker run --name "cont1" -it --rm -p 8081:8080 -v $PWD/build/libs:/app anapsix/alpine-java java -jar /app/vertxhaeval-1.0-SNAPSHOT-all.jar

docker run --name "cont2" -it --rm -p 8082:8080 -v $PWD/build/libs:/app anapsix/alpine-java java -jar /app/vertxhaeval-1.0-SNAPSHOT-all.jar

docker run --name "cont2" -it --rm -p 8083:8080 -v $PWD/build/libs:/app anapsix/alpine-java java -jar /app/vertxhaeval-1.0-SNAPSHOT-all.jar

观察 1

由于以下消息,集群成员似乎互相看到:
Members [3] {
Member [172.17.0.2]:5701 - 1d50394c-cf11-4bd7-877e-7e06e2959940 this
Member [172.17.0.3]:5701 - 3fa2cff4-ba9e-431b-9c4e-7b1fd8de9437
Member [172.17.0.4]:5701 - b9a3114a-7c15-4992-b609-63c0f22ed388
}

我们也可以跨越 AppContainer :
curl -d "spawn -={Application-1}=-" -XPOST http://localhost:8083

消息总线似乎工作正常,因为我们看到生成消息被传递到 ContainerVerticle。以循环方式。

观察 2- 问题

现在让我们尝试杀死verticle(假设它在cont2中运行):
docker kill --signal=SIGKILL  cont2

其余容器似乎对该事件作出 react ,日志文件有这样的内容:
Aug 14, 2018 8:18:45 AM com.hazelcast.internal.cluster.ClusterService
INFO: [172.17.0.4]:5701 [dev] [3.8.2] Removing Member [172.17.0.2]:5701 - fbe67a02-80a3-4207-aa10-110fc09e0607
Aug 14, 2018 8:18:45 AM com.hazelcast.internal.cluster.ClusterService
INFO: [172.17.0.4]:5701 [dev] [3.8.2]

Members [2] {
Member [172.17.0.3]:5701 - 8b93a822-aa7f-460d-aa3e-568e0d85067c
Member [172.17.0.4]:5701 - b0ecea8e-59f1-440c-82ca-45a086842004 this
}

然而 AppVerticle不会重新部署。

完整的源代码可在 github 上找到:
https://github.com/conceptacid/vertx-ha-eval

最佳答案

我花了几个小时调试这个,但终于找到了。

所以这里是解决方案:

您的垂直启动方法 header 是:
override fun start(startFuture: Future<Void>?)
您正在覆盖 start 方法,它为您提供在 Verticle 启动后等待的 future 。 Vert.x 永远等待这个 future 的完成,因为你不打电话
startFuture.complete()
在方法结束时。

因此,verticle 永远不会被添加到 HAManager 的 verticle-list 中,因此不会被重新部署。

或者,您可以使用
override fun start()
如果您的 Verticle 进行简单的同步启动,则作为方法头。

希望这可以帮助。

关于docker - Vert.x 高可用性不起作用,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/51837957/

31 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com