- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我通过 hikari-cp Clojure 库在 Clojure 应用程序中使用 HikariCP。
该应用程序为多个客户端提供服务,这些客户端都有自己的 MySQL 数据库和数据库用户。每个客户端都有自己的 HikariCP 连接池,根据我的理解,这是必需的,因为每个客户端都有一个专用的数据库用户。添加新客户端后,我开始从 MySQL 收到间歇性的“连接过多”错误。我猜想每个客户端 10 个连接的默认池大小加起来会导致连接过多(超过 MySQL 中 max_connections 默认设置 151)。
总体/每个客户端数据库负载不是很大。
简单地减少每个客户端的连接数似乎很麻烦,因为每当添加新客户端时就必须减少池大小。
简单地将 max_connections 设置为与客户端数量成比例的数字(例如 50 + [客户端数量] * 10)是否安全?
或者有没有办法使用同一个池连接到不同的数据库(具有不同的数据库用户)?
最佳答案
Here is an example不使用连接池的测试文件。您可以为单个命令、一组命令或每个事务创建新的数据库连接:
(def raw-db-spec
{:classname "org.h2.Driver"
:subprotocol "h2:mem" ; the prefix `jdbc:` is added automatically
:subname "demo;DB_CLOSE_DELAY=-1" ; `;DB_CLOSE_DELAY=-1` very important!!!
; http://www.h2database.com/html/features.html#in_memory_databases
; http://makble.com/using-h2-in-memory-database-in-clojure
:user "sa" ; "system admin"
:password "" ; empty string by default
})
(dotest
; creates & drops a connection (& transaction) for each command
(jdbc/db-do-commands raw-db-spec ["drop table if exists langs"
"drop table if exists releases"])
; Creates and uses a connection for all commands
(jdbc/with-db-connection
[conn raw-db-spec]
(jdbc/db-do-commands
conn
[(jdbc/create-table-ddl :langs
[[:id :serial]
[:lang "varchar not null"]])
(jdbc/create-table-ddl :releases
[[:id :serial]
[:desc "varchar not null"]
[:langId "numeric"]])]))
; create & use a connection for multiple commands
(jdbc/with-db-connection
[conn raw-db-spec]
(jdbc/insert-multi! raw-db-spec :langs ; => ({:id 1} {:id 2})
[{:lang "Clojure"}
{:lang "Java"}])
(let [result (jdbc/query raw-db-spec ["select * from langs"])]
(is= result [{:id 1, :lang "Clojure"}
{:id 2, :lang "Java"}])))
; Wraps all commands in a single transaction
(jdbc/with-db-transaction
[tx raw-db-spec]
(let [clj-id (grab :id (only (jdbc/query tx ["select id from langs where lang='Clojure'"])))]
(jdbc/insert-multi! tx :releases
[{:desc "ancients" :langId clj-id}
{:desc "1.8" :langId clj-id}
{:desc "1.9" :langId clj-id}]))
(let [java-id (grab :id (only (jdbc/query tx ["select id from langs where lang='Java'"])))]
(jdbc/insert-multi! tx :releases
[{:desc "dusty" :langId java-id}
{:desc "8" :langId java-id}
{:desc "9" :langId java-id}
{:desc "10" :langId java-id}])))
Here is a different file显示 Hikari DB 池的使用。
(def datasource-options-sample {:auto-commit true
:read-only false
:connection-timeout 30000
:validation-timeout 5000
:idle-timeout 600000
:max-lifetime 1800000
:minimum-idle 10
:maximum-pool-size 10
:pool-name "db-pool"
:adapter "h2" ; "postgresql"
:username "sa"
:password ""
:database-name "database"
:server-name "localhost"
:port-number 5432
:register-mbeans false})
(def datasource-options {:adapter "h2"
:url "jdbc:h2:mem:demo;DB_CLOSE_DELAY=-1"
:username "sa"
:password ""})
(def ^:dynamic db-conn nil)
(defn with-connection-pool
"Creates and uses a connection for test function"
[tst-fn]
(let [datasource (pool/make-datasource datasource-options)]
(binding [db-conn {:datasource datasource}]
(tst-fn)
(pool/close-datasource datasource)))) ; close the connection - also closes/destroys the in-memory database
(use-fixtures
:once with-connection-pool) ; use the same db connection pool for all tests
(dotest
; creates & drops a connection (& transaction) for each command
(jdbc/db-do-commands db-conn ["drop table if exists langs"
"drop table if exists releases"])
(jdbc/db-do-commands
db-conn
[(jdbc/create-table-ddl :langs
[[:id :serial]
[:lang "varchar not null"]])
(jdbc/create-table-ddl :releases
[[:id :serial]
[:desc "varchar not null"]
[:langId "numeric"]])])
(jdbc/insert-multi! db-conn :langs ; => ({:id 1} {:id 2})
[{:lang "Clojure"}
{:lang "Java"}])
(let [result (jdbc/query db-conn ["select * from langs"])]
(is= result [{:id 1, :lang "Clojure"}
{:id 2, :lang "Java"}]))
我建议对您的项目进行 fork 并删除所有连接池内容并尝试运行它。如果您想添加,可以使用 (jdbc/with-db-connection ...)或
(jdbc/with-db-connection ...)` 将多个命令分组到单个数据库连接中稍后再说。
关于mysql - HikariCP 多个池中的连接数,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/52172353/
最近,我们将专用 SQL 池部署到生产中的 Synapse 工作区。在开发中,我们可以访问无服务器 SQL 池和专用 SQL 池。但是,在生产中,我们可以访问无服务器 SQL 池,但无法访问专用 SQ
假设您从一个项目公开 WCF 服务,并使用“添加服务引用”(在本例中为 Framework 3.5 WPF 应用程序)在另一个项目中使用它。 当您重新实例化 ClientBase 派生代理时,Clie
我有一个函数,它使用 multiprocessing.Pool 并行处理一个数据集中的所有数据。 from multiprocessing import Pool ... def func():
我正在尝试使用进程对象在 python 中使用工作池。每个 worker (一个进程)进行一些初始化(花费大量时间),传递一系列作业(理想情况下使用 map()),并返回一些东西。除此之外,不需要任何
我是软件工程师,最近我构建了我的 Linux 机器,想探索更多系统管理员类型的任务。我已经探索并阅读了很多关于 ZFS 的内容,但我越来越困惑,因为每篇文章对它的描述都不一样。 Everything
我有 zfs 池: $ sudo zpool status lxd pool: lxd state: ONLINE scan: none requested config: NAME
我有一个基于 Actor 的项目,对于其中的一部分,我必须使用一些接收消息的 Actor ,然后一个 Actor 分别分配给每个请求,每个 Actor 负责执行其消息请求,所以我需要类似线程的东西我的
我已经使用 QEMU 模拟器成功地将 FreeBSD 安装到原始图像文件中。我已经使用 ZFS 文件系统 (ZFS POOL) 格式化了图像文件。 使用下面的命令我已经成功地挂载了准备好由 zpool
我正在使用 multiprocessor.Pool并行处理一些文件。该代码等待接收文件,然后使用 Pool.apply_async 将该文件发送给工作人员。 ,然后处理文件。 这段代码应该一直在运行,
我正在使用带有光滑的 Bonecp 数据源。并发现池包含关闭的连接所以我总是遇到这个异常 java.sql.SQLException: Connection is closed! at com
我有apartment gem的 Multi-Tenancy Rails应用程序,我可以使用apartment-sidekiq在每个工作程序中成功切换数据库租户。但是,sidekiq worker 正
ZFS 池可能由数据集(文件系统、快照等)或卷组成。 ZFS 卷就像 block 设备,但我不明白池和文件系统之间的区别。当我通过 zpool create pool1 sda sdb sdc 创建
我在 docker 容器上运行了 airflow。我正在使用 airflow 2.0.2 版。 我知道我实际上可以通过 UI 创建池。但我正在寻找一种通过 pools.json 文件在 docker
我在tomcat中有一个jdbc池,用于建立数据库连接。我在使用后没有显式关闭连接对象。我的“maxActive”参数设置为100。应用程序运行了一段时间,但随后失败进行数据库查询。它会等待无限时间来
阅读 PostgreSQL 文档 here我读了以下内容: As well, connections requested for users other than the default config
我在 docker 容器上运行了 airflow。我正在使用 airflow 2.0.2 版。 我知道我实际上可以通过 UI 创建池。但我正在寻找一种通过 pools.json 文件在 docker
我正在读取一个大的 URL 文件并向服务发出请求。该请求由返回 ListenableFuture 的客户端执行。现在我想保留一个 ListenableFuture 池,例如最多同时执行 N 个 Fut
我想使用队列来保存结果,因为我希望消费者(串行而不是并行)在工作人员产生结果时处理工作人员的结果。 现在,我想知道为什么以下程序挂起。 import multiprocessing as mp imp
我正在开发一个单页应用程序,目前正在构建一个 JQuery、ajax 函数,以便我的所有调用都能通过。 对于一个典型的页面,我可能有 3 个 ajax 调用。我的想法是,如果用户互联网出去将这些 aj
我有一个单位类及其一些子类(弓箭手、剑客等)。我怎样才能创建一个回收所有单元类型子类的池? 最佳答案 这是不可能的,因为池只能包含一种特定类型的对象。否则你可能会遇到这样的情况: Pool unitP
我是一名优秀的程序员,十分优秀!