gpt4 book ai didi

linux - 有人可以建议支持复杂数据的高性能共享内存 API 吗?

转载 作者:塔克拉玛干 更新时间:2023-11-03 00:30:52 27 4
gpt4 key购买 nike

<分区>

我正在考虑将生成大量复杂数据表的旧驱动程序移植到用户空间中 - 因为这些表已经变得足够大,内存消耗成为一个严重的问题。

由于性能很关键,而且会有 16-32 个数据同时读取者,我们认为我们会用共享内存模型替换旧的基于/dev 的代码接口(interface),这样客户端就可以直接搜索表而不是直接查询守护进程。

问题是 - 最好的方法是什么?我可以直接使用 shm_open(),但这可能需要我设计自己的记录锁定,甚至可能需要为共享内存设计一个 ISAM 数据结构。

与其编写自己的代码重温 1970 年代,有没有提供基于散列的查找机制的高性能共享内存 API?数据完全是数字,搜索关键字是固定长度的位域,长度可以是 8、16 或 32 个字节。

27 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com