- mongodb - 在 MongoDB mapreduce 中,如何展平值对象?
- javascript - 对象传播与 Object.assign
- html - 输入类型 ="submit"Vs 按钮标签它们可以互换吗?
- sql - 使用 MongoDB 而不是 MS SQL Server 的优缺点
我正在编写一个使用 Linux 异步 I/O 系统调用的库,并且想知道为什么 io_submit
函数在 ext4 文件系统上表现不佳。如果可能,我该怎么做才能让 io_submit
不阻止大 IO 请求大小?我已经做了以下事情(如 here 所述):
O_DIRECT
。为了观察内核在 io_submit
中花费的时间,我运行了一个测试,其中我使用 dd
和 /dev 创建了一个 1 Gb 的测试文件/urandom
,并反复删除系统缓存(sync; echo 1 >/proc/sys/vm/drop_caches
)并读取越来越大的文件部分。在每次迭代中,我打印了 io_submit
所花费的时间以及等待读取请求完成所花费的时间。我在运行 Arch Linux 的 x86-64 系统上运行了以下实验,内核版本为 3.11。该机器具有 SSD 和 Core i7 CPU。第一张图绘制了读取的页面数与等待 io_submit
完成所花费的时间。第二个图表显示等待读取请求完成所花费的时间。时间以秒为单位。
为了比较,我创建了一个类似的测试,它通过 pread
使用同步 IO。结果如下:
似乎异步 IO 按预期工作,请求大小约为 20,000 个页面。之后,io_submit
阻塞。这些观察导致以下问题:
io_submit
的执行时间不是常数?用于测试异步 IO 的代码如下。如果您认为其他来源列表相关,我可以添加它们,但我尝试仅发布我认为可能相关的详细信息。
#include <cstddef>
#include <cstdint>
#include <cstring>
#include <chrono>
#include <iostream>
#include <memory>
#include <fcntl.h>
#include <stdio.h>
#include <time.h>
#include <unistd.h>
// For `__NR_*` system call definitions.
#include <sys/syscall.h>
#include <linux/aio_abi.h>
static int
io_setup(unsigned n, aio_context_t* c)
{
return syscall(__NR_io_setup, n, c);
}
static int
io_destroy(aio_context_t c)
{
return syscall(__NR_io_destroy, c);
}
static int
io_submit(aio_context_t c, long n, iocb** b)
{
return syscall(__NR_io_submit, c, n, b);
}
static int
io_getevents(aio_context_t c, long min, long max, io_event* e, timespec* t)
{
return syscall(__NR_io_getevents, c, min, max, e, t);
}
int main(int argc, char** argv)
{
using namespace std::chrono;
const auto n = 4096 * size_t(std::atoi(argv[1]));
// Initialize the file descriptor. If O_DIRECT is not used, the kernel
// will block on `io_submit` until the job finishes, because non-direct
// IO via the `aio` interface is not implemented (to my knowledge).
auto fd = ::open("dat/test.dat", O_RDONLY | O_DIRECT | O_NOATIME);
if (fd < 0) {
::perror("Error opening file");
return EXIT_FAILURE;
}
char* p;
auto r = ::posix_memalign((void**)&p, 512, n);
if (r != 0) {
std::cerr << "posix_memalign failed." << std::endl;
return EXIT_FAILURE;
}
auto del = [](char* p) { std::free(p); };
std::unique_ptr<char[], decltype(del)> buf{p, del};
// Initialize the IO context.
aio_context_t c{0};
r = io_setup(4, &c);
if (r < 0) {
::perror("Error invoking io_setup");
return EXIT_FAILURE;
}
// Setup I/O control block.
iocb b;
std::memset(&b, 0, sizeof(b));
b.aio_fildes = fd;
b.aio_lio_opcode = IOCB_CMD_PREAD;
// Command-specific options for `pread`.
b.aio_buf = (uint64_t)buf.get();
b.aio_offset = 0;
b.aio_nbytes = n;
iocb* bs[1] = {&b};
auto t1 = high_resolution_clock::now();
auto r = io_submit(c, 1, bs);
if (r != 1) {
if (r == -1) {
::perror("Error invoking io_submit");
}
else {
std::cerr << "Could not submit request." << std::endl;
}
return EXIT_FAILURE;
}
auto t2 = high_resolution_clock::now();
auto count = duration_cast<duration<double>>(t2 - t1).count();
// Print the wait time.
std::cout << count << " ";
io_event e[1];
t1 = high_resolution_clock::now();
r = io_getevents(c, 1, 1, e, NULL);
t2 = high_resolution_clock::now();
count = duration_cast<duration<double>>(t2 - t1).count();
// Print the read time.
std::cout << count << std::endl;
r = io_destroy(c);
if (r < 0) {
::perror("Error invoking io_destroy");
return EXIT_FAILURE;
}
}
最佳答案
我的理解是,Linux 上很少(如果有的话)文件系统完全支持 AIO。一些文件系统操作仍然阻塞,有时 io_submit()
会通过文件系统操作间接调用这种阻塞调用。
我的进一步理解是,内核 AIO 的主要用户主要关心 AIO 在原始 block 设备(即没有文件系统)上真正异步。本质上是数据库供应商。
Here's来自 linux-aio 邮件列表的相关帖子。 (head 的线程)
一个可能有用的建议:
Add more requests via /sys/block/xxx/queue/nr_requests and the problem will get better.
关于c++ - Linux AIO : Poor Scaling,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/20973754/
将类传递到 HTML 时,我想知道每个元素有多少个类被认为是“最佳实践”? 例如,会; 被视为不正确的做法? 最佳答案 在你的 html 标签中使用的类名没有限制,它只会影响你的代码的可读性,它可
我正在用 C++ 编写在方格上运行的物理模拟(伊辛模型)。我的程序的核心是我的 Ising 类,它有一个构造函数,它调用格子的行和列维度。我还有另外两种方法来设置系统的其他参数(温度和初始状态),必须
下面是一个相当可怕的模式,我有时会用它作为一种懒惰的方式来进行简单的调用。这段代码让我感到有点内疚,尽管我不确定为什么。这很可怕吗?合理的?以后要在我脸上炸开吗? public void myMeth
我正在尝试从 nginx 上的 PHP 5.4(使用 FPM 作为 FastCGI 和 apc)迁移到 HHVM - FastCGI(也是 nginx)。 我的应用程序是一个以 Slim 作为框架的广
由于模拟退火方法,我正在尝试解决以下问题: Optimization problem 我已经将 c_i、j、f 值存储在一维数组中,因此 c_i,j,f c[i + j * n + f * n *
我正在处理一些 nlp 任务。我的输入是法语文本,因此在我的上下文中只能使用 Snowball Stemmer。但是,不幸的是,它一直给我糟糕的词干,因为它甚至不会删除 plural "s" 或 si
我正在学习使用 OpenCV 进行模式识别并想实现一个分类器。 据我了解,通常的方法是对所有输入值实现神经元网络评估并输出决策。现在,我担心学习 NN 会超出我的智力,我正在寻找一种更简单的方法。 我
这是一个由两部分组成的问题,但对于单独的部分来说没有意义。字节码输出中的大量 dup 指令是否表示代码编写不当?其中 large 由所有字节码指令的一定百分比定义。此外,如何重写生成 dup 指令的代
我正在编写一个使用 Linux 异步 I/O 系统调用的库,并且想知道为什么 io_submit 函数在 ext4 文件系统上表现不佳。如果可能,我该怎么做才能让 io_submit 不阻止大 IO
我使用返回大型 pandas 数据帧的 api。我不知道直接迭代数据帧的快速方法,因此我使用 to_dict() 转换为字典。 我的数据转成字典形式后,性能还不错。然而,to_dict() 操作往往是
我有一个简单的数据模型,其中包括 用户:存储基本信息( key 、姓名、电话号码等) 关系:描述,例如两个用户之间的友谊(提供relationship_type + 两个用户 key ) 评论:由用户
我正在尝试使用 python 的 curve_fit 库来拟合我的数据。虽然我可以捕捉到数据的模式,但真正的拟合度很差。有什么方法可以提高贴合度吗? 这是我的代码: import numpy as n
我正在C++中实现一种超模块化体系结构的基本反射(reflection),该构架实际上将所有功能都作为插件加载并在运行时动态解释。由于系统具有结构自组织的独特元素,因此组件需要一些相互检查的方法(例如
我的 android 应用程序中有一张 map ,显示了许多标记 (~20-50)。但是当我尝试滚动/缩放时,该应用程序的性能非常差(在 Google Android map 中,我做了一个披萨搜索示
我正在使用像下面这样的具有渐变背景的可绘制对象: 这会导致模拟器出现带状渐变,当我截取模拟器的屏幕截图(使用 Eclipse)时,结果更差: 为什么?以及如何解决这个问题?尽管我在可绘
我正在研究我的一些旧的(并且专门面向 win32 的)东西并考虑使它更现代/可移植 - 即在 C++11 中重新实现一些可广泛重用的部分。这些部分之一是 utf8 和 utf16 之间的转换。在 Wi
相比其他浏览器,IE9执行this script (for dynamic manipulation of DOM)运行时间很长。我好奇;它会以何种方式影响下一代富应用程序的执行速度?除了这个迭代测试
这个问题在这里已经有了答案: Simulate low network connectivity for Android [closed] (27 个答案) 关闭 6 年前。 我目前正在进行测试,我
我买了一台新平板电脑(Asus Memo Pad 10,Android 4.2)。我做的第一件事就是尝试运行我编写的小型 HTML5 canvas 游戏。我看到帧速率非常糟糕(3 fps),这很奇怪,
我们正在开发一个相当复杂的场景,其中有很多移动部件,到目前为止还没有涉及任何 SVG 动画。 一切都很顺利并且表现良好,直到我们引入了一个带有几条虚线的 SVG,我们使用 stroke-dashoff
我是一名优秀的程序员,十分优秀!