近期接到ceph用户报案,说是多进程direct写ceph-fuse的单个文件,性能很低,几乎与单进程direct写文件的性能一样。关乎民生,刻不容缓,笔者立即展开侦查工作~
一、复现案情,寻踪追记
笔者通过fio工具展开测试,分别测试了单进程和多进程direct随机写ceph-fuse的单个文件的性能情况。
fio -filename=/mnt/fuse/file_1T -direct=1 -rw=randwrite -ioengine=sync -bs=4K -size=1G -numjobs=1 -runtime=180 -group_reporting -name=test
fio -filename=/mnt/fuse/file_1T -direct=1 -rw=randwrite -ioengine=sync -bs=4K -size=1G -numjobs=16 -runtime=180 -group_reporting -name=test
结果显示,无论单进程,还是多进程,而且无论多少进程,iops结果差不多都是50左右(磁盘未开write-cache)。那么,多进程写多个文件呢,性能又是怎样的?
这里注意了,将fio的参数filename改成directory后,对于多进程,fio会为每个进程创建一个测试文件。
fio -directory=/mnt/fuse/ -direct=1 -rw=randwrite -ioengine=sync -bs=4K -size=1G -numjobs=16 -runtime=180 -group_reporting -name=test
结果显示,iops大概是800左右,正好是单进程50的16(进程数)倍,怎么这么巧?
二、分析案情,锁定可能的嫌疑人
写同一个文件,单进程和多进程具有相同的iops性能,说明多进程在io路径的某个环节变成了串行,从而导致多进程实际上也变成了单进程。
我们先来看下ceph-fuse的io链条:
用户态程序fio -> vfs -> kernel fuse -> libfuse -> ceph-fuse -> [mds] -> ceph cluster
笔者之前看过链条上一些环节的代码,但由于代码量太大,代码的细节太多,所以认知并不深入,无法直接定位到凶手。
为了帮助分析案情,这里简单描述下这条io链:
用户态程序fio通过多进程进行direct随机写,通过vfs后进入kernel fuse,kernel fuse会将io请求放入到pending队列,然后等待结果。用户态libfuse的多个进程通过/dev/fuse设备读取pending队列中请求,然后调用更底层的ceph-fuse进行处理。ceph-fuse最终将请求发送给mds或者ceph集群进行处理。
必然是上述io链条中某个环节导致了案情的发生。然而我们很难熟知于io链条中的每一环,所以我们需要根据更多已知的线索来缩小io链条的排查范围。
三、搜集线索,缩小排查范围
目前已知的线索有:
① fio多进程和单进程写同一文件性能几乎一致
② fio多进程写进程数个文件的性能 = 单进程性能 * 进程数
由于没有更多的线索,笔者开始对io链条进行排查。先从熟悉的ceph-fuse、mds和ceph cluster开始。
嫌疑人 | 分析 |
---|---|
ceph cluster | 对比多进程写单文件和多进程写多文件的性能,说明出现案情时,ceph cluster不是瓶颈 |
mds | 由于fio测试是单客户端的,所以多进程的写也不会竞争fw的caps,另外fio的测试,涉及mds的请求很少,所以mds作案的可能性很小 |
ceph-fuse | 这是笔者怀疑的重点,众所周知,ceph-fuse有把client大锁,通过阅读代码发现,ceph-fuse在发送写请求给osd后就释放了client锁,并没有持锁等待结果,这虽然对写性能有一定的影响,但不至于将多进程io串行 |
笔者展开更多测试,发现了一条重要的线索:
③ 16进程direct随机写16个文件时,通过kernel fuse的controlfs(/sys/fs/fuse/connections/39/waiting)看到等待的请求数一直是16,而16进程direct随机写单文件时,等待的请求数一直是1
线索③说明,在libfuse之前,多进程已经被串行化,这样可以基本排除libfuse、ceph-fuse、mds、ceph cluster的嫌疑了,笔者可以把精力放在io链条的前面了。
用户态程序fio -> vfs -> kernel fuse
静下心来,思索下...
多进程写单个文件,io被完全串行化,凭经验,要么是有文件锁,要么有inode锁。先朝这方向走一下,我们需要定位下锁在io链条的哪个环节,逐个分析下每个环节。
用户态程序fio:
通过查看fio的man page,笔者发现fio有个lockfile的参数,当lockfile设置成exclusive或者readwrite时,多进程的写会被串行化,然而该参数的默认值是none,所以可以排除用户态程序fio的嫌疑。
vfs:
vfs是内核很薄的一层,而且linux上可以通过flock和fcntl对文件进行加锁,在没有用户态程序调用的情况下,vfs显然不会私自对文件和inode加锁,并且,这个案情在kernel cephfs客户端下不存在,所以可以排除vfs的嫌疑。
排除了其他io环节,最后只剩下 kernel fuse ,是笔者熟悉程度相对比较低的模块,看来需要重点招待了。
四、搜集证据,锁定凶手
笔者重新阅读kernel fuse的io流程代码,最终拿到证据,真相是如此简单....
static ssize_t fuse_direct_write(struct file *file, const char __user *buf, size_t count, loff_t *ppos){
...
/* Don't allow parallel writes to the same file */
mutex_lock(&inode->i_mutex);
res = __fuse_direct_write(&io, &iov, 1, ppos);
if (res > 0)
fuse_write_update_size(inode, *ppos);
mutex_unlock(&inode->i_mutex);
...
}
凶手作案手法:
多进程direct写io到kernel fuse的该函数后,拿到inode锁,进行io请求,io请求发送到pending队列后,会持锁等待io请求结束,从而导致多进程的direct写io被串行化。
网友评论