赞
踩
近几天我做了一个hpfs的性能测试,在同样环境下再部署 cephfs,做出来的性能对比,测试是case 是open 一个文件,write 4096字节,close,然后,open, read 4096字节,close 这样连续的操作操作,一共创建1亿个4096k大小的文件,分别多个线程并发操作,测出的iops,通过这个测试数据我们可以看到hpfs在这样规模下的性能会随着客户端的增加性能有线性的增长,这是因为单客户端的能力受到fuse能力瓶颈影响所致,如果是用hpfs的api接口,完全没有这个限制,可以直接把所有nvme 磁盘性能打满,而ceph由于受到mds的瓶颈所致,即使再增加客户端他的iops也无法再性能提成了,而hpfs可以通过扩展hpfs-srv的数量 继续扩展元数据的文件系统的iops的负载能力。
github url:
https://github.com/ptozys2/hpfs
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。