当前位置:   article > 正文

hpfs vs cephfs

hpfs

近几天我做了一个hpfs的性能测试,在同样环境下再部署 cephfs,做出来的性能对比,测试是case 是open 一个文件,write 4096字节,close,然后,open, read 4096字节,close 这样连续的操作操作,一共创建1亿个4096k大小的文件,分别多个线程并发操作,测出的iops,通过这个测试数据我们可以看到hpfs在这样规模下的性能会随着客户端的增加性能有线性的增长,这是因为单客户端的能力受到fuse能力瓶颈影响所致,如果是用hpfs的api接口,完全没有这个限制,可以直接把所有nvme 磁盘性能打满,而ceph由于受到mds的瓶颈所致,即使再增加客户端他的iops也无法再性能提成了,而hpfs可以通过扩展hpfs-srv的数量 继续扩展元数据的文件系统的iops的负载能力。

 github url:
https://github.com/ptozys2/hpfs

 接上一篇 文章:
一款为AI 视觉类训练定制的高功性能文件系统hpfs-CSDN博客

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/空白诗007/article/detail/822710
推荐阅读
相关标签
  

闽ICP备14008679号