当前位置:   article > 正文

62GFS分布式文件系统_分布式文件系统协议

分布式文件系统协议

GFS分布式文件系统

文件系统(FS)概述

文件系统(FS)组成:

文件系统接口
对对像管理的饮件集合
对象及文件

系统的作用

从系统角度来看,文件系统是对文件存储设备的空间进行组织和分配,负责文件存储并对存入的文件进行保护和检索的系统

主要负责为用户建立文件、存入、读出、修改、转储文件,控制文件的存取

文件系统的挂载使用

除了和文件系统以外的文件系统创建后要使用需要先挂载至挂载点后才可以被访问

挂载点即分区设备文件关联的某个目录文件

类比NFS(外部的文件系统),使用挂载的方式才可以让本地系统来使用外部的文件系统的功能

例如:配置永久挂载时,我们会写入挂载点与挂载目录,还有文件系统的名称(xfs),文件类型格式等。我们在远程跨服务器使用GFS分布式文件系统,挂载时也需要指定其文件格式(GlusterFS)属性

GFS分布式文件系统

GlusterFS简介

  • GlusterFS 是一个开源的分布式文件系统。
  • 由存储服务器、客户端以及NFS/Samba存储网关(可选,根据需要选择使用)组成。
  • 没有元数据服务器
    这有助于提升整个系统的性能、可靠性和稳定性。

MFS传统的分布式文件系统大多通过元服务器来存储元数据,元数据包含存储节点上的目录信息、目录结构等。这样的设计在浏览目录时效率高,但是也存在一些缺陷,例如单点故障。一旦元数据服务器出现故障,即使节点具备再高的冗余性,整个存储系统也将崩溃。而GlusterFS 分布式文件系统是基于无元服务器的设计,数据横向扩展能力强,具备较高的可靠性及存储效率。

GlusterFS特点

扩展性和高性能

GlusterFS利用双重特性来提供高容量存储解决方案。

  • Scale-Out架构允许通过简单地增加存储节点的方式来提高存储容量和性能(磁盘、计算和I/O资源都可以独立增加),支持10GbE和InfiniBand等高速网络互联。
  • Gluster弹性哈希(ElasticHash) 解决了GlusterFS对元数据服务器的依赖,改善了单点故障和性能瓶颈,真正实现了并行化数据访问。GlusterFS采用弹性哈希算法在存储池中可以智能地定位任意数据分片(将数据分片存储在不同节点上),不需要查看索引或者向元数据服务器查询。

高可用性

  • GlusterFS可以对文件进行自动复制,如镜像或多次复制,从而确保数据总是可以访问,甚至是在硬件故障的情况下也能正常访问。
  • 当数据出现不一致时,自我修复功能能够把数据恢复到正确的状态,数据的修复是以增量的方式在后台执行,几乎不会产生性能负载。
  • GlusterFS可以支持所有的存储,因为它没有设计自己的私有数据文件格式,而是采用操作系统中主流标准的磁盘文件系统(如EXT3、XFS等)来存储文件,因此数据可以使用传统访问磁盘的方式被访问。

全局统一命名空间

分布式存储中,将所有节点的命名空间整合为统一命名空间,将整个系统的所有节点的存储容量组成一个大的虚拟存储池,供前端主机访问这些节点完成数据读写操作。

弹性卷管理

GlusterFS通过将数据储存在逻辑卷中,逻辑卷从逻辑存储池进行独立逻辑划分而得到。
逻辑存储池可以在线进行增加和移除,不会导致业务中断。逻辑卷可以根据需求在线增长和缩减,并可以在多个节点中实现负载均衡。
文件系统配置也可以实时在线进行更改并应用,从而可以适应工作负载条件变化或在线性能调优。

基于标准协议

Gluster 存储服务支持 NFS、CIFS、HTTP、FTP、SMB 及 Gluster原生协议,完全与 POSIX 标准(可移植操作系统接口)兼容。
现有应用程序不需要做任何修改就可以对Gluster 中的数据进行访问,也可以使用专用 API 进行访问。

GlusterFS 术语

  • Brick(存储块):
    指可信主机池中由主机提供的用于物理存储的专用分区,是GlusterFS中的基本存储单元,同时也是可信存储池中服务器上对外提供的存储目录。
    存储目录的格式由服务器和目录的绝对路径构成,表示方法为 SERVER:EXPORT,如192.168.48.10:/data/mydir/。
  • Volume(逻辑卷):
    一个逻辑卷是一组 Brick 的集合。卷是数据存储的逻辑设备,类似于 LVM 中的逻辑卷。大部分 Gluster 管理操作是在卷上进行的。
  • FUSE:
    是一个内核模块,允许用户创建自己的文件系统,无须修改内核代码。
    用户 空间的文件系统(类比EXT4),这是一个伪文件系统;以本地文件系统为例,用户想要读写一个文件,会借助于EXT4文件系统,然后把数据写在磁盘上;而如果是远端的GFS,客户端的请求则应该交给FUSE(为文件系统),就可以实现跨界点存储在GFS上
  • VFS:
    内核空间对用户空间提供的访问磁盘的接口。
    VFS(虚拟端口) :内核态的虚拟文件系统,用户是先提交请求交给VFS然后VFS交给FUSE,再交给GFS客户端,最后由客户端交给远端的存储
  • Glusterd(后台管理进程): 服务端
    在存储群集中的每个节点上都要运行。

GFS 工作原理

image-20220824153025226

  1. 客户端或应用程序通过 GlusterFS 的挂载点访问数据;
  2. linux系统内核通过 VFS API 虚拟接口收到请求并处理;
  3. VFS 将数据递交给 FUSE 内核文件系统,这是一个伪文件系统,这个伪文件系统主要用来转存,它提供一个虚拟接口,映射出来/dev/fuse这样一个虚拟路径,而 FUSE 文件系统则是将数据通过 /dev/fuse 设备文件递交给了 GlusterFS client 端。可以将 FUSE 文件系统理解为一个代理
  4. GlusterFS client 会实时监听/dev/fuse下 的数据,一旦数据更新,会把数据拿过来,client 根据配置文件的配置对数据进行处理
  5. 经过 GlusterFS client 处理后,通过网络将数据传递至远端的 GlusterFS Server,server会先转存到本地的vfs虚拟文件系统中,然后再通过vfs转存到EXT3上。EXT3指的是各个block块中的EXT3文件系统中。
    在这里插入图片描述

弹性HASH算法

弹性HASH算法是Davies-Meyer算法的具体实现,通过HASH算法可以得到一个32
位的整数范围的hash值,假设逻辑卷中有N个存储单位Br1ck,则32位的整数范围将被划分为N个连续的子空间,每个空间对应一个Brick。
当用户或应用程序访问某一个命名空间时,通过对该命名空间计算HASH值,根据该HASH值所对应的32位整数空间定位数据所在的Brick。

通过HASH算法得到一个32位的整数
划分为N个连续的子空间,每个空间对应一个Bick

image-20220824155844676

弹性HASH算法的优点

保证数据平均分布在每一个Bick中
解决了对元数据服务器的依赖,进而解决了单点故障以及访问瓶颈

GFS卷分类

GlusterFS支持七种卷,即分布式卷、条带卷、复制卷、分布式条带卷、分布式复制卷、条带复制卷和分布式条带复制卷。

分布式卷(Distribute volume)

  • 文件通过HASH算法分布到所有Brick Server上,这种卷是GlusterFS的默认卷;以文件为单位根据HASH算法散列到不同的Brick,其实只是扩大了磁盘空间,如果有一块磁盘损坏,数据也将丢失,属于文件级的RAID0,不具有容错能力。

  • 在该模式下,并没有对文件进行分块处理,文件直接存储在某个Server节点上。

  • 由于直接使用本地文件系统进行文件存储,所以存取效率并没有提高,反而会因为网络通信的原因而有所降低。

分布式卷具特点:
  1. 文件分布在不同的服务器,不具备冗余性。
  2. 更容易和廉价地扩展卷的大小。
  3. 单点故障会造成数据丢失。
  4. 依赖底层的数据保护。

条带卷(Stripe volume)

类似RAID0,文件被分成数据块并以轮询的方式分布到多个Brick Server上,文件存储以数据块为单位,支持大文件存储,文件越大,读取效率越高,但是不具备冗余性。

条带卷特点:
  1. 数据被分割成更小块分布到块服务器群中的不同条带区。
  2. 分布减少了负载且更小的文件加速了存取的速度。
  3. 没有数据冗余。

复制卷(Replica volume)

  • 将文件同步到多个Brick上,使其具备多个文件副本,属于文件级RAID 1,具有容错能力。因为数据分散在多个Brick中,所以读性能得到很大提升,但写性能下降。
  • 复制卷具备冗余性,即使一个节点损坏,也不影响数据的正常使用。但因为要保存副本,所以磁盘利用率较低。
复制卷特点:
  1. 卷中所有的服务器均保存一个完整的副本。
  2. 卷的副本数量可由客户创建的时候决定,但复制数必须等于卷中Brick所包含的存储服务器数。
  3. 至少由两个块服务器或更多服务器。
  4. 具备冗余性。

分布式条带卷(Distribute Stripe volume)

  • BrickServer数量是条带数(数据块分布的Brick数量)的倍数,兼具分布式卷和条带卷的特点。
  • 主要用于大文件访问处理,创建一个分布式条带卷最少需要4台服务器。
  • 创建一个名为dis-stripe的分布式条带卷,配置分布式的条带卷时,卷中Brick所包含的存储服务器数必须是条带数的倍数(>=2倍)。Brick的数量是4 (Server1:/dir1、Server2:/dir2、Server3:/dir3和Server4:/dir4),条带数为2(stripe 2)
  • 创建卷时,存储服务器的数量如果等于条带或复制数,那么创建的是条带卷或者复制卷:如果存储服务器的数量是条带或复制数的2倍甚至更多,那么将创建的是分布式条带卷或分布式复制卷。

分布式复制卷(Distribute Replica volume)

  • Brick Server数量是镜像数(数据副本数量)的倍数,兼具分布式卷和复制卷的特点。主要用于需要冗余的情况下
  • 创建一个名为dis-rep的分布式复制卷,配置分布式的复制卷时,卷中Brick所包含的存储服务器数必须是复制数的倍数(>=2倍)。Brick的数量是4 (Server1:/dir1、Server2:/dir2、Server3:/dir3 和Server4:/dir4),复制数为2(replica 2)

条带复制卷(Stripe Replca volume)

类似RAID10,同时具有条带卷和复制卷的特点。

分布式条带复制卷(Distribute Stripe Replicavolume)

三种基本卷的复合卷,通常用于类Map Reduce应用。

GFS集群部署

image-20220824161840597

卷名称卷类型Brick
dis-volume分布式卷node1(/data/sdb1)、node2(/data/sdb1)
stripe-volume条带卷node1(/data/sdc1)、node2(/data/sdc1)
rep-volume复制卷node3(/data/sdb1)、node4(/data/sdb1)
dis-stripe分布式条带卷node1(/data/sdd1)、node2(/data/sdd1)、node3(/data/sdd1)、node4(/data/sdd1)
dis-rep分布式复制卷node1(/data/sde1)、node2(/data/sde1)、node3(/data/sde1)、node4(/data/sde1)

服务端集群部署

节点磁盘及主机名修改

#每台节点添加四块磁盘,无需太大,重启服务器,准备开始部署
#修改节点主机名
hostnamectl set-hostname node1
hostnamectl set-hostname node2
hostnamectl set-hostname node3
hostnamectl set-hostname node4
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6

节点磁盘挂载(所有节点操作一样)

#分区挂载脚本
vim /opt/fdisk.sh
#!/bin/bash
NEWDEV=`ls /dev/sd* | grep -o 'sd[b-z]' | uniq`
for VAR in $NEWDEV
do
   echo -e "n\np\n\n\n\nw\n" | fdisk /dev/$VAR &> /dev/null
   mkfs.xfs /dev/${VAR}"1" &> /dev/null
   mkdir -p /data/${VAR}"1" &> /dev/null
   echo "/dev/${VAR}"1" /data/${VAR}"1" xfs defaults 0 0" >> /etc/fstab
done
mount -a &> /dev/null
#添加执行权限,并执行脚本
chmod +x /opt/fdisk.sh
cd /opt/
./fdisk.sh
#添加本地映射
echo "192.168.74.128 node1" >> /etc/hosts
echo "192.168.74.129 node2" >> /etc/hosts
echo "192.168.74.130 node3" >> /etc/hosts
echo "192.168.74.131 node4" >> /etc/hosts
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21

安装本地源

#上传软件gfsrepo.zip软件包并解压
unzip gfsrepo.zip 
#配置本地源
cd /etc/yum.repos.d/
mkdir repo.bak
mv *.repo repo.bak
vim glfs.repo
[glfs]
name=glfs
baseurl=file:///opt/gfsrepo
gpgcheck=0
enabled=1
#
yum clean all && yum makecache
#yum -y install centos-release-gluster			#如采用官方 YUM 源安装,可以直接指向互联网仓库
yum -y install glusterfs glusterfs-server glusterfs-fuse glusterfs-rdma
#启动服务并查看状态
systemctl start glusterd.service 
systemctl enable glusterd.service
systemctl status glusterd.service
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20

添加节点创建集群
添加节点到存储信任池中,仅需在一个节点上操作

#创建节点集群
gluster peer probe node1
gluster peer probe node2
gluster peer probe node3
gluster peer probe node4
#查看集群状态
gluster peer status
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7

image-20220824172339454

创建卷

创建分布式卷

#创建分布式卷,没有指定类型,默认创建的是分布式卷
gluster volume create dis-volume node1:/data/sdb1 node2:/data/sdb1 force
#查看卷列表
gluster volume list
#启动新建分布式卷
gluster volume start dis-volume
#查看创建分布式卷信息
gluster volume info dis-volume
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8

image-20220824173419420

创建条带卷

#指定类型为 stripe,数值为 2,且后面跟了 2 个 Brick Server,所以创建的是条带卷
gluster volume create stripe-volume stripe 2 node1:/data/sdc1 node2:/data/sdc1 force
gluster volume start stripe-volume
gluster volume info stripe-volume
  • 1
  • 2
  • 3
  • 4

image-20220824174003718

创建复制卷

#指定类型为 replica,数值为 2,且后面跟了 2 个 Brick Server,所以创建的是复制卷
gluster volume create rep-volume replica 2 node3:/data/sdb1 node4:/data/sdb1 force
gluster volume start rep-volume
gluster volume info rep-volume
  • 1
  • 2
  • 3
  • 4

image-20220824174111498

创建分布式条带卷

#指定类型为 stripe,数值为 2,而且后面跟了 4 个 Brick Server,是 2 的两倍,所以创建的是分布式条带卷
gluster volume create dis-stripe stripe 2 node1:/data/sdd1 node2:/data/sdd1 node3:/data/sdd1 node4:/data/sdd1 force
gluster volume start dis-stripe
gluster volume info dis-stripe
  • 1
  • 2
  • 3
  • 4

image-20220824174212370

创建分布式复制卷

#指定类型为 replica,数值为 2,而且后面跟了 4 个 Brick Server,是 2 的两倍,所以创建的是分布式复制卷
gluster volume create dis-rep replica 2 node1:/data/sde1 node2:/data/sde1 node3:/data/sde1 node4:/data/sde1 force
gluster volume start dis-rep
gluster volume info dis-rep 
  • 1
  • 2
  • 3
  • 4

image-20220824174324135

#查看卷列表
gluster volume list
  • 1
  • 2

image-20220824174411712

部署Gluster客户端

hostnamectl set-hostname client
#上传安装包到/opt,并解压
cd /opt
unzip gfsrepo.zip 
#备份源,并配置本地源
cd /etc/yum.repos.d/
mkdir repo.bak
mv *.repo repo.bak
#############################本地源配置####################
vim glfs.repo
[glfs]
name=glfs
baseurl=file:///opt/gfsrepo
gpgcheck=0
enabled=1
###########################################################
yum clean all && yum makecache
yum -y install glusterfs glusterfs-fuse
#创建挂载点
mkdir -p /test/{dis,stripe,rep,dis_stripe,dis_rep}
cd /test/
ls
#添加主机域名映射
echo "192.168.74.128 node1" >> /etc/hosts
echo "192.168.74.129 node2" >> /etc/hosts
echo "192.168.74.130 node3" >> /etc/hosts
echo "192.168.74.131 node4" >> /etc/hosts
#挂载
mount.glusterfs node1:dis-volume /test/dis
mount.glusterfs node1:stripe-volume /test/stripe
mount.glusterfs node1:rep-volume /test/rep
mount.glusterfs node1:dis-stripe /test/dis_stripe
mount.glusterfs node1:dis-rep /test/dis_rep
#查看挂载情况
df -h
#使用dd命令,向文件中写入40M的数据
dd if=/dev/zero of=/opt/demo1.log bs=1M count=40
dd if=/dev/zero of=/opt/demo2.log bs=1M count=40
dd if=/dev/zero of=/opt/demo3.log bs=1M count=40
dd if=/dev/zero of=/opt/demo4.log bs=1M count=40
dd if=/dev/zero of=/opt/demo5.log bs=1M count=40

#查看文件详情
ls -lh /opt
#将文件复制到各个挂载点目录
cd /opt
cp demo* /test/dis
cp demo* /test/stripe/
cp demo* /test/rep/
cp demo* /test/dis_stripe/
cp demo* /test/dis_rep/
#用tree查看目录结构,tree若没有安装,请安装
cd /test/
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42
  • 43
  • 44
  • 45
  • 46
  • 47
  • 48
  • 49
  • 50
  • 51
  • 52
  • 53

查看文件分布

在服务器上查看各个卷的情况

  • 查看分布式文件分布(node1:/dev/sdb1、node2:/dev/sdb1)
[root@node1 ~] # ls -lh /data/sdc1
总用量 100M
-rw-r--r--. 2 root root 20M 75 22:46 demo1.log
-rw-r--r--. 2 root root 20M 75 22:46 demo2.log
-rw-r--r--. 2 root root 20M 75 22:46 demo3.log
-rw-r--r--. 2 root root 20M 75 22:46 demo4.log
-rw-r--r--. 2 root root 20M 75 22:46 demo5.log

[root@node2 ~]#ll -h /data/sdc1
总用量 100M
-rw-r--r--. 2 root root 20M 75 22:46 demo1.log
-rw-r--r--. 2 root root 20M 75 22:46 demo2.log
-rw-r--r--. 2 root root 20M 75 22:46 demo3.log
-rw-r--r--. 2 root root 20M 75 22:46 demo4.log
-rw-r--r--. 2 root root 20M 75 22:46 demo5.log1234567891011121314
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 查看条带卷文件分布(node1:/dev/sdc1、node2:/dev/sdc1)
[root@node3 ~]#ll -h /data/sdb1
总用量 200M
-rw-r--r--. 2 root root 40M 75 22:46 demo1.log
-rw-r--r--. 2 root root 40M 75 22:46 demo2.log
-rw-r--r--. 2 root root 40M 75 22:46 demo3.log
-rw-r--r--. 2 root root 40M 75 22:46 demo4.log
-rw-r--r--. 2 root root 40M 75 22:46 demo5.log

[root@node4 ~]#ll -h /data/sdb1
总用量 200M
-rw-r--r--. 2 root root 40M 75 22:46 demo1.log
-rw-r--r--. 2 root root 40M 75 22:46 demo2.log
-rw-r--r--. 2 root root 40M 32 22:46 demo3.log
-rw-r--r--. 2 root root 40M 75 22:46 demo4.log
-rw-r--r--. 2 root root 40M 75 22:46 demo5.log1234567891011121314
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 查看分布式条带卷分布(node1:/dev/sdd1、node2:/dev/sdd1、node3:/dev/sdd1、node4:/dev/sdd1)
[root@node1 ~] # ll -h /data/sdd1
总用量 60M
-rw-r--r--. 2 root root 20M 75 22:46 demo1.log
-rw-r--r--. 2 root root 20M 75 22:46 demo2.log
-rw-r--r--. 2 root root 20M 75 22:46 demo3.log

[root@node2 ~]#ll -h /data/sdd1
总用量 60M
-rw-r--r--. 2 root root 20M 75 22:46 demo1.log
-rw-r--r--. 2 root root 20M 75 22:46 demo2.log
-rw-r--r--. 2 root root 20M 75 22:46 demo3.log

[root@node3 ~]#ll -h /data/sdd1
总用量 40M
-rw-r--r--. 2 root root 20M 75 22:46 demo4.log
-rw-r--r--. 2 root root 20M 75 22:46 demo5.log

[root@node4 ~]#ll -h /data/sdd1
总用量 40M
-rw-r--r--. 2 root root 20M 75 22:46 demo4.log
-rw-r--r--. 2 root root 20M 75 22:46 demo5.log1234567891011121314151617181920
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 查看分布式复制卷分布(node1:/dev/sde1、node2:/dev/sde1、node3:/dev/sde1、node4:/dev/sde1)
[root@node1 ~] # ll -h /data/sde1
总用量 160M
-rw-r--r--. 2 root root 40M 75 22:46 demo1.log
-rw-r--r--. 2 root root 40M 75 22:46 demo2.log
-rw-r--r--. 2 root root 40M 75 22:46 demo3.log
-rw-r--r--. 2 root root 40M 75 22:46 demo4.log

[root@node2 ~]#ll -h /data/sde1
总用量 160M
-rw-r--r--. 2 root root 40M 75 22:46 demo1.log
-rw-r--r--. 2 root root 40M 75 22:46 demo2.log
-rw-r--r--. 2 root root 40M 75 22:46 demo3.log
-rw-r--r--. 2 root root 40M 75 22:46 demo4.log

[root@node3 ~]#ll -h /data/sde1
总用量 40M
-rw-r--r--. 2 root root 40M 75 22:46 demo5.log

[root@node4 ~]#ll -h /data/sde1
总用量 40M
-rw-r--r--. 2 root root 40M 75 22:46 demo5.log1234567891011121314151617181920
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21

6.4冗余测试

在客户端(192.168.48.8)上查看文件是否正常

  • 分布式卷数据查看,缺少demo5,这是在node2上的,不具备冗余,挂起 node2 节点或者关闭glusterd服务来模拟故障
#关闭node2节点
[root@node2 ~]# init 0

[root@client test]#ll /test/dis
总用量 163840
-rw-r--r--. 1 root root 41943040 75 23:36 demo1.log
-rw-r--r--. 1 root root 41943040 75 23:36 demo2.log
-rw-r--r--. 1 root root 41943040 75 23:36 demo3.log
-rw-r--r--. 1 root root 41943040 75 23:36 demo4.log12345678
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 条带卷,无法访问,不具备冗余
[root@client test]#ll /test/stripe/
总用量 01
  • 1
  • 2
  • 复制卷,在node3和node4上的,关闭node4(192.168.48.15)进行测试,具有冗余
[root@node4 ~]#init 0

[root@client test]#ll /test/rep/
总用量 204800
-rw-r--r--. 1 root root 41943040 75 23:36 demo1.log
-rw-r--r--. 1 root root 41943040 75 23:36 demo2.log
-rw-r--r--. 1 root root 41943040 75 23:36 demo3.log
-rw-r--r--. 1 root root 41943040 75 23:36 demo4.log
-rw-r--r--. 1 root root 41943040 75 23:36 demo5.log12345678
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 分布式条带卷,不具备冗余
[root@client test]#ll /test/dis_stripe/
总用量 01
  • 1
  • 2
  • 分布式复制卷,具有冗余
[root@client test]#ll /test/dis_rep/
总用量 204800
-rw-r--r--. 1 root root 41943040 75 23:36 demo1.log
-rw-r--r--. 1 root root 41943040 75 23:36 demo2.log
-rw-r--r--. 1 root root 41943040 75 23:36 demo3.log
-rw-r--r--. 1 root root 41943040 75 23:36 demo4.log
-rw-r--r--. 1 root root 41943040 75 23:36 demo5.log123456
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7

上述实验测试,凡是带复制数据,相比而言,数据比较安全

6.5常用命令

1.查看GlusterFS卷
gluster volume list 

2.查看所有卷的信息
gluster volume info

3.查看所有卷的状态
gluster volume status

4.停止一个卷
gluster volume stop dis-stripe

5.删除一个卷,注意:删除卷时,需要先停止卷,且信任池中不能有主机处于宕机状态,否则删除不成功
gluster volume delete dis-stripe

6.设置卷的访问控制
#仅拒绝
gluster volume set dis-rep auth.allow 192.168.48.11

#仅允许
gluster volume set dis-rep auth.allow 192.168.48.*	  #设置192.168.48.0网段的所有IP地址都能访问dis-rep卷(分布式复制卷)1234567891011121314151617181920
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21

七.总结

在GFS分布式卷中,只有带复制数据,相比而言,数据比较安全

demo5.log123456


上述实验测试,凡是带复制数据,相比而言,数据比较安全

## 6.5常用命令

```bash
1.查看GlusterFS卷
gluster volume list 

2.查看所有卷的信息
gluster volume info

3.查看所有卷的状态
gluster volume status

4.停止一个卷
gluster volume stop dis-stripe

5.删除一个卷,注意:删除卷时,需要先停止卷,且信任池中不能有主机处于宕机状态,否则删除不成功
gluster volume delete dis-stripe

6.设置卷的访问控制
#仅拒绝
gluster volume set dis-rep auth.allow 192.168.48.11

#仅允许
gluster volume set dis-rep auth.allow 192.168.48.*	  #设置192.168.48.0网段的所有IP地址都能访问dis-rep卷(分布式复制卷)1234567891011121314151617181920
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27

七.总结

在GFS分布式卷中,只有带复制数据,相比而言,数据比较安全

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/IT小白/article/detail/235260
推荐阅读
相关标签
  

闽ICP备14008679号