赞
踩
文件系统接口
对对像管理的饮件集合
对象及文件
从系统角度来看,文件系统是对文件存储设备的空间进行组织和分配,负责文件存储并对存入的文件进行保护和检索的系统
主要负责为用户建立文件、存入、读出、修改、转储文件,控制文件的存取
除了和文件系统以外的文件系统创建后要使用需要先挂载至挂载点后才可以被访问
挂载点即分区设备文件关联的某个目录文件
类比NFS(外部的文件系统),使用挂载的方式才可以让本地系统来使用外部的文件系统的功能
例如:配置永久挂载时,我们会写入挂载点与挂载目录,还有文件系统的名称(xfs),文件类型格式等。我们在远程跨服务器使用GFS分布式文件系统,挂载时也需要指定其文件格式(GlusterFS)属性
GFS分布式文件系统
MFS传统的分布式文件系统大多通过元服务器来存储元数据,元数据包含存储节点上的目录信息、目录结构等。这样的设计在浏览目录时效率高,但是也存在一些缺陷,例如单点故障。一旦元数据服务器出现故障,即使节点具备再高的冗余性,整个存储系统也将崩溃。而GlusterFS 分布式文件系统是基于无元服务器的设计,数据横向扩展能力强,具备较高的可靠性及存储效率。
GlusterFS利用双重特性来提供高容量存储解决方案。
分布式存储中,将所有节点的命名空间整合为统一命名空间,将整个系统的所有节点的存储容量组成一个大的虚拟存储池,供前端主机访问这些节点完成数据读写操作。
GlusterFS通过将数据储存在逻辑卷中,逻辑卷从逻辑存储池进行独立逻辑划分而得到。
逻辑存储池可以在线进行增加和移除,不会导致业务中断。逻辑卷可以根据需求在线增长和缩减,并可以在多个节点中实现负载均衡。
文件系统配置也可以实时在线进行更改并应用,从而可以适应工作负载条件变化或在线性能调优。
Gluster 存储服务支持 NFS、CIFS、HTTP、FTP、SMB 及 Gluster原生协议,完全与 POSIX 标准(可移植操作系统接口)兼容。
现有应用程序不需要做任何修改就可以对Gluster 中的数据进行访问,也可以使用专用 API 进行访问。
弹性HASH算法是Davies-Meyer算法的具体实现,通过HASH算法可以得到一个32
位的整数范围的hash值,假设逻辑卷中有N个存储单位Br1ck,则32位的整数范围将被划分为N个连续的子空间,每个空间对应一个Brick。
当用户或应用程序访问某一个命名空间时,通过对该命名空间计算HASH值,根据该HASH值所对应的32位整数空间定位数据所在的Brick。
通过HASH算法得到一个32位的整数
划分为N个连续的子空间,每个空间对应一个Bick
保证数据平均分布在每一个Bick中
解决了对元数据服务器的依赖,进而解决了单点故障以及访问瓶颈
GlusterFS支持七种卷,即分布式卷、条带卷、复制卷、分布式条带卷、分布式复制卷、条带复制卷和分布式条带复制卷。
文件通过HASH算法分布到所有Brick Server上,这种卷是GlusterFS的默认卷;以文件为单位根据HASH算法散列到不同的Brick,其实只是扩大了磁盘空间,如果有一块磁盘损坏,数据也将丢失,属于文件级的RAID0,不具有容错能力。
在该模式下,并没有对文件进行分块处理,文件直接存储在某个Server节点上。
由于直接使用本地文件系统进行文件存储,所以存取效率并没有提高,反而会因为网络通信的原因而有所降低。
类似RAID0,文件被分成数据块并以轮询的方式分布到多个Brick Server上,文件存储以数据块为单位,支持大文件存储,文件越大,读取效率越高,但是不具备冗余性。
类似RAID10,同时具有条带卷和复制卷的特点。
三种基本卷的复合卷,通常用于类Map Reduce应用。
卷名称 | 卷类型 | Brick |
---|---|---|
dis-volume | 分布式卷 | node1(/data/sdb1)、node2(/data/sdb1) |
stripe-volume | 条带卷 | node1(/data/sdc1)、node2(/data/sdc1) |
rep-volume | 复制卷 | node3(/data/sdb1)、node4(/data/sdb1) |
dis-stripe | 分布式条带卷 | node1(/data/sdd1)、node2(/data/sdd1)、node3(/data/sdd1)、node4(/data/sdd1) |
dis-rep | 分布式复制卷 | node1(/data/sde1)、node2(/data/sde1)、node3(/data/sde1)、node4(/data/sde1) |
节点磁盘及主机名修改
#每台节点添加四块磁盘,无需太大,重启服务器,准备开始部署
#修改节点主机名
hostnamectl set-hostname node1
hostnamectl set-hostname node2
hostnamectl set-hostname node3
hostnamectl set-hostname node4
节点磁盘挂载(所有节点操作一样)
#分区挂载脚本 vim /opt/fdisk.sh #!/bin/bash NEWDEV=`ls /dev/sd* | grep -o 'sd[b-z]' | uniq` for VAR in $NEWDEV do echo -e "n\np\n\n\n\nw\n" | fdisk /dev/$VAR &> /dev/null mkfs.xfs /dev/${VAR}"1" &> /dev/null mkdir -p /data/${VAR}"1" &> /dev/null echo "/dev/${VAR}"1" /data/${VAR}"1" xfs defaults 0 0" >> /etc/fstab done mount -a &> /dev/null #添加执行权限,并执行脚本 chmod +x /opt/fdisk.sh cd /opt/ ./fdisk.sh #添加本地映射 echo "192.168.74.128 node1" >> /etc/hosts echo "192.168.74.129 node2" >> /etc/hosts echo "192.168.74.130 node3" >> /etc/hosts echo "192.168.74.131 node4" >> /etc/hosts
安装本地源
#上传软件gfsrepo.zip软件包并解压 unzip gfsrepo.zip #配置本地源 cd /etc/yum.repos.d/ mkdir repo.bak mv *.repo repo.bak vim glfs.repo [glfs] name=glfs baseurl=file:///opt/gfsrepo gpgcheck=0 enabled=1 # yum clean all && yum makecache #yum -y install centos-release-gluster #如采用官方 YUM 源安装,可以直接指向互联网仓库 yum -y install glusterfs glusterfs-server glusterfs-fuse glusterfs-rdma #启动服务并查看状态 systemctl start glusterd.service systemctl enable glusterd.service systemctl status glusterd.service
添加节点创建集群
添加节点到存储信任池中,仅需在一个节点上操作
#创建节点集群
gluster peer probe node1
gluster peer probe node2
gluster peer probe node3
gluster peer probe node4
#查看集群状态
gluster peer status
创建分布式卷
#创建分布式卷,没有指定类型,默认创建的是分布式卷
gluster volume create dis-volume node1:/data/sdb1 node2:/data/sdb1 force
#查看卷列表
gluster volume list
#启动新建分布式卷
gluster volume start dis-volume
#查看创建分布式卷信息
gluster volume info dis-volume
创建条带卷
#指定类型为 stripe,数值为 2,且后面跟了 2 个 Brick Server,所以创建的是条带卷
gluster volume create stripe-volume stripe 2 node1:/data/sdc1 node2:/data/sdc1 force
gluster volume start stripe-volume
gluster volume info stripe-volume
创建复制卷
#指定类型为 replica,数值为 2,且后面跟了 2 个 Brick Server,所以创建的是复制卷
gluster volume create rep-volume replica 2 node3:/data/sdb1 node4:/data/sdb1 force
gluster volume start rep-volume
gluster volume info rep-volume
创建分布式条带卷
#指定类型为 stripe,数值为 2,而且后面跟了 4 个 Brick Server,是 2 的两倍,所以创建的是分布式条带卷
gluster volume create dis-stripe stripe 2 node1:/data/sdd1 node2:/data/sdd1 node3:/data/sdd1 node4:/data/sdd1 force
gluster volume start dis-stripe
gluster volume info dis-stripe
创建分布式复制卷
#指定类型为 replica,数值为 2,而且后面跟了 4 个 Brick Server,是 2 的两倍,所以创建的是分布式复制卷
gluster volume create dis-rep replica 2 node1:/data/sde1 node2:/data/sde1 node3:/data/sde1 node4:/data/sde1 force
gluster volume start dis-rep
gluster volume info dis-rep
#查看卷列表
gluster volume list
hostnamectl set-hostname client #上传安装包到/opt,并解压 cd /opt unzip gfsrepo.zip #备份源,并配置本地源 cd /etc/yum.repos.d/ mkdir repo.bak mv *.repo repo.bak #############################本地源配置#################### vim glfs.repo [glfs] name=glfs baseurl=file:///opt/gfsrepo gpgcheck=0 enabled=1 ########################################################### yum clean all && yum makecache yum -y install glusterfs glusterfs-fuse #创建挂载点 mkdir -p /test/{dis,stripe,rep,dis_stripe,dis_rep} cd /test/ ls #添加主机域名映射 echo "192.168.74.128 node1" >> /etc/hosts echo "192.168.74.129 node2" >> /etc/hosts echo "192.168.74.130 node3" >> /etc/hosts echo "192.168.74.131 node4" >> /etc/hosts #挂载 mount.glusterfs node1:dis-volume /test/dis mount.glusterfs node1:stripe-volume /test/stripe mount.glusterfs node1:rep-volume /test/rep mount.glusterfs node1:dis-stripe /test/dis_stripe mount.glusterfs node1:dis-rep /test/dis_rep #查看挂载情况 df -h #使用dd命令,向文件中写入40M的数据 dd if=/dev/zero of=/opt/demo1.log bs=1M count=40 dd if=/dev/zero of=/opt/demo2.log bs=1M count=40 dd if=/dev/zero of=/opt/demo3.log bs=1M count=40 dd if=/dev/zero of=/opt/demo4.log bs=1M count=40 dd if=/dev/zero of=/opt/demo5.log bs=1M count=40 #查看文件详情 ls -lh /opt #将文件复制到各个挂载点目录 cd /opt cp demo* /test/dis cp demo* /test/stripe/ cp demo* /test/rep/ cp demo* /test/dis_stripe/ cp demo* /test/dis_rep/ #用tree查看目录结构,tree若没有安装,请安装 cd /test/
在服务器上查看各个卷的情况
[root@node1 ~] # ls -lh /data/sdc1
总用量 100M
-rw-r--r--. 2 root root 20M 7月 5 22:46 demo1.log
-rw-r--r--. 2 root root 20M 7月 5 22:46 demo2.log
-rw-r--r--. 2 root root 20M 7月 5 22:46 demo3.log
-rw-r--r--. 2 root root 20M 7月 5 22:46 demo4.log
-rw-r--r--. 2 root root 20M 7月 5 22:46 demo5.log
[root@node2 ~]#ll -h /data/sdc1
总用量 100M
-rw-r--r--. 2 root root 20M 7月 5 22:46 demo1.log
-rw-r--r--. 2 root root 20M 7月 5 22:46 demo2.log
-rw-r--r--. 2 root root 20M 7月 5 22:46 demo3.log
-rw-r--r--. 2 root root 20M 7月 5 22:46 demo4.log
-rw-r--r--. 2 root root 20M 7月 5 22:46 demo5.log1234567891011121314
[root@node3 ~]#ll -h /data/sdb1
总用量 200M
-rw-r--r--. 2 root root 40M 7月 5 22:46 demo1.log
-rw-r--r--. 2 root root 40M 7月 5 22:46 demo2.log
-rw-r--r--. 2 root root 40M 7月 5 22:46 demo3.log
-rw-r--r--. 2 root root 40M 7月 5 22:46 demo4.log
-rw-r--r--. 2 root root 40M 7月 5 22:46 demo5.log
[root@node4 ~]#ll -h /data/sdb1
总用量 200M
-rw-r--r--. 2 root root 40M 7月 5 22:46 demo1.log
-rw-r--r--. 2 root root 40M 7月 5 22:46 demo2.log
-rw-r--r--. 2 root root 40M 3月 2 22:46 demo3.log
-rw-r--r--. 2 root root 40M 7月 5 22:46 demo4.log
-rw-r--r--. 2 root root 40M 7月 5 22:46 demo5.log1234567891011121314
[root@node1 ~] # ll -h /data/sdd1 总用量 60M -rw-r--r--. 2 root root 20M 7月 5 22:46 demo1.log -rw-r--r--. 2 root root 20M 7月 5 22:46 demo2.log -rw-r--r--. 2 root root 20M 7月 5 22:46 demo3.log [root@node2 ~]#ll -h /data/sdd1 总用量 60M -rw-r--r--. 2 root root 20M 7月 5 22:46 demo1.log -rw-r--r--. 2 root root 20M 7月 5 22:46 demo2.log -rw-r--r--. 2 root root 20M 7月 5 22:46 demo3.log [root@node3 ~]#ll -h /data/sdd1 总用量 40M -rw-r--r--. 2 root root 20M 7月 5 22:46 demo4.log -rw-r--r--. 2 root root 20M 7月 5 22:46 demo5.log [root@node4 ~]#ll -h /data/sdd1 总用量 40M -rw-r--r--. 2 root root 20M 7月 5 22:46 demo4.log -rw-r--r--. 2 root root 20M 7月 5 22:46 demo5.log1234567891011121314151617181920
[root@node1 ~] # ll -h /data/sde1 总用量 160M -rw-r--r--. 2 root root 40M 7月 5 22:46 demo1.log -rw-r--r--. 2 root root 40M 7月 5 22:46 demo2.log -rw-r--r--. 2 root root 40M 7月 5 22:46 demo3.log -rw-r--r--. 2 root root 40M 7月 5 22:46 demo4.log [root@node2 ~]#ll -h /data/sde1 总用量 160M -rw-r--r--. 2 root root 40M 7月 5 22:46 demo1.log -rw-r--r--. 2 root root 40M 7月 5 22:46 demo2.log -rw-r--r--. 2 root root 40M 7月 5 22:46 demo3.log -rw-r--r--. 2 root root 40M 7月 5 22:46 demo4.log [root@node3 ~]#ll -h /data/sde1 总用量 40M -rw-r--r--. 2 root root 40M 7月 5 22:46 demo5.log [root@node4 ~]#ll -h /data/sde1 总用量 40M -rw-r--r--. 2 root root 40M 7月 5 22:46 demo5.log1234567891011121314151617181920
在客户端(192.168.48.8)上查看文件是否正常
#关闭node2节点
[root@node2 ~]# init 0
[root@client test]#ll /test/dis
总用量 163840
-rw-r--r--. 1 root root 41943040 7月 5 23:36 demo1.log
-rw-r--r--. 1 root root 41943040 7月 5 23:36 demo2.log
-rw-r--r--. 1 root root 41943040 7月 5 23:36 demo3.log
-rw-r--r--. 1 root root 41943040 7月 5 23:36 demo4.log12345678
[root@client test]#ll /test/stripe/
总用量 01
[root@node4 ~]#init 0
[root@client test]#ll /test/rep/
总用量 204800
-rw-r--r--. 1 root root 41943040 7月 5 23:36 demo1.log
-rw-r--r--. 1 root root 41943040 7月 5 23:36 demo2.log
-rw-r--r--. 1 root root 41943040 7月 5 23:36 demo3.log
-rw-r--r--. 1 root root 41943040 7月 5 23:36 demo4.log
-rw-r--r--. 1 root root 41943040 7月 5 23:36 demo5.log12345678
[root@client test]#ll /test/dis_stripe/
总用量 01
[root@client test]#ll /test/dis_rep/
总用量 204800
-rw-r--r--. 1 root root 41943040 7月 5 23:36 demo1.log
-rw-r--r--. 1 root root 41943040 7月 5 23:36 demo2.log
-rw-r--r--. 1 root root 41943040 7月 5 23:36 demo3.log
-rw-r--r--. 1 root root 41943040 7月 5 23:36 demo4.log
-rw-r--r--. 1 root root 41943040 7月 5 23:36 demo5.log123456
上述实验测试,凡是带复制数据,相比而言,数据比较安全
1.查看GlusterFS卷 gluster volume list 2.查看所有卷的信息 gluster volume info 3.查看所有卷的状态 gluster volume status 4.停止一个卷 gluster volume stop dis-stripe 5.删除一个卷,注意:删除卷时,需要先停止卷,且信任池中不能有主机处于宕机状态,否则删除不成功 gluster volume delete dis-stripe 6.设置卷的访问控制 #仅拒绝 gluster volume set dis-rep auth.allow 192.168.48.11 #仅允许 gluster volume set dis-rep auth.allow 192.168.48.* #设置192.168.48.0网段的所有IP地址都能访问dis-rep卷(分布式复制卷)1234567891011121314151617181920
在GFS分布式卷中,只有带复制数据,相比而言,数据比较安全
demo5.log123456
上述实验测试,凡是带复制数据,相比而言,数据比较安全 ## 6.5常用命令 ```bash 1.查看GlusterFS卷 gluster volume list 2.查看所有卷的信息 gluster volume info 3.查看所有卷的状态 gluster volume status 4.停止一个卷 gluster volume stop dis-stripe 5.删除一个卷,注意:删除卷时,需要先停止卷,且信任池中不能有主机处于宕机状态,否则删除不成功 gluster volume delete dis-stripe 6.设置卷的访问控制 #仅拒绝 gluster volume set dis-rep auth.allow 192.168.48.11 #仅允许 gluster volume set dis-rep auth.allow 192.168.48.* #设置192.168.48.0网段的所有IP地址都能访问dis-rep卷(分布式复制卷)1234567891011121314151617181920
在GFS分布式卷中,只有带复制数据,相比而言,数据比较安全
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。