赞
踩
完全无中心架构一-计算模式(ceph)
如图是ceph存储系统的架构,在该架构中与HDFS不同的地方在于该架构中没有中心节点。客户端是通过一个设备映射关系计算出来其写入数据的位置,这样客户端可以直接与存储节点通信,从而避免中心节点的性能瓶颈。
在ceph存储系统架构中核心组件有Mon服务、OSD服务和MDS服务等。对于块存储类型只需要Mon服务、OSD服务和客户端的软件即可。其中Mon服务用于维护存储系统的硬件逻辑关系,主要是服务器和硬盘等在线信息。Mon服务通过集群的方式保证其服务的可用性。OSD服务用于实现对磁盘的管理,实现真正的数据读写,通常一个磁盘对应一个OSD服务。
客户端访问存储的大致流程是,客户端在启动后会首先从Mon服务拉取存储资源布局信息,然后根据该布局信息和写入数据的名称等信息计算出期望数据的位置(包含具体的物理服务器信息和磁盘信息),然后该位置信息直接通信,读取或者写入数据。
部署CEPH之前,必须把和存储有关系数据清理干净
三个节点iptables 防火墙关闭
'//三个节点操作相同,仅展示控制节点的操作'
[root@ct ~]# systemctl stop iptables
[root@ct ~]# systemctl disable iptables
Removed symlink /etc/systemd/system/basic.target.wants/iptables.service.
检查节点的免交互、主机名、hosts、关闭防火墙等
三个节点本地源配置(仅展示控制节点的操作)
[root@ct opt]# tar zxvf openstack_rocky.tar.gz '//解压上传的包' [root@ct opt]# ls openstack_rocky openstack_rocky.tar.gz [root@ct opt]# cd /etc/yum.repos.d [root@ct yum.repos.d]# vi local.repo [openstack] name=openstack baseurl=file:///opt/openstack_rocky '//刚解压的文件夹名称和之前的名称一样,所以不需要修改' gpgcheck=0 enabled=1 [mnt] name=mnt baseurl=file:///mnt gpgcheck=0 enabled=1 [root@ct yum.repos.d]# yum clean all '//清除缓存' 已加载插件:fastestmirror 正在清理软件源: mnt openstack Cleaning up list of fastest mirrors [root@ct yum.repos.d]# yum makecache '//创建缓存'
三个节点安装Python-setuptools工具和ceph软件
[root@ct yum.repos.d]# yum -y install python-setuptools
[root@ct yum.repos.d]# yum -y install ceph
在控制节点,创建ceph配置文件目录并安装ceph-deploy
[root@ct yum.repos.d]# mkdir -p /etc/ceph
[root@ct yum.repos.d]# yum -y install ceph-deploy
控制节点创建三个mon
[root@ct yum.repos.d]# cd /etc/ceph
[root@ct ceph]# ceph-deploy new ct c1 c2
[root@ct ceph]# more /etc/ceph/ceph.conf
[global]
fsid = 8c9d2d27-492b-48a4-beb6-7de453cf45d6
mon_initial_members = ct, c1, c2
mon_host = 192.168.11.100,192.168.11.101,192.168.11.102
auth_cluster_required = cephx
auth_service_required = cephx
auth_client_required = cephx
控制节点操作:初始化mon 并收集秘钥(三个节点)
[root@ct ceph]# ceph-deploy mon create-initial
[root@ct ceph]# ls
ceph.bootstrap-mds.keyring ceph.bootstrap-rgw.keyring ceph-deploy-ceph.log
ceph.bootstrap-mgr.keyring ceph.client.admin.keyring ceph.mon.keyring
ceph.bootstrap-osd.keyring ceph.conf rbdmap
控制节点创建OSD
[root@ct ceph]# ceph-deploy osd create --data /dev/sdb ct
[root@ct ceph]# ceph-deploy osd create --data /dev/sdb c1
[root@ct ceph]# ceph-deploy osd create --data /dev/sdb c2
使用ceph-deploy下发配置文件和admin秘钥下发到ct c1 c2
[root@ct ceph]# ceph-deploy admin ct c1 c2
给ct c1 c2 每个节点的keyring增加权限.
[root@ct ceph]# chmod +x /etc/ceph/ceph.client.admin.keyring
[root@c1 ceph]# chmod +x /etc/ceph/ceph.client.admin.keyring
[root@c2 ceph]# chmod +x /etc/ceph/
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。