赞
踩
mongodb 集群搭建的方式有三种:
其中,第一种方式基本没什么意义,官方也不推荐这种方式搭建。另外两种分别就是副本集和分片的方式。今天介绍副本集的方式搭建 mongodb 高可用集群
首先我们先来了解一下 Mongo 集群的概念,Mongo 集群有 3 个主要组件
ConfigServer:在集群中扮演存储整个集群的配置信息,负责配置存储,如果需要高可用的 ConfigServer 那么需要 3 个节点。
Shard:分片,存储真实的数据,每一个 Shard 分片都负责存储集群中的数据,例如一个集群有 3 个分片,然后我们定义分片规则为哈希,那么整个集群的数据就会(分割)到 3 个分片中的某一个分片,那么分片是特别重要的,如果集群中的一个分片全部崩溃了那么集群将不可用,所以我们要保证集群的高可用,那么我们需要一个分片配置 3 个节点,2 个副本集一个仲裁节点,仲裁节点类似于 Redis 的哨兵模式,如果发现主节点挂了那么让另一个副本集进行数据存储。
Mongos:Mongos 我们可以理解为整个集群的入口,类似于 Kafka 的 Broker 代理,也就是客户端,我们通过客户端连接集群进行查询。
下面是 MongoDB 的官方集群架构图,我们看到 Mongos 是一个路由,他们的信息都存储在 ConfigServer 中,我们通过 Mongos 进行添加,然后根据条件将数据进行分片到分片的副本集中
那么我们先来总结一下我们搭建一个高可用集群需要多少个 Mongo
mongos : 3 台
configserver : 3 台
shard : 3 片
每一片 shard 分别 部署两个副本集和一个仲裁节点 : 3 台
那么就是 3 + 3 + 3 * 3 = 15 台,由于服务器数量限制暂时使用 3 台进行部署,设计如下
node-1.internal
[Node 1
]: 2 核 4g 部署 1 个 mongos,1 个 configserver,1 个分片组
node-2.internal
[Node 3
]: 2 核 4g 部署 1 个 mongos,1 个 configserver,1 个分片组
node-3.internal
[Node 2
]: 2 核 4g 部署 1 个 mongos,1 个 configserver,1 个分片组
端口分配:
ip host | role | port |
---|---|---|
node-1.internal | mongos | 10900 |
node-1.internal | configsvr | 10901 |
node-1.internal | shard-master | 10902 |
node-1.internal | shard-slave | 10903 |
node-1.internal | shard-arbiter | 10904 |
node-2.internal | mongos | 10900 |
node-2.internal | configsvr | 10901 |
node-2.internal | shard-master | 10902 |
node-2.internal | shard-slave | 10903 |
node-2.internal | shard-arbiter | 10904 |
node-3.internal | mongos | 10900 |
node-3.internal | configsvr | 10901 |
node-3.internal | shard-master | 10902 |
node-3.internal | shard-slave | 10903 |
node-3.internal | shard-arbiter | 10904 |
为了达到高可用且控制权限的目的,这里 mongo 之间通信采用秘钥文件,所以我们先进行生成
openssl rand -base64 756 > /mnt/data/docker/mongo-cluster/configsvr/conf/mongo.key
文件如下,我们,之后我们所以 key 都采用这个(请采用自己生成的 key)
tsUtJb3T...SomyNDISXDiSTJQEVym OhXXzwB+...FC1q39IrUDAEpCikSKS abGl8RTE...b4I4jzvgStcPcozRgOZ 5kPvXByb...WZe4VcF+iU6jgw73juZ pbcZR5oT...E8LFPBZ+XLGYrtmDqo0 9tA1x8R+...0afT4ou2w7QHsdF0WRn nskJ1FCA...pBkj4muKUk7OTHRV6bs qr2C73bq...BIGiSD1Kyr/iqO7gD4C GN8iA3Mq...Wt5XLOWP7CBGuTo7KST Y5HAcblq...gS0GZfUk4bndLTkHrJd tcR4WreH...Woukw/eViacLlBHKOxB QVgfo449...qx5MsOlIXiFwA3ue1Lo kiFq5c6I...ChYow7TkTLf/LsnjL3m rmkDRgzA...tGIxRnP07pMS9RP4TjS ZSd9an5y...gFl/Eq5NH60Zd4utxfi qM2FH7aN...6kA
PS:由于使用 docker-compose 部署,每个宿主机配置一致,以下操作重复执行即可
创建配置文件
mkdir -p /mnt/data/docker/mongo-cluster/mongos/{data,conf}
填入配置文件,这里我们删除了认证的信息,因为 mongos 是不能设置认证的,他也是用的前面使用的密码即可,如 configserver 的密码
echo "net:
port: 10900 #端口号
sharding:
configDB: configsvr/node-1.internal:10901,node-2.internal:10901,node-3.internal:10901
security:
keyFile: /data/configdb/mongo.key #keyFile路径
" > /mnt/data/docker/mongo-cluster/mongos/conf/mongo.conf
创建 keyfile
echo "${mongoKey}" > /mnt/data/docker/mongo-cluster/mongos/conf/mongo.key
#处理权限为400
chmod 400 /mnt/data/docker/mongo-cluster/mongos/conf/mongo.key
创建挂载文件目录
mkdir -p /mnt/data/docker/mongo-cluster/configsvr/{data,conf}
写入配置文件
echo " # 日志文件 #systemLog: # destination: file # logAppend: true # path: /var/log/mongodb/mongod.log # 网络设置 net: port: 10901 #端口号 # bindIp: 127.0.0.1 #绑定ip replication: replSetName: configsvr sharding: clusterRole: configsvr security: authorization: enabled #是否开启认证 keyFile: /data/configdb/mongo.key #keyFile路径 " > /mnt/data/docker/mongo-cluster/configsvr/conf/mongo.conf
写入 key 文件
echo "${mongoKey}" > /mnt/data/docker/mongo-cluster/configsvr/conf/mongo.key
#处理权限为400
chmod 400 /mnt/data/docker/mongo-cluster/configsvr/conf/mongo.key
在同一台服务器上初始化一组分片
创建挂载文件
mkdir -p /mnt/data/docker/mongo-cluster/shard-master/{data,conf}
mkdir -p /mnt/data/docker/mongo-cluster/shard-slave/{data,conf}
mkdir -p /mnt/data/docker/mongo-cluster/shard-arbiter/{data,conf}
配置配置文件
echo " # 日志文件 #systemLog: # destination: file # logAppend: true # path: /var/log/mongodb/mongod.log # 网络设置 net: port: 10902 #端口号 # bindIp: 127.0.0.1 #绑定ip replication: replSetName: shard-{1|2|3} sharding: clusterRole: shardsvr security: authorization: enabled #是否开启认证 keyFile: /data/configdb/mongo.key #keyFile路径 " > /mnt/data/docker/mongo-cluster/shard-master/conf/mongo.conf ------------------------------------------------------------------------------ echo " # 日志文件 #systemLog: # destination: file # logAppend: true # path: /var/log/mongodb/mongod.log # 网络设置 net: port: 10903 #端口号 # bindIp: 127.0.0.1 #绑定ip replication: replSetName: shard-{1|2|3} sharding: clusterRole: shardsvr security: authorization: enabled #是否开启认证 keyFile: /data/configdb/mongo.key #keyFile路径 " > /mnt/data/docker/mongo-cluster/shard-slave/conf/mongo.conf ------------------------------------------------------------------------------ echo " # 日志文件 #systemLog: # destination: file # logAppend: true # path: /var/log/mongodb/mongod.log # 网络设置 net: port: 10904 #端口号 # bindIp: 127.0.0.1 #绑定ip replication: replSetName: shard-{1|2|3} sharding: clusterRole: shardsvr security: authorization: enabled #是否开启认证 keyFile: /data/configdb/mongo.key #keyFile路径 " > /mnt/data/docker/mongo-cluster/shard-arbiter/conf/mongo.conf
创建 keyfile
echo "${mongoKey}" > /mnt/data/docker/mongo-cluster/shard-master/conf/mongo.key
#处理权限为400
chmod 400 /mnt/data/docker/mongo-cluster/shard-master/conf/mongo.key
#复制
cp /mnt/data/docker/mongo-cluster/shard-master/conf/mongo.key /mnt/data/docker/mongo-cluster/shard-slave/conf/mongo.key
cp /mnt/data/docker/mongo-cluster/shard-master/conf/mongo.key /mnt/data/docker/mongo-cluster/shard-arbiter/conf/mongo.key
编写 docker-compose.yaml
version: "3" services: mongo-cluster-mongos: image: mongo:6.0 container_name: mongo-cluster-mongos privileged: true entrypoint: "mongos" network_mode: host ports: - "10900:10900" volumes: - /mnt/data/docker/mongo-cluster/mongos/conf:/data/configdb - /mnt/data/docker/mongo-cluster/mongos/data:/data/db command: -f /data/configdb/mongo.conf --bind_ip_all # bind all ip address restart: always mongo-cluster-config: image: mongo:6.0 container_name: mongo-cluster-config privileged: true network_mode: host ports: - "10901:10901" volumes: - /mnt/data/docker/mongo-cluster/configsvr/conf:/data/configdb - /mnt/data/docker/mongo-cluster/configsvr/data:/data/db command: mongod -f /data/configdb/mongo.conf restart: always mongo-cluster-shard-master: image: mongo:6.0 container_name: mongo-cluster-shard-master privileged: true network_mode: host ports: - "10902:10902" volumes: - /mnt/data/docker/mongo-cluster/shard-master/conf:/data/configdb - /mnt/data/docker/mongo-cluster/shard-master/data:/data/db command: mongod -f /data/configdb/mongo.conf restart: always mongo-cluster-shard-slave: image: mongo:6.0 container_name: mongo-cluster-shard-slave privileged: true network_mode: host ports: - "10903:10903" volumes: - /mnt/data/docker/mongo-cluster/shard-slave/conf:/data/configdb - /mnt/data/docker/mongo-cluster/shard-slave/data:/data/db command: mongod -f /data/configdb/mongo.conf restart: always mongo-cluster-shard-arbiter: image: mongo:6.0 container_name: mongo-cluster-shard-arbiter privileged: true network_mode: host ports: - "10904:10904" volumes: - /mnt/data/docker/mongo-cluster/shard-arbiter/conf:/data/configdb - /mnt/data/docker/mongo-cluster/shard-arbiter/data:/data/db command: mongod -f /data/configdb/mongo.conf restart: always
docker-compose up -d
由于 mongos 是客户端,所以我们先搭建好 config 以及 shard 之后再搭建 mongos。
进入第一台宿主机 (node-1.internal
) 的 config-server 容器
docker exec -it mongo-cluster-config bash
mongosh -port 10901
输入
rs.initiate(
{
_id: "configsvr",
members: [
{ _id : 1, host : "node-1.internal:10901" },
{ _id : 2, host : "node-2.internal:10901" },
{ _id : 3, host : "node-3.internal:10901" }
]
}
)
如果返回 ok 则成功
然后我们创建用户
use admin
db.createUser({user:"root",pwd:"root",roles:[{role:'root',db:'admin'}]})
docker exec -it shard-master bash
mongosh -port 10902
#进行副本集配置
rs.initiate(
{
_id : "shard-{1|2|3}",
members: [
{ _id : 0, host : "node-1.internal:10902" },
{ _id : 1, host : "node-1.internal:10903" },
{ _id : 2, host : "node-1.internal:10904", arbiterOnly:true }
]
}
)
返回 ok 后创建用户
use admin
db.createUser({user:"root",pwd:"root",roles:[{role:'root',db:'admin'}]})
然后退出,第一台分片组搭建完成,其他两台分片组重复此操作
进入第一台宿主机 (node-1.internal
) 的 mongos 容器
docker exec -it mongos bash
mongosh -port 10900
先登录(使用前面设置的 root 用户密码)
use admin;
db.auth("root","root");
进行配置分片信息
sh.addShard("shard-1/node-1.internal:10902,node-1.internal10903,node-1.internal:10904")
sh.addShard("shard-2/node-2.internal:10902,node-2.internal10903,node-2.internal:10904")
sh.addShard("shard-3/node-3.internal:10902,node-3.internal10903,node-3.internal:10904")
全部返回 ok 则成功
去其他两台 mongos 上重复执行上述操作
use test
sh.enableSharding("test")
对test库的test集合的_id进行哈希分片
db.users.createIndex({ _id: "hashed" })
sh.shardCollection("test.test", {"_id": "hashed" })
创建用户
use admin;
db.auth("root","root");
use test;
db.createUser({user:"kang",pwd:"kang",roles:[{role:'dbOwner',db:'test'}]})
插入数据
use test
for (i = 1; i <= 300; i=i+1){db.test.insert({'name': "bigkang"})}
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。