首页 > 技术文章 > MongoDB高可用分片集群搭建

jerry0612 2021-02-05 09:49 原文

1.环境软件版本

环境&软件 版本
Oracle VM VirtualBox
服务器&CentOS 7.8
数据库&MongoDB 4.1.3
远程连接&Xshell 6

2.环境架构介绍

架构图如下图所示:

ip 角色 权限
192.168.124.136 Primary节点 读写
192.168.124.137 Secondary节点 只读
192.168.124.138 Secondary节点 只读

3.复制集搭建

3.1 MongoDB安装(3台)

下载

去官网下载社区版 MongoDB 4.1.3 然后上传到Linux虚拟机

解压并重命名

tar -xvf mongodb-linux-x86_64-4.1.3.tgz
mv mongodb-linux-x86_64-4.1.3 mongodb

主节点配置

192.168.124.136机器上操作如下:

mkdir /usr/local/mongodb/data/ -p

切到mongodb目录,添加配置文件mongo.conf

vi mongo.conf

配置文件如下:

# 数据存放路径 
dbpath=/usr/local/mongo_cluster/data/
bind_ip=0.0.0.0
# 端口
port=27017
# 是否启用守护线程,即后台运行
fork=true
# 日志存放路径
logpath=/usr/local/mongo_cluster/data/logs/server.log
# 集群名称
replSet=myCluster

从节点1配置

192.168.124.137机器上重复以上操作

从节点2配置

192.168.124.138机器上重复以上操作

初始化节点配置

分别在三台机器上执行如下命令,启动三个节点

./bin/mongod -config mongo.conf

进入任意一个节点运行如下命令:

var cfg ={"_id":"myCluster",
     "protocolVersion" : 1,
	 "members":[
		{"_id":1,"host":"192.168.124.136:27017","priority":10},
		{"_id":2,"host":"192.168.124.137:27017"},
		{"_id":3,"host":"192.168.124.138:27017"},
	 ]
}
rs.initiate(cfg)
rs.status()

4.分片集群搭建

分片(sharding)是MongoDB用来将大型集合水平分割到不同服务器(或者复制集)上所采用的方法。

分片集群架构图如下:

4.1 分片集群组成

分片集群由以下3个服务组成:

  • Shards Server:每个shard由一个或多个mongod进程组成,用于存储数据。
  • Router Server: 数据库集群的请求入口,所有请求都通过Router(mongos)进行协调,不需要在应用程序添加一个路由选择器,Router(mongos)就是一个请求分发中心它负责把应用程序的请求转发到对应的Shard服务器上。
  • Config Server: 配置服务器。存储所有数据库元信息(路由、分片)的配置。

4.2 搭建过程

配置并启动config节点集群

  • 节点1

192.168.124.136机器上操作如下:

tar -xvf mongodb-linux-x86_64-4.1.3.tgz
mv mongodb-linux-x86_64-4.1.3 mongo_shard_cluster

mkdir /data/cluster/config/logs -p

切到mongo_shard_cluster目录,添加配置文件config.conf

# 数据库文件位置
dbpath=/data/cluster/config
#日志文件位置
logpath=/data/cluster/config/logs/config.log
# 以追加方式写入日志
logappend=true
# 是否以守护进程方式运行
fork=true
bind_ip=0.0.0.0
port=17017
# 表示是一个配置服务器
configsvr=true
#配置服务器副本集名称
replSet=configsvr
  • 节点2

192.168.124.137机器上重复以上操作

  • 节点3

192.168.124.138机器上重复以上操作

分别在三台机器上执行如下命令,启动三个节点

./bin/mongod -config config.conf

进入任意节点的mongo shell并添加配置节点集群,注意这里必须使用admin库进行操作

./mongo --port 17017

use admin

var cfg ={"_id":"configsvr",
"members":[
{"_id":1,"host":"192.168.124.136:17017"},
{"_id":2,"host":"192.168.124.137:17017"},
{"_id":3,"host":"192.168.124.138:17017"}]
};
rs.initiate(cfg)

配置shard集群

  • shard1集群搭建

分别在三台服务器上操作如下命令:

mkdir /data/cluster/shard1 -p
mkdir /data/cluster/shard2 -p
mkdir /data/cluster/shard3 -p

添加配置文件shard-37017.conf

dbpath=/data/cluster/shard1
bind_ip=0.0.0.0
port=37017
fork=true
logpath=/data/cluster/shard1/shard1.log
replSet=shard1
shardsvr=true

启动每个mongod,然后进入其中一个进行集群配置

./bin/mongod -config shard-37017.conf
./bin/mongod -config shard-37018.conf
./bin/mongod -config shard-37019.conf
./bin/mongo --port 37017

var cfg ={"_id":"shard1",
"protocolVersion" : 1,
"members":[
{"_id":1,"host":"192.168.124.136:37017"},
{"_id":2,"host":"192.168.124.137:37017"},
{"_id":3,"host":"192.168.124.138:37017"}
]
};
rs.initiate(cfg)
rs.status()
  • shard2集群搭建

分别在三台服务器上操作如下命令:

添加配置文件shard-37018.conf

dbpath=/data/cluster/shard2
bind_ip=0.0.0.0
port=37018
fork=true
logpath=/data/cluster/shard2/shard2.log
replSet=shard2
shardsvr=true

启动每个mongod,然后进入其中一个进行集群配置

./bin/mongo --port 37018

var cfg ={"_id":"shard2",
"protocolVersion" : 1,
"members":[
{"_id":1,"host":"192.168.124.136:37018"},
{"_id":2,"host":"192.168.124.137:37018"},
{"_id":3,"host":"192.168.124.138:37018"}
]
};
rs.initiate(cfg)
rs.status()
  • shard3集群搭建

分别在三台服务器上操作如下命令:

添加配置文件shard-37019.conf

dbpath=/data/cluster/shard3
bind_ip=0.0.0.0
port=37019
fork=true
logpath=/data/cluster/shard3/shard3.log
replSet=shard3
shardsvr=true

启动每个mongod,然后进入其中一个进行集群配置

./bin/mongo --port 37019

var cfg ={"_id":"shard3",
"protocolVersion" : 1,
"members":[
{"_id":1,"host":"192.168.124.136:37019"},
{"_id":2,"host":"192.168.124.137:37019"},
{"_id":3,"host":"192.168.124.138:37019"}
]
};
rs.initiate(cfg)
rs.status()
  • 配置和启动路由节点

192.168.124.136机器上操作如下:

mkdir /data/cluster/route/logs -p

切到mongo_shard_cluster目录下,添加配置文件route.conf

port=27017
bind_ip=0.0.0.0
fork=true
logpath=/data/cluster/route/logs/route.log
configdb=configsvr/192.168.124.136:17017,192.168.124.137:17017,192.168.124.138:17017

使用mongos启动路由节点

./bin/mongos -f route.conf

mongos(路由)中添加分片节点

进入路由mongos

./bin/mongo  --port 27017
sh.status()   
sh.addShard("shard1/192.168.124.136:37017,192.168.124.137:37017,192.168.124.138:37017");
sh.addShard("shard2/192.168.124.136:37018,192.168.124.137:37018,192.168.124.138:37018");
sh.addShard("shard3/192.168.124.136:37019,192.168.124.137:37019,192.168.124.138:37019");
sh.status()

开启数据库和集合分片(指点片键)

继续使用mongos完成分片开启和分片大小设置

为数据库开启分片功能
sh.enableSharding("lg_resume")
为指定集合开启分片功能
sh.shardCollection("lg_resume.lg_resume_datas",{"name":"hashed"})

向集合中插入数据测试

use  lg_resume;
for(var i=1;i<= 1000;i++){
  db.lg_resume_datas.insert({"name":"test"+i,
    salary:(Math.random()*20000).toFixed(2)});
}

验证分片效果

分别进入 shard1、shard2和shard3中的数据库 进行验证

5.单节点添加安全认证

MongoDB 默认是没有账号的,可以直接连接,无须身份验证。实际项目中肯定是要权限验证的,否则后果不堪设想。

切换到admin数据库对用户的添加

use admin;

db.createUser({
	user:"root",
	pwd:"123456",
	roles:[{role:"root",db:"admin"}]
})

切换到lg_resume库对用户的添加

use lg_resume;

db.createUser({
	user:"lagou_gx",
	pwd:"abc321",
	roles:[{role:"readWrite",db:"lg_resume"}]
})

以auth方式启动mongod

修改mongo.conf配置文件,添加auth=true参数

验证用户

db.auth("账号","密码")

6.分片集群添加安全认证

开启安全认证之前 进入路由创建管理员和普通用户

参考上面的单节点

关闭所有配置节点、分片节点、路由节点

  • 安装psmisc

    yum install psmisc
    
  • 安装完之后可以使用killall 命令 快速关闭多个进程

    killall mongod
    killall mongos
    

生成秘钥文件 并修改权限

在每一台服务器操作如下命令

mkdir /data/cluster/keyFile -p
# 注意:秘钥文件生成一个即可,将其拷贝到其它服务器
openssl rand -base64 756 > /data/cluster/keyFile/myKey.file

scp -P22 /data/cluster/keyFile/myKey.file root@192.168.124.137:/data/cluster/keyFile/myKey.file
scp -P22 /data/cluster/keyFile/myKey.file root@192.168.124.138:/data/cluster/keyFile/myKey.file
scp -P22 /data/cluster/keyFile/myKey.file root@192.168.124.139:/data/cluster/keyFile/myKey.file

chmod 600 /data/cluster/keyFile/myKey.file

配置节点集群和分片节点集群开启安全认证和指定密钥文件

auth=true
keyFile=/data/cluster/keyFile/myKey.file

在路由配置文件中 设置密钥文件

keyFile=/data/cluster/keyFile/myKey.file

启动所有的配置节点 分片节点 和 路由节点 使用路由进行权限验证

分别在三台服务器上操作如下命令:

切到mongo_shard_cluster目录,创建mongo_startup.sh脚本

./bin/mongod -f config.conf

./bin/mongod -f shard-37017.conf
./bin/mongod -f shard-37018.conf
./bin/mongod -f shard-37019.conf

./bin/mongos -f route.conf

赋予可执行权限

chmod +x mongo_startup.sh

启动脚本

cd /usr/local/mongo_shard_cluster/ sh mongod.sh

7.Spring boot 连接安全认证的分片集群

spring.data.mongodb.username=lagou_gx
spring.data.mongodb.password=abc321

推荐阅读