mongodb replica set 副本集 安装部署(三)
2013-04-01 15:00
495 查看
1.节点类型
简单的说副本集(replica set)就是有自动故障恢复功能的主从集群,主从集群和副本集最为明显的区别就是副本集没有固定的主节点,整个集群会选举出一个主节点。
节点类型
standard:常规节点,它存储一份完整的数据副本,参与选举投票,有可能成为primary节点。
passive:存储了完整的数据副本,参与投票,不能成为primary节点。
arbiter:仲裁节点,只参与投票,不接收复制的数据,也不能成为primary节点。
一个repica sets节点数量最好为奇数(odd)。
实验是三个节点:
两个standard节点(这两个节点直接可以互切primary secondary)。
一个arbiter节点,它手中握着一张选票,决定上面两个standard节点中的哪一个可以成为primay。
2.
relica sets 集群三节点分布
实验是三个节点:
两个standard节点(这两个节点直接可以互切primary secondary)。
node1ip:192.168.137.12
node2ip:192.168.137.13
一个arbiter节点,它手中握着一张选票,决定上面两个standard节点中的哪一个可以成为primay。
node3ip:192.168.137.14
3.配置步骤
启动第一个standard节点
/usr/local/mongodb/bin/mongod --port 27017 --dbpath /data/mongodb/db1/ --logpath /data/mongodb/logs/m1.log --logappend --replSet test/192.168.137.13:27017 --maxConns=200 --fork
启动第二个standard节点
/usr/local/mongodb/bin/mongod --port 27017 --dbpath /data/mongodb/db1/ --logpath /data/mongodb/logs/m1.log --logappend --replSet test/192.168.137.12:27017 --maxConns=200 --fork
启动第三个arbiter节点
/usr/local/mongodb/bin/mongod --port 27017 --dbpath /data/mongodb/db1/ --logpath /data/mongodb/logs/m1.log --logappend --replSet test/192.168.137.13:27017,192.168.137.12:27017 --maxConns=200 --fork
以上配置完成后再任意一个standard节点运行mongo
> use admin
> cfg={_id:'test',members:[
...{_id:0,host:'192.168.137.12:27017'},
...{_id:1,host:'192.168.137.13:27017'}]
...}
出现下面的提示信息就代表成功了
"info" : "Config now saved locally. Should come online in about a minute.",
"ok" : 1
然后再加入arbiter节点
PRIMARY> rs.addArb("192.168.137.14:27017");
到了这里,这个集群已经配置完成,三个节点的角色已经分配完毕,怎么查看是否正常呢
rs.status()通过这个命令,可以查看各个节点的ip、角色已经是否正常
可以查看replica set的状态,包括名称,时间,当前登录的mongod是primary还是secondary,以及成员的信息等。
在replica set的信息中,其中重要的是:
myState的值,如果是1代表当前登录的是primary;如果是2代表当前登录的是secondary。
成员信息中包括地址,健康状态,是primary还是secondary等。
成员信息中比较重要的是
state:1表示该host是当前可以进行读写,2:不能读写
health:1表示该host目前是正常的,0:异常
4.mongodb replica sets 的管理
添加普通数据节点
PRIMARY> rs.add("ip:port")
删除节点
PRIMARY> rs.remove("ip:port")
显示当前谁是primay
PRIMARY> rs.isMaster()
将一个普通数据节点修改为passive节点,也就是能同步数据、投票,但是不能成为primay。
除了仲裁节点,其他每个节点都有个优先权,我们可以通过设置优先权来决定谁的成为primay的权重最大。
MongoDB replica sets中通过设置priority的值来决定优先权的大小,这个值的范围是0--100,值越大,优先权越高。
如果值是0,那么不能成为primay。
通过rs.conf()命令查看出节点列表
将node2节点的priority值修改成0,让它只接收数据,不参与成为primary的竞争。在PRIMARY节点上操作:
cfg = rs.conf()
cfg.members[1].priority = 0
rs.reconfig(cfg)
简单的说副本集(replica set)就是有自动故障恢复功能的主从集群,主从集群和副本集最为明显的区别就是副本集没有固定的主节点,整个集群会选举出一个主节点。
节点类型
standard:常规节点,它存储一份完整的数据副本,参与选举投票,有可能成为primary节点。
passive:存储了完整的数据副本,参与投票,不能成为primary节点。
arbiter:仲裁节点,只参与投票,不接收复制的数据,也不能成为primary节点。
一个repica sets节点数量最好为奇数(odd)。
实验是三个节点:
两个standard节点(这两个节点直接可以互切primary secondary)。
一个arbiter节点,它手中握着一张选票,决定上面两个standard节点中的哪一个可以成为primay。
2.
relica sets 集群三节点分布
实验是三个节点:
两个standard节点(这两个节点直接可以互切primary secondary)。
node1ip:192.168.137.12
node2ip:192.168.137.13
一个arbiter节点,它手中握着一张选票,决定上面两个standard节点中的哪一个可以成为primay。
node3ip:192.168.137.14
3.配置步骤
启动第一个standard节点
/usr/local/mongodb/bin/mongod --port 27017 --dbpath /data/mongodb/db1/ --logpath /data/mongodb/logs/m1.log --logappend --replSet test/192.168.137.13:27017 --maxConns=200 --fork
启动第二个standard节点
/usr/local/mongodb/bin/mongod --port 27017 --dbpath /data/mongodb/db1/ --logpath /data/mongodb/logs/m1.log --logappend --replSet test/192.168.137.12:27017 --maxConns=200 --fork
启动第三个arbiter节点
/usr/local/mongodb/bin/mongod --port 27017 --dbpath /data/mongodb/db1/ --logpath /data/mongodb/logs/m1.log --logappend --replSet test/192.168.137.13:27017,192.168.137.12:27017 --maxConns=200 --fork
以上配置完成后再任意一个standard节点运行mongo
> use admin
> cfg={_id:'test',members:[
...{_id:0,host:'192.168.137.12:27017'},
...{_id:1,host:'192.168.137.13:27017'}]
...}
出现下面的提示信息就代表成功了
"info" : "Config now saved locally. Should come online in about a minute.",
"ok" : 1
然后再加入arbiter节点
PRIMARY> rs.addArb("192.168.137.14:27017");
到了这里,这个集群已经配置完成,三个节点的角色已经分配完毕,怎么查看是否正常呢
rs.status()通过这个命令,可以查看各个节点的ip、角色已经是否正常
可以查看replica set的状态,包括名称,时间,当前登录的mongod是primary还是secondary,以及成员的信息等。
在replica set的信息中,其中重要的是:
myState的值,如果是1代表当前登录的是primary;如果是2代表当前登录的是secondary。
成员信息中包括地址,健康状态,是primary还是secondary等。
成员信息中比较重要的是
state:1表示该host是当前可以进行读写,2:不能读写
health:1表示该host目前是正常的,0:异常
4.mongodb replica sets 的管理
添加普通数据节点
PRIMARY> rs.add("ip:port")
删除节点
PRIMARY> rs.remove("ip:port")
显示当前谁是primay
PRIMARY> rs.isMaster()
将一个普通数据节点修改为passive节点,也就是能同步数据、投票,但是不能成为primay。
除了仲裁节点,其他每个节点都有个优先权,我们可以通过设置优先权来决定谁的成为primay的权重最大。
MongoDB replica sets中通过设置priority的值来决定优先权的大小,这个值的范围是0--100,值越大,优先权越高。
如果值是0,那么不能成为primay。
通过rs.conf()命令查看出节点列表
将node2节点的priority值修改成0,让它只接收数据,不参与成为primary的竞争。在PRIMARY节点上操作:
cfg = rs.conf()
cfg.members[1].priority = 0
rs.reconfig(cfg)
相关文章推荐
- MongoDB 3.4 高可用集群搭建(二)replica set 副本集
- mongodb集群安装,一主二从,replica_set
- mongodb replica set(副本集)开启步骤
- mongodb Replica Set 部署
- Mongodb安装搭建Replica Set+Sharding集群
- [MongoDB] 安装MongoDB配置Replica Set
- mongodb replica set部署与测试
- mongodb replica set + shard 安装
- [MongoDB] 安装MongoDB配置Replica Set
- [MongoDB] 安装MongoDB配置Replica Set
- mongodb集群方案:Replica Set集群的安装配置
- Mongodb集群部署---Replica Set+Sharding
- 快速部署有身份验证和授权的MongoDB Replica SET复制集
- linux mongodb replica set集群安装
- MongoDB Replica Set的部署配置以及遇到的问题 linux
- Mongodb安装搭建Replica Set+Sharding集群
- MongoDB Replica Set集群部署
- 转:mongodb分片集群(sharding with replica set)配置
- Mongodb集群配置(sharding with replica set)
- mongodb replica set 添加删除节点的2种方法