您的位置:首页 > 数据库 > Mongodb

虚拟机下搭建mongodb集群

2014-07-09 16:36 351 查看
linux下搭建mongodb集群
检查三台的mongodb配置是不是完整
准备三台linux服务器,关闭防火墙,设置时间一样
三台服务器IP分别是
server A 172.16.0.240
server B 172.16.0.241
server C 172.16.0.242
1,创建数据目录 在bin目录下
首先要创建Shard Server 和Config Server的数据目录,用于存储数据。
AA:在Server A上创建Shard Server 和Config Server的目录数据,代码如下:
# mkdir -p /data/shard1_1
# mkdir -p /data/shard2_1
# mkdir -p /data/config
在bin目录下
BB:在Server B上创建Shard Server 和Config Server的目录数据,代码如下:
# mkdir -p /data/shard1_2
# mkdir -p /data/shard2_2
# mkdir -p /data/config
在bin目录下
CC:在Server C上创建Shard Server 和Config Server的目录数据,代码如下:
# mkdir -p /data/shard1_3
# mkdir -p /data/shard2_3
# mkdir -p /data/config

2,配置Replica Sets
本小节讨论如何配置Shard Server 1 和Shard Server 2各自用到的复制集。
(001)配置Shard1所用到的Replica Set 1
在server A上操作,如下代码所示:
# /usr/local/mongodb/bin/mongod --shardsvr --replSet shard1 --port 27017 --dbpath /data/shard1_1 --logpath /data/shard1_1/shard1_1.log --logappend --fork
# all output going to:/data/shard1_1/shard1_1.log forked process:18923 ----此处无果,执行上面会输出的
(002) 在server B上操作,如下代码所示:
# /usr/local/mongodb/bin/mongod --shardsvr --replSet shard1 --port 27017 --dbpath /data/shard1_2 --logpath /data/shard1_2/shard1_2.log --logappend --fork
# all output going to: /data/shard1_2/shard1_2.log forked process: 25774 ----此处无果,执行上面会输出的
(003) 在server C上操作,如下代码所示:
# /usr/local/mongodb/bin/mongod --shardsvr --replSet shard1 --port 27017 --dbpath /data/shard1_3 --logpath /data/shard1_3/shard1_3.log --logappend --fork
# all output going to: /data/shard1_3/shard1_3.log forked process: 25806 ----此处无果,执行上面会输出的
用mongodb连接其中一台机器的27017端口的mongodb,初始化Replica Set 1,如下面代码所示:
[root@localhost bin]# ./mongo --port 27017
MongoDB shell version: 2.0.4
connecting to: 127.0.0.1:27017/test
> config={_id:'shard1',members:[
{_id:0,host:'172.16.0.240:27017'},
{_id:1,host:'172.16.0.241:27017'},
{_id:2,host:'172.16.0.242:27017'}]

}
>rs.initiate(config)
{
"info":"Config now saved locally.Should come online in about a minute.",
"ok":1
}---此处是输出***此处抛出异常
3,配置shard2所用到的Replica Set 2
在Server A上操作,如代码所示
/usr/local/mongodb/bin/mongod --shardsvr --replSet shard2 --port 27018 --dbpath /data/shard2_1 --logpath /data/shard2_1/shard2_1.log --logappend --fork
在Server B上操作,如代码所示
/usr/local/mongodb/bin/mongod --shardsvr --replSet shard2 --port 27018 --dbpath /data/shard2_2 --logpath /data/shard2_2/shard2_2.log --logappend --fork
在Server C上操作,如代码所示
/usr/local/mongodb/bin/mongod --shardsvr --replSet shard2 --port 27018 --dbpath /data/shard2_3 --logpath /data/shard2_3/shard2_3.log --logappend --fork

用mongodb连接其中的一台机器的27018端口的mongodb,初始化Replica Sets "shard2" 并执行下面代码
[root@localhost bin]# ./mongo --port 27018
MongoDB shell version: 2.0.4
connecting to: 127.0.0.1:27018/test
> config={_id:'shard2',members:[
{_id:0,host:'172.16.0.240:27018'},
{_id:1,host:'172.16.0.241:27018'},
{_id:2,host:'172.16.0.242:27018'}]

}
>rs.initiate(config)
{
"info" : "Config now saved locally. Should come online in about a minute.",
"ok" : 1
} ----***程序自己抛出,正确,不知道上面的为啥错
4,配置三台config Server
在server A,server B,server C上执行操作,如下面代码所示:
/usr/local/mongodb/bin/mongod --configsvr --dbpath /data/config --port 20000 --logpath /data/config/config.log --logappend --fork

5,配置三台Route Process
在server A,server B,server C上执行操作,如下面代码所示:
/usr/local/mongodb/bin/mongos --configdb 172.16.0.240:20000,172.16.0.241:20000,172.16.0.242:20000 --port 30000 --chunkSize 1 --logpath /data/mongos.log --logappend --fork
6,配置Shard Cluster
现在各个服务器上的mongodb进程都已经启动完毕,接下来演示如何配置Shard Cluster。连接到其中的一台机器的端口30000的mongos进程,并切换
到admin数据库开始配置 Sharding环境,如下面代码所示
[root@localhost bin]# ./mongo --port 30000
MongoDB shell version: 2.0.4
connecting to: 127.0.0.1:30000/test
mongos> show dbs
config 0.1875GB
mongos> use admin
switched to db admin
mongos> db.runCommand({addshard:"shard1/172.16.0.240:27017,172.16.0.241:27017,172.16.0.242:27017"});
{
"ok" : 0,
"errmsg" : "couldn't connect to new shard mongos connectionpool: connect failed shard1/172.16.0.240:27017,172.16.0.241:27017,172.16.0.242:27017 : connect failed to set shard1/172.16.0.240:27017,172.16.0.241:27017,172.16.0.242:27017"
}
mongos> db.runCommand({addshard:"shard2/172.16.0.240:27018,172.16.0.241:27018,172.16.0.242:27018"});
{ "shardAdded" : "shard2", "ok" : 1 }
mongos>
此处见书本
接下来激活分片,如下面代码所示、
db.runCommand({enablesharding:"test"})
db.runCommand({shardcollection:"test.users",key:{_id:1}})
验证Sharding
连接到其中一台机器的端口30000对应的mongos进程,并切换到test数据库,以便添加测试数据,如下面代码所示:
for(var i=1;i<=200000;i++)db.users.insert({id:i,addr_1:"Beijing",addr_2:"Shanghai"})
等完全插入后执行
进入到30000端口,然后切换到test数据库,然后db.users.status()可以看到数据分布在两个分片中。
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息