您的位置:首页 > 数据库 > Mongodb

虚拟机下搭建mongodb集群

2014-07-25 16:15 501 查看
linux下搭建mongodb集群

检查三台的mongodb配置是不是完整

准备三台linux服务器,关闭防火墙,设置时间一样

三台服务器IP分别是

server
A
172.16.0.240

server
B
172.16.0.241

server
C
172.16.0.242

1,创建数据目录 在bin目录下

首先要创建Shard Server 和Config Server的数据目录,用于存储数据。

AA:在Server A上创建Shard Server 和Config Server的目录数据,代码如下:

# mkdir -p /data/shard1_1

# mkdir -p /data/shard2_1

# mkdir -p /data/config

在bin目录下

BB:在Server B上创建Shard Server 和Config Server的目录数据,代码如下:

# mkdir -p /data/shard1_2

# mkdir -p /data/shard2_2

# mkdir -p /data/config

在bin目录下

CC:在Server C上创建Shard Server 和Config Server的目录数据,代码如下:

# mkdir -p /data/shard1_3

# mkdir -p /data/shard2_3

# mkdir -p /data/config

2,配置Replica Sets

本小节讨论如何配置Shard Server 1 和Shard Server 2各自用到的复制集。

(001)配置Shard1所用到的Replica Set 1

在server A上操作,如下代码所示:

#
/usr/local/mongodb/bin/mongod --shardsvr --replSet shard1 --port
27017 --dbpath /data/shard1_1 --logpath /data/shard1_1/shard1_1.log
--logappend --fork

# all output going
to:/data/shard1_1/shard1_1.log forked
process:18923
----此处无果,执行上面会输出的

(002) 在server
B上操作,如下代码所示:

# /usr/local/mongodb/bin/mongod --shardsvr --replSet shard1 --port
27017 --dbpath /data/shard1_2 --logpath /data/shard1_2/shard1_2.log
--logappend --fork

# all output going to:
/data/shard1_2/shard1_2.log forked process:
25774
----此处无果,执行上面会输出的

(003) 在server
C上操作,如下代码所示:

# /usr/local/mongodb/bin/mongod --shardsvr --replSet shard1 --port
27017 --dbpath /data/shard1_3 --logpath /data/shard1_3/shard1_3.log
--logappend --fork

# all output
going to: /data/shard1_3/shard1_3.log forked process:
25806
----此处无果,执行上面会输出的

用mongodb连接其中一台机器的27017端口的mongodb,初始化Replica Set 1,如下面代码所示:

[root@localhost bin]# ./mongo --port 27017

MongoDB shell version: 2.0.4

connecting to: 127.0.0.1:27017/test

> config={_id:'shard1',members:[

{_id:0,host:'172.16.0.240:27017'},

{_id:1,host:'172.16.0.241:27017'},

{_id:2,host:'172.16.0.242:27017'}]

}

>rs.initiate(config)

{

"info":"Config now saved
locally.Should come online in about a minute.",

"ok":1

}---此处是输出***此处抛出异常

3,配置shard2所用到的Replica Set 2

在Server A上操作,如代码所示

/usr/local/mongodb/bin/mongod --shardsvr --replSet shard2 --port
27018 --dbpath /data/shard2_1 --logpath /data/shard2_1/shard2_1.log
--logappend --fork

在Server B上操作,如代码所示

/usr/local/mongodb/bin/mongod --shardsvr --replSet shard2 --port
27018 --dbpath /data/shard2_2 --logpath /data/shard2_2/shard2_2.log
--logappend --fork

在Server C上操作,如代码所示

/usr/local/mongodb/bin/mongod --shardsvr --replSet shard2 --port
27018 --dbpath /data/shard2_3 --logpath /data/shard2_3/shard2_3.log
--logappend --fork

用mongodb连接其中的一台机器的27018端口的mongodb,初始化Replica Sets
"shard2" 并执行下面代码

[root@localhost bin]# ./mongo --port 27018

MongoDB shell version: 2.0.4

connecting to: 127.0.0.1:27018/test

> config={_id:'shard2',members:[

{_id:0,host:'172.16.0.240:27018'},

{_id:1,host:'172.16.0.241:27018'},

{_id:2,host:'172.16.0.242:27018'}]

}

>rs.initiate(config)

{

"info" : "Config now saved
locally. Should come online in about a
minute.",

"ok" : 1

}
----***程序自己抛出,正确,不知道上面的为啥错

4,配置三台config Server

在server A,server B,server C上执行操作,如下面代码所示:

/usr/local/mongodb/bin/mongod --configsvr --dbpath /data/config
--port 20000 --logpath /data/config/config.log --logappend
--fork

5,配置三台Route Process

在server A,server B,server C上执行操作,如下面代码所示:

/usr/local/mongodb/bin/mongos --configdb
172.16.0.240:20000,172.16.0.241:20000,172.16.0.242:20000 --port
30000 --chunkSize 1 --logpath /data/mongos.log --logappend
--fork

6,配置Shard Cluster

现在各个服务器上的mongodb进程都已经启动完毕,接下来演示如何配置Shard
Cluster。连接到其中的一台机器的端口30000的mongos进程,并切换

到admin数据库开始配置 Sharding环境,如下面代码所示

[root@localhost bin]# ./mongo --port 30000

MongoDB shell version: 2.0.4

connecting to: 127.0.0.1:30000/test

mongos> show dbs

config 0.1875GB

mongos> use admin

switched to db admin

mongos>
db.runCommand({addshard:"shard1/172.16.0.240:27017,172.16.0.241:27017,172.16.0.242:27017"});

{

"ok" : 0,

"errmsg" : "couldn't connect to new shard mongos
connectionpool: connect failed
shard1/172.16.0.240:27017,172.16.0.241:27017,172.16.0.242:27017 :
connect failed to set
shard1/172.16.0.240:27017,172.16.0.241:27017,172.16.0.242:27017"

}

mongos>
db.runCommand({addshard:"shard2/172.16.0.240:27018,172.16.0.241:27018,172.16.0.242:27018"});

{ "shardAdded" : "shard2", "ok" : 1 }

mongos>

此处见书本

接下来激活分片,如下面代码所示、

db.runCommand({enablesharding:"test"})

db.runCommand({shardcollection:"test.users",key:{_id:1}})

验证Sharding

连接到其中一台机器的端口30000对应的mongos进程,并切换到test数据库,以便添加测试数据,如下面代码所示:

for(var
i=1;i<=200000;i++)db.users.insert({id:i,addr_1:"Beijing",addr_2:"Shanghai"})

等完全插入后执行

进入到30000端口,然后切换到test数据库,然后db.users.status()可以看到数据分布在两个分片中。
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: