您的位置:首页 > 数据库 > MySQL

MySQL Cluster

2015-12-25 19:21 501 查看
如果要使用Cluster,则表的存储引擎必须为NDB,其他类型存储引擎的数据将不会保存到数据节点中。MySQL Cluster 按照节点类型可以分为3 部分。

? 管理节点

顾名思义,管理节点用来对其他节点进行管理。实际操作中,是通过对一个叫作config.ini的配置文件进行维护而起到管理的作用。该文件可以用来配置有多少需要维护的副本、需要在每个数据节点上为数据和索引分配多少内存、数据节点的位置、在每个数据节点上保存数据的磁盘位置、SQL节点的位置等信息。管理节点只能有一个,配置要求不高。

? SQL 节点

SQL节点可以理解为应用和数据节点之间的一个桥梁。应用不能直接访问数据节点,只能先访问SQL节点,然后SQL节点再去访问数据节点来返回数据。Cluster中可以有多个SQL节点,通过每个SQL节点查询到的数据都是一致的,通常来说,SQL节点越多,分配到每个SQL节点的负载就越小,系统的整体性能就越好。

? 数据节点

用来存放Cluster里面的数据,可以有多个数据节点。每个数据节点可以有多个镜像节点。任何一个数据节点发生故障,只要它的镜像节点正常,Cluster就可以正常运行。

可以总结一下MySQL Cluster 的访问过程:前台应用利用一定的负载均衡算法将对数据库的访问分散到不同的SQL 节点上,然后SQL 节点对数据节点进行数据访问并从数据节点返回结果,最后SQL 节点将收到的结果返给前台应用。而管理节点并不参与访问过程,它只用来对SQL 节点和数据节点进行配置管理。

听起来MySQL Cluster 相当的NB,那啥基于Cluster 的数据库环境并不常见呐!这是因为MySQL Cluster 中要操作的表数据全部都要在内存。它是部署在“内存中”数据库的Cluster 。从5.1版本开始支持基于磁盘的数据表。

##MySQL Cluster 的配置说明
管理节点(1 个) 10.10.10.9
SQL 节点(2 个) 10.10.10.10
10.10.10.11
Data节点(2 个) 10.10.10.10
10.10.10.11

##配置主机IP
[root@mysql9 ~]# cat /etc/sysconfig/network
NETWORKING=yes
HOSTNAME=mysql9              ##因为是克隆的虚拟机,所以需要修改主机名
[root@mysql9 ~]# cat /etc/hosts
127.0.0.1	localhost	mysql9   ##因为是克隆的虚拟机,所以需要修改主机名,后面的主机名每台机器不一样。
10.10.10.9	mysql9
10.10.10.10	mysql10
10.10.10.11	mysql11
##上面所做的操作,在所有服务器上面都要执行!

##禁用selinux
修改/etc/selinux/config文件
将SELINUX=enforcing改为SELINUX=disabled
重启机器即可。
查看selinux状态:
[root@CentOS ~]# getenforce
##关闭iptables  ##这个不知道是什么东西,浪费我大量的时间,不关闭的话,启动Data节点会报错:
-bash-4.1$ ndbd --initial
Unable to connect with connect string: nodeid=0,10.10.10.9:1186
Retrying every 5 seconds. Attempts left: 12 11 10 9 8 7 6 5 4 3 2 1, failed.
2015-12-18 23:11:55 [ndbd] ERROR    -- Could not connect to management server, error: ''
##下面关闭它:
[root@mysql9 ~]# service iptables stop
iptables:将链设置为政策 ACCEPT:filter                    [确定]
iptables:清除防火墙规则:                                 [确定]
iptables:正在卸载模块:                                   [确定]
[root@mysql9 ~]# chkconfig iptables off
##上面所做的操作,在所有服务器上面都要执行!

##添加用户和组
[root@db ~]# groupadd mysql
[root@db ~]# useradd -r -g mysql mysql
[root@localhost data]# passwd mysql
更改用户 mysql 的密码 。
新的 密码:
无效的密码: 过短
无效的密码: 过于简单
重新输入新的 密码:
passwd: 所有的身份验证令牌已经成功更新。
##上面所做的操作,在所有服务器上面都要执行!

##MySQL Cluster 的安装配置
[root@CentOS tmp]# cd /tmp/
[root@CentOS tmp]# ll mysql-cluster-gpl-7.4.8-linux-glibc2.5-i686.tar.gz
-rw-r--r--. 1 root root 472807612 12月 18 01:11 mysql-cluster-gpl-7.4.8-linux-glibc2.5-i686.tar.gz
[root@CentOS tmp]# tar zxf mysql-cluster-gpl-7.4.8-linux-glibc2.5-i686.tar.gz -C /usr/local/
[root@CentOS tmp]# cd /usr/local/
[root@CentOS local]# mv mysql-cluster-gpl-7.4.8-linux-glibc2.5-i686/ mysql
[root@CentOS local]# chown -R mysql:mysql /usr/local/mysql
[root@CentOS local]# vi /etc/profile
export PATH=/usr/local/mysql/bin:$PATH
[root@localhost bin]# source /etc/profile
##上面所做的操作,在所有服务器上面都要执行!

##初始化数据库
[root@CentOS local]# mkdir -p /data/3306
[root@CentOS local]# chown -R mysql:mysql /data
[root@CentOS local]# su - mysql
su: 警告:无法切换到目录/home/mysql: 没有那个文件或目录
-bash-4.1$ mkdir -p /home/mysql
mkdir: 无法创建目录"/home/mysql": 权限不够
-bash-4.1$ exit
logout
[root@CentOS local]# mkdir -p /home/mysql
[root@CentOS local]# su - mysql
-bash-4.1$ cd /usr/local/mysql
-bash-4.1$ ./scripts/mysql_install_db --user=mysql --basedir=/usr/local/mysql --datadir=/data/3306
-bash-4.1$ cp /usr/local/mysql/support-files/my-default.cnf  /etc/my.cnf
-bash-4.1$ vi /etc/my.cnf
[client]
port = 3306
socket = /data/3306/mysql.sock
default-character-set = utf8

[mysqld]
port = 3306
user = mysql
socket = /data/3306/mysql.sock
pid-file = /data/3306/mysql.pid
basedir = /usr/local/mysql
datadir = /data/3306
log-bin = /data/3306/mysql-bin
lower_case_table_names=1
max_connections=1000
character_set_server=utf8
character_set_client=utf8

[mysql]
default-character-set=utf8
[root@localhost mysql]# cd /usr/local/mysql
[root@localhost mysql]# cp support-files/mysql.server  /etc/rc.d/init.d/mysqld
[root@localhost mysql]# chmod 777 /etc/rc.d/init.d/mysqld
[root@CentOS mysql]# service mysqld start
Starting MySQL.....                                        [确定]
[root@CentOS mysql]# netstat -tulnp | grep mysql
tcp        0      0 :::3306                     :::*                        LISTEN      2057/mysqld
[root@CentOS mysql]# service mysqld status
MySQL running (2057)                                       [确定]
[root@CentOS mysql]# service mysqld stop
Shutting down MySQL..                                      [确定]
##上面所做的操作,在所有服务器上面都要执行!由于我是虚拟机,就是做一遍,其它的复制。
#管理节点,其实不需要mysqld二进制文件,只需要MySQL Cluster服务端程序(ndb_mgmd)和监听客户端程度(ndb_mgm)。
##这里因为是克隆的虚拟机,就一起在管理节点上面也安装了mysqld服务,但后面配置就不会再提到要配置它的地方了。

##管理节点配置步骤
##在mysql用户下面执行!
(1)在服务器10.10.10.9 的/data下创建目录mysql-cluster,并在目录中创建配置文件config.ini。
-bash-4.1$ cd /data/
-bash-4.1$ mkdir mysql-cluster
-bash-4.1$ cd mysql-cluster/
-bash-4.1$ touch config.ini
(2)根据这里的测试集群环境,config.ini 文件配置如下:
-bash-4.1$ vi config.ini
##配置文件里面的配置,在等号两边最好加上空格,本人在这里是吃了大亏,耽误了大量的时间、精力。
##一度以为没有是哪里没有配对,结果后来最终发现还是配置文件的问题导致后面启不来!
[ndbd default]
noofreplicas = 1   #每个数据节点的镜像数量
datamemory = 50M   #每个数据节点中给数据分配的内存(这个M一定要大写)
indexmemory = 20M  #每个数据节点中给索引分配的内存

[ndb_mgmd]
#配置管理节点
hostname = 10.10.10.9   #管理节点IP
datadir = /data/mysql-cluster  #管理节点数据目录,管理节点启动成功后在该目录下面会存在很多日志信息等。

[ndbd]
hostname = 10.10.10.10  ##指定data节点选项
datadir = /data/mysql-cluster/data

[ndbd]
hostname = 10.10.10.11  ##指定data节点选项
datadir = /data/mysql-cluster/data

[mysqld]
hostname = 10.10.10.10  ##指定sql节点选项

[mysqld]
hostname = 10.10.10.11  ##指定sql节点选项

上面的配置文件中,包括很多的组,组名用“[]”括起来,这里我们最关心的是3 类节点组的配置,分别定义如下。
? [NDB_MGMD]:表示管理节点的配置,只能有一个。
? [NDBD DEFAULT]:表示每个数据节点的默认配置,在每个节点的[NDBD]中不用再写这些选项。只能有一个。
? [NDBD]:表示每个数据节点的配置,可以有多个。
? [MYSQLD]:表示SQL 节点的配置,可以有多个,分别写上不同SQL 节点的IP 地址;也可以不用写IP 地址,只保留一个空节点,表示任意一个IP 地址都可以进行访问。此节点的个数表明了可以用来连接数据节点的SQL 节点总数。
每个节点都要有一个独立的id 号,可以手工填写,比如“id=2”,也可以不写,系统会按照配置文件的填写顺序自动分配。

##SQL 节点和Data 节点的配置
#SQL节点,可以将之视为传统的MySQL Server。Data节点,也是一个MySQL Server,并在my.cnf中指定少数几个参数即可。
##这里由于环境限制,SQL 节点和Data 节点的是放在同一台虚拟机上面的,环境中其实也仅仅安装了一个mysqld服务。后面提到的修改my.cnf配置,就是这个。
##网上很多地方都提到SQL 节点和Data 节点跟普通的mysqld服务没上面区别,要把普通的mysqld变为SQL 节点和Data 节点只需要在my.cnf配置里面添加少数几个参数即可。
##但我还是不太明白,后面启动Data 节点并没有用到任何mysqld相关的大小,所以我理解,其实Data 节点也是不需要安装mysqld服务的。需要bin里面的命令。
##在mysql用户下面执行!在10.10.10.10和10.10.10.11上面都要做!
SQL 节点和数据节点的配置非常简单,只需要在对MySQL 的配置文件(my.cnf)中增加如下内容即可(参数含义见后面注释):
[root@CentOS ~]# chown mysql:mysql /etc/my.cnf
[root@CentOS ~]# su - mysql
-bash-4.1$ vi /etc/my.cnf
[mysqld]
ndbcluster                   #运行NDB 存储引擎
ndb-connectstring=10.10.10.9 #定位管理节点

[mysql_cluster]
ndb-connectstring=10.10.10.9 #定位管理节点

[mysqld_safe]
log-error = /data/mysql-cluster/data/mysqld.log
pid-file = /data/mysql-cluster/data/mysqld.pid
##创建目录
-bash-4.1$ mkdir -p /data/mysql-cluster/data

##Cluster 的启动
Cluster 需要各个节点都进行启动后才可以运行,节点的启动顺序为管理节点 -> 数据节点 -> SQL 节点。
(1)在管理节点上,从系统shell 发出下述命令以启动管理节点进程:(10.10.10.9)
-bash-4.1$ pwd
/data/mysql-cluster
-bash-4.1$ ndb_mgmd -f ./config.ini
MySQL Cluster Management Server mysql-5.6.27 ndb-7.4.8
-bash-4.1$ ndb_mgm
-- NDB Cluster -- Management Client --
ndb_mgm> show
Connected to Management Server at: localhost:1186
Cluster Configuration
---------------------
[ndbd(NDB)]	2 node(s)
id=2 (not connected, accepting connect from 10.10.10.10)  ##可以看见未连接(not connected),这是因为还没有启动
id=3 (not connected, accepting connect from 10.10.10.11)

[ndb_mgmd(MGM)]	1 node(s)
id=1	@10.10.10.9  (mysql-5.6.27 ndb-7.4.8)

[mysqld(API)]	2 node(s)
id=4 (not connected, accepting connect from 10.10.10.10)  ##可以看见未连接(not connected),这是因为还没有启动
id=5 (not connected, accepting connect from 10.10.10.11)

ndb_mgm> exit
-bash-4.1$ ps -ef | grep ndb
mysql     2312  1785  0 18:58 pts/1    00:00:00 ndb_mgm
mysql     2457     1  0 19:24 ?        00:00:03 ndb_mgmd -f ./config.ini
mysql     2495  1595  0 19:31 pts/0    00:00:00 grep ndb

(2)在每台数据节点服务器上(本例为10.10.10.10 和10.10.10.11),运行下述命令启动ndbd 进程:
ndbd 进程是使用NDB 存储引擎处理表中数据的进程。通过该进程,存储节点能够实现分布式事务管理、节点恢复、在线备份等相关的任务。
注意:仅应在首次启动ndbd 时,或在备份/恢复或配置变化后重启ndbd 时使用“--initial”参数,这很重要。原因在于,该参数会使节点删除由早期ndbd 实例创建的、用于恢复的任何文件,包括恢复用日志文件。
-bash-4.1$ ndbd --initial   ##10.10.10.10
2015-12-19 01:29:05 [ndbd] INFO     -- Angel connected to '10.10.10.9:1186'
2015-12-19 01:29:05 [ndbd] INFO     -- Angel allocated nodeid: 2
-bash-4.1$ ndbd --initial   ##10.10.10.11
2015-12-19 01:37:36 [ndbd] INFO     -- Angel connected to '10.10.10.9:1186'
2015-12-19 01:37:36 [ndbd] INFO     -- Angel allocated nodeid: 3

(3)依次启动SQL 节点上的MySQL 服务(本例为10.10.10.10 和10.10.10.11)。
-bash-4.1$ service mysqld start
也可以用:-bash-4.1$ mysqld_safe  --defaults-file=/etc/my.cnf 2>&1 > /dev/null &

(4)节点全部成功启动后,用ndb_mgm 工具的show 命令查看集群状态:
##ndb_mgm 工具是ndb_mgmd(MySQL Cluster Server)的客户端管理工具,通过它可以方便地检查Cluster 的状态、启动备份、关闭Cluster 等功能。
ndb_mgm> show
Cluster Configuration
---------------------
[ndbd(NDB)]	2 node(s)
id=2	@10.10.10.10  (mysql-5.6.27 ndb-7.4.8, Nodegroup: 0, *)
id=3	@10.10.10.11  (mysql-5.6.27 ndb-7.4.8, Nodegroup: 1)

[ndb_mgmd(MGM)]	1 node(s)
id=1	@10.10.10.9  (mysql-5.6.27 ndb-7.4.8)

[mysqld(API)]	2 node(s)
id=4	@10.10.10.10  (mysql-5.6.27 ndb-7.4.8)
id=5	@10.10.10.11  (mysql-5.6.27 ndb-7.4.8)

##测试 MySQL Cluster
##上文提到过,如果要使用Cluster,则表的存储引擎必须为NDB,其他类型存储引擎的数据将不会保存到数据节点中。
1.NDB 存储引擎测试
(1)在任意一个SQL 节点(这里用10.10.10.10)的test 库中创建测试表t1,设置存储引擎为NDB,并插入两条测试数据:
mysql> create table t1(id int) engine=ndb;
mysql> insert into t1 values(1);
mysql> insert into t1 values(2);
(2)在另外一个SQL 节点(10.10.10.11),查询test 库中的t1 表,结果如下:
mysql> select * from t1;    ##显然,两个SQL 节点查询到的数据是一致的。
(3)在SQL 节点10.10.10.10 上将测试表t1 的存储引擎改为MyISAM,再次插入测试记录:
mysql> alter table t1 engine=myisam;
mysql> insert into t1 values(3);
(4)在SQL 节点10.10.10.11 上再次查询表t1,结果如下:
mysql> select * from t1;  ##可以发现,表t1 已经无法查询。
ERROR 1146 (42S02): Table 'test.t1' doesn't exist
(5)在SQL 节点10.10.10.10 上再次将t1 的存储引擎改为NDB:
mysql> alter table t1 engine=ndb;
(6)在SQL 节点10.10.10.11 上再次查询,结果如下:
mysql> select * from t1;
+------+
| id   |
+------+
|    2 |
|    3 |
|    1 |
+------+
3 rows in set (0.01 sec)
##显然,表t1 的数据被再次同步到了数据节点。所有SQL 节点又都可以正常查询数据。
##其实可以发现,数据文件还是存放在mysqld的datadir目录里面;而前面指定的“/data/mysql-cluster/data”这些目录放的是集群相关的东西。

2.单点故障测试——SQL 节点发生单点故障。
(1)将SQL 节点10.10.10.10 上的MySQL 服务停止。
-bash-4.1$ mysqladmin -uroot -p shutdown
(2)查看一下Cluster 的状态。
ndb_mgm> show
Cluster Configuration
---------------------
[ndbd(NDB)]	2 node(s)
id=2	@10.10.10.10  (mysql-5.6.27 ndb-7.4.8, Nodegroup: 0, *)
id=3	@10.10.10.11  (mysql-5.6.27 ndb-7.4.8, Nodegroup: 1)

[ndb_mgmd(MGM)]	1 node(s)
id=1	@10.10.10.9  (mysql-5.6.27 ndb-7.4.8)

[mysqld(API)]	2 node(s)
id=4 (not connected, accepting connect from 10.10.10.10)
id=5	@10.10.10.11  (mysql-5.6.27 ndb-7.4.8)
(3)从节点10.10.10.11 上查看表t1,结果如下。
mysql> select * from t1;
+------+
| id   |
+------+
|    2 |
|    3 |
|    1 |
+------+
3 rows in set (0.01 sec)

##关闭MySQL Cluster
Cluster 的关闭命令很简单,只需要在shell 下执行如下命令即可:-bash-4.1$ ndb_mgm -e shutdown
也可以用ndb_mgm 工具进入管理界面后,使用shutdown 命令关闭:ndb_mgm> shutdown
然后再其它节点上关闭mysqld:-bash-4.1$ service mysqld stop
或者:mysqladmin -uroot -p shutdown

##日志管理
MySQL Cluster 提供了两种日志,分别是集群日志(clusterlog)和节点日志(node log)。前者记录了所有Cluster 节点生成的日志,后者仅仅记录了数据节点的本地事件。在大多数情况下,我们都推荐使用集群日志,因为它在一个地方记录了所有节点的数据,更便于进行管理。
clusterlog 一般记录在和配置文件( config.ini ) 同一个目录下, 文件名格式为ndb_<nodeid>_cluster.log,其中nodeid 为管理节点号。
可以使用ndb_mgm 客户端管理工具打开或者关闭日志,具体操作如下。
(1)在shell 中执行ndb_mgm 命令。
-bash-4.1$ ndb_mgm
-- NDB Cluster -- Management Client --
ndb_mgm>
(2)执行clusterlog info 命令查看当前日志状态。
ndb_mgm> clusterlog info
Connected to Management Server at: localhost:1186
Severities enabled: INFO WARNING ERROR CRITICAL ALERT
(3)当前日志是打开的,用clusterlog off 命令关闭日志。
ndb_mgm> clusterlog off
Cluster logging is disabled
(4)再次查看日志状态,发现已经关闭。
ndb_mgm> clusterlog info
Cluster logging is disabled.
(5)执行clusterlog on 命令将再次打开日志。
ndb_mgm> clusterlog on
Cluster logging is enabled.
ndb_mgm> clusterlog info
Severities enabled: INFO WARNING ERROR CRITICAL ALERT
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: