您的位置:首页 > 运维架构 > Linux

centos7 搭建SolrCloud集群

2017-04-07 00:00 447 查看
#1.0笔记
非常感谢创智播客的课程!
##1.1什么是SolrCloud
####SolrCloud(solr 云)是Solr提供的分布式搜索方案,当你需要大规模,容错,分布式索引和检索能力时使用 SolrCloud。当一个系统的索引数据量少的时候是不需要使用SolrCloud的,当索引量很大,搜索请求并发很高,这时需要使用SolrCloud来满足这些需求。

####SolrCloud是基于Solr和Zookeeper的分布式搜索方案,它的主要思想是使用Zookeeper作为集群的配置信息中心。

####它有几个特色功能:
1)集中式的配置信息
2)自动容错
3)近实时搜索
4)查询时自动负载均衡

##1.2 zookeeper是个什么玩意?
####顾名思义zookeeper就是动物园管理员,他是用来管hadoop(大象)、Hive(蜜蜂)、pig(小猪)的管理员, Apache Hbase和 Apache Solr 的分布式集群都用到了zookeeper;Zookeeper:是一个分布式的、开源的程序协调服务,是hadoop项目下的一个子项目。

##1.3 SolrCloud结构
####SolrCloud为了降低单机的处理压力,需要由多台服务器共同来完成索引和搜索任务。实现的思路是将索引数据进行Shard(分片)拆分,每个分片由多台的服务器共同完成,当一个索引或搜索请求过来时会分别从不同的Shard的服务器中操作索引。

####SolrCloud需要Solr基于Zookeeper部署,Zookeeper是一个集群管理软件,由于SolrCloud需要由多台服务器组成,由zookeeper来进行协调管理。

####下图是一个SolrCloud应用的例子:



##1.4 物理结构
####三个Solr实例( 每个实例包括两个Core),组成一个SolrCloud。

##1.5逻辑结构
####索引集合包括两个Shard(shard1和shard2),shard1和shard2分别由三个Core组成,其中一个Leader两个Replication,Leader是由zookeeper选举产生,zookeeper控制每个shard上三个Core的索引数据一致,解决高可用问题。

####用户发起索引请求分别从shard1和shard2上获取,解决高并发问题。

##1.6collection
####Collection在SolrCloud集群中是一个逻辑意义上的完整的索引结构。它常常被划分为一个或多个Shard(分片),它们使用相同的配置信息。比如:针对商品信息搜索可以创建一个collection

collection=shard1+shard2+....+shardX

####每个Core是Solr中一个独立运行单位,提供 索引和搜索服务。一个shard需要由一个Core或多个Core组成。由于collection由多个shard组成。所以collection一般由多个core组成。

##1.7 Master或Slave
####Master是master-slave结构中的主结点(通常说主服务器),Slave是master-slave结构中的从结点(通常说从服务器或备服务器)。同一个Shard下master和slave存储的数据是一致的,这是为了达到高可用目的。

##1.8 Shard
####Collection的逻辑分片。每个Shard被化成一个或者多个replication,通过选举确定哪个是Leader。

#2.0 SolrCloud搭建
####本教程的这套安装是单机版的安装,所以采用伪集群的方式进行安装,如果是真正的生成环境,将伪集群的ip改下就可以了,步骤是一样的。
####SolrCloud结构图如下:



##2.1 环境准备
CentOS-6.4-i386-bin-DVD1.iso
jdk-7u72-linux-i586.tar.gz
apache-tomcat-7.0.47.tar.gz
zookeeper-3.4.6.tar.gz
solr-4.10.3.tgz

##2.2环境安装

####上面的安装都很简单,而且本次文章的主题不是他们,亲大家去查找相关资料

##2.3 zookeeper集群安装
###2.3.1 下载解压zookeeper
wget http://mirror.bit.edu.cn/apache/zookeeper/zookeeper-3.4.9/zookeeper-3.4.9.tar.gz

tar -zxvf zookeeper-3.4.9.tar.gz

###2.3.2将zookeeper拷贝到/usr/local/solrcloud下,复制三份分别并将目录名改为zookeeper1、zookeeper2、zookeeper3

mkdir /usr/local/solrcloud
cp -r zookeeper-3.4.9  /usr/local/solrcloud/zookeeper1
cp -r zookeeper-3.4.9  /usr/local/solrcloud/zookeeper2
cp -r zookeeper-3.4.9  /usr/local/solrcloud/zookeeper3

###2.3.3 进入zookeeper1文件夹,创建data目录。并在data目录中创建一个myid文件内容为“1”(echo 1 >> data/myid)。
mkdir /usr/local/solrcloud/zookeeper1/data
cd /usr/local/solrcloud/zookeeper1/data
echo 1 >> myid

//同理去处理z2,和z3
mkdir /usr/local/solrcloud/zookeeper2/data
mkdir /usr/local/solrcloud/zookeeper3/data

cd /usr/local/solrcloud/zookeeper2/data
echo 2 >> myid
cd /usr/local/solrcloud/zookeeper3/data
echo 3 >> myid

###2.2.4 进去zookeeper1/conf文件夹,把zoo_sample.cfg改名为zoo.cfg
cd /usr/local/solrcloud/zookeeper1/conf
mv mv zoo_sample.cfg zoo.cfg

###修改它们的zoo.cfg
#####dataDir=/usr/local/solrcloud/zookeeper1/data
#####clientPort=2181(zookeeper2中为2182、zookeeper3中为2183)
#####添加:
#####server.1=192.168.1.105:2881:3881
#####server.2=192.168.1.105:2882:3882
#####server.3=192.168.1.105:2883:3883
vim /usr/local/solrcloud/zookeeper1/conf/zoo.cfg

####复制两份到z2,z3
cd /usr/local/solrcloud/zookeeper1/conf/
cp -f zoo.cfg /usr/local/solrcloud/zookeeper2/conf/
cp -f zoo.cfg /usr/local/solrcloud/zookeeper3/conf/

####编辑其他两个zoo.cfg
vim /usr/local/solrcloud/zookeeper2/conf/zoo.cfg
vim /usr/local/solrcloud/zookeeper3/conf/zoo.cfg







###2.2.5 启动三个zookeeper
/usr/local/solrcloud/zookeeper1/bin/zkServer.sh start
/usr/local/solrcloud/zookeeper2/bin/zkServer.sh start
/usr/local/solrcloud/zookeeper3/bin/zkServer.sh start
###2.2.6 开启zookeeper用到的端口,或者直接关闭防火墙
//三个客户端端口,如果是真集群就不用改端口了,IP不一样就行了
firewall-cmd --zone=public --add-port=2181/tcp --permanent
firewall-cmd --zone=public --add-port=2182/tcp --permanent
firewall-cmd --zone=public --add-port=2183/tcp --permanent
//下面三个是表示这个服务器与集群中的 Leader 服务器交换信息的端口
firewall-cmd --zone=public --add-port=2881/tcp --permanent
firewall-cmd --zone=public --add-port=2882/tcp --permanent
firewall-cmd --zone=public --add-port=2883/tcp --permanent
//下面三个是表示万一集群中的 Leader 服务器挂了,需要一个端口来重新进行选举,选出一个新的 Leader,而这个端口就是用来执行选举时服务器相互通信的端口
firewall-cmd --zone=public --add-port=3881/tcp --permanent
firewall-cmd --zone=public --add-port=3882/tcp --permanent
firewall-cmd --zone=public --add-port=3883/tcp --permanent
//重新加载
firewall-cmd --reload
###2.2.7查看他们的状态
/usr/local/solrcloud/zookeeper1/bin/zkServer.sh status
/usr/local/solrcloud/zookeeper2/bin/zkServer.sh status
/usr/local/solrcloud/zookeeper3/bin/zkServer.sh status



##2.3tomcat安装
###2.3.1 下载解压tomcat
wget https://mirrors.tuna.tsinghua.edu.cn/apache/tomcat/tomcat-8/v8.0.42/bin/apache-tomcat-8.0.42.tar.gz

tar zvxf apache-tomcat-8.0.42.tar.gz

###2.3.2 把解压后的tomcat复制到/usr/local/solrcloud/目录下复制四份。
/usr/local/solrcloud/tomcat1
/usr/local/solrcloud/tomcat2
/usr/local/solrcloud/tomcat3
/usr/local/solrcloud/tomcat4
###2.3.3修改tomcat的server.xml
####把其中的端口后都加一。保证两个tomcat可以正常运行不发生端口冲突。

##2.4 solr单机部署
###请参考我的博客,很详细的教程
http://blog.csdn.net/sfeng95/article/details/63263860

##2.5 solrCloud部署
###2.5.1 启动zookeeper
#####solrCloud部署依赖zookeeper,需要先启动每一台zookeeper服务器。
###2.5.2 zookeeper管理配置文件
#####由于zookeeper统一管理solr的配置文件(主要是schema.xml、solrconfig.xml), solrCloud各各节点使用zookeeper管理的配置文件。
#####将上边部署的solr单机的conf拷贝到/home/solr下。
#####执行下边的命令将/home/solr/conf下的配置文件上传到zookeeper
####注意solr5.和以前版本的目录结构不一样,如果你的版本也是5.*,该命令在/solr/server/scripts/cloud-scripts/zkcli.sh,来到这里执行它
#####下面的命令请以你们自己的实际IP,实际路径为准

cd /usr/local/data/solr/server/scripts/cloud-scripts
./zkcli.sh -zkhost 192.168.1.105:2181,192.168.1.105:2182,192.168.1.105:2183 -cmd upconfig -confdir /usr/local/data/solr_home1/core01/conf -confname myconf




####去任意一个zookeeper的bin目录运行zkCleanup.sh查看配置文件是否上传成功
./zkCleanup.sh

ls /configs/myconf




###2.5.3 修改SolrCloud监控端口
####修改每个solrhome的solr.xml文件。告诉它们监控他们自己的地址,它们tomcat对应的地址
vim /usr/local/data/solr_home1/solr.xml
vim /usr/local/data/solr_home2/solr.xml
vim /usr/local/data/solr_home3/solr.xml
vim /usr/local/data/solr_home4/solr.xml



###2.5.4每一台solr和zookeeper关联
####修改每一台solr的tomcat 的 bin目录下catalina.sh文件中加入DzkHost指定zookeeper服务器地址:
JAVA_OPTS="-DzkHost=192.168.1.105:2181,192.168.1.105:2182,192.168.1.105:2183"
#####(可以使用vim的查找功能查找到JAVA_OPTS的定义的位置,然后添加)

###2.5.5重启所有tomcat

####打开任意一台solr都可以看到这样子



#####(真是有的心酸,三更半夜在搞它,原来是4台的,但是有两台tomcat死了)

##3.0 SolrCloud集群配置
####上图中的collection1集群只有一片,可以通过下边的方法配置新的集群。

####如果集群中有四个solr节点创建新集群collection2,将集群分为两片,每片两个副本。
http://192.168.1.105:8081/solr/admin/collections?action=CREATE&name=collection2&numShards=2&replicationFactor=2



####删除集群命令;
http://192.168.1.105:8081/solr/admin/collections?action=DELETE&name=collection1
执行后原来的collection1删除,如下:



###启动solrCloud注意
启动solrCloud需要先启动solrCloud依赖的所有zookeeper服务器,再启动每台solr服务器。
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签:  solr集群