SOLR总结

Solr是一个高性能独立的企业级搜索应用服务器,基于Lucene的全文搜索服务器。同时对其进行了扩展,提供了比Lucene更为丰富的查询语言,同时实现了可配置、可扩展并对查询性能进行了优化,并且提供了一个完善的功能管理界面,是一款非常优秀的全文搜索引擎。

一、 介绍

A. Zookeeper介绍

Zookeeper 分布式服务框架是 Apache Hadoop 的一个子项目,它主要是用来解决分布式应用中经常遇到的一些数据管理问题,如:统一命名服务、状态同步服务、集群管理、分布式应用配置项的管理等。本文将从使用者角度详细介绍 Zookeeper 的安装和配置文件中各个配置项的意义,以及分析 Zookeeper 的典型的应用场景(配置文件的管理、集群管理、同步锁、Leader 选举、队列管理等),用 Java 实现它们并给出示例代码。

B. SOLR介绍

Solr是一个独立的企业级搜索应用服务器,它对外提供类似于Web-service的API接口。用户可以通过http请求,向搜索引擎服务器提交一定格式的XML文件,生成索引;也可以通过Http Get操作提出查找请求,并得到XML格式的返回结果。

Solr是一个高性能,采用Java5开发,基于Lucene的全文搜索服务器。同时对其进行了扩展,提供了比Lucene更为丰富的查询语言,同时实现了可配置、可扩展并对查询性能进行了优化,并且提供了一个完善的功能管理界面,是一款非常优秀的全文搜索引擎。

文档通过Http利用XML 加到一个搜索集合中。查询该集合也是通过http收到一个XML/JSON响应来实现。它的主要特性包括:高效、灵活的缓存功能,垂直搜索功能,高亮显示搜索结果,通过索引复制来提高可用性,提供一套强大Data Schema来定义字段,类型和设置文本分析,提供基于Web的管理界面等。

SOLR逻辑运行图如下

wps_clip_image-5443[4][1]

图一

wps_clip_image-10521[4][1]

图二

基本可以用图二这幅图来概述,这是一个拥有4个Solr节点的集群,索引分布在两个Shard里面,每个Shard包含两个Solr节点,一个是Leader节点,一个是Replica节点,此外集群中有一个负责维护集群状态信息的Overseer节点,它是一个总控制器。集群的所有状态信息都放在Zookeeper集群中统一维护。从图中还可以看到,任何一个节点都可以接收索引更新的请求,然后再将这个请求转发到文档所应该属于的那个Shard的Leader节点,Leader节点更新结束完成,最后将版本号和文档转发给同属于一个Shard的replicas节点。

二、 Zookeeper 的安装

A. 软件

1. 下载 http://hadoop.apache.org/zookeeper/

B. 单机安装

单机安装非常简单,只要获取到 Zookeeper 的压缩包并解压到某个目录如:/home/zookeeper-3.2.2 下,Zookeeper 的启动脚本在 bin 目录下,Linux 下的启动脚本是 zkServer.sh,在 3.2.2 这个版本 Zookeeper 没有提供 windows 下的启动脚本,所以要想在 windows 下启动 Zookeeper 要自己手工写一个,如清单 1 所示:

清单 1. Windows 下 Zookeeper 启动脚本

setlocal

set ZOOCFGDIR=%~dp0%..\conf

set ZOO_LOG_DIR=%~dp0%..

set ZOO_LOG4J_PROP=INFO,CONSOLE

set CLASSPATH=%ZOOCFGDIR%

set CLASSPATH=%~dp0..\*;%~dp0..\lib\*;%CLASSPATH%

set CLASSPATH=%~dp0..\build\classes;%~dp0..\build\lib\*;%CLASSPATH%

set ZOOCFG=%ZOOCFGDIR%\zoo.cfg

set ZOOMAIN=org.apache.zookeeper.server.ZooKeeperServerMain

java "-Dzookeeper.log.dir=%ZOO_LOG_DIR%" "-Dzookeeper.root.logger=%ZOO_LOG4J_PROP%"

-cp "%CLASSPATH%" %ZOOMAIN% "%ZOOCFG%" %*

endlocal

在你执行启动脚本之前,还有几个基本的配置项需要配置一下,Zookeeper 的配置文件在 conf 目录下,这个目录下有 zoo_sample.cfg 和 log4j.properties,你需要做的就是将 zoo_sample.cfg 改名为 zoo.cfg,因为 Zookeeper 在启动时会找这个文件作为默认配置文件。下面详细介绍一下,这个配置文件中各个配置项的意义。

tickTime=2000

dataDir=D:/devtools/zookeeper-3.2.2/build

clientPort=2181

· tickTime:这个时间是作为 Zookeeper 服务器之间或客户端与服务器之间维持心跳的时间间隔,也就是每个 tickTime 时间就会发送一个心跳。

· dataDir:顾名思义就是 Zookeeper 保存数据的目录,默认情况下,Zookeeper 将写数据的日志文件也保存在这个目录里。

· clientPort:这个端口就是客户端连接 Zookeeper 服务器的端口,Zookeeper 会监听这个端口,接受客户端的访问请求。

当这些配置项配置好后,你现在就可以启动 Zookeeper 了,启动后要检查 Zookeeper 是否已经在服务,可以通过 netstat – ano 命令查看是否有你配置的 clientPort 端口号在监听服务。

C. 集群安装

Zookeeper 不仅可以单机提供服务,同时也支持多机组成集群来提供服务。实际上 Zookeeper 还支持另外一种伪集群的方式,也就是可以在一台物理机上运行多个 Zookeeper 实例,下面将介绍集群模式的安装和配置。

Zookeeper 的集群模式的安装和配置也不是很复杂,所要做的就是增加几个配置项。集群模式除了上面的三个配置项还要增加下面几个配置项:

initLimit=5

syncLimit=2

server.1=192.168.211.1:2888:3888

server.2=192.168.211.2:2888:3888

· initLimit:这个配置项是用来配置 Zookeeper 接受客户端(这里所说的客户端不是用户连接 Zookeeper 服务器的客户端,而是 Zookeeper 服务器集群中连接到 Leader 的 Follower 服务器)初始化连接时最长能忍受多少个心跳时间间隔数。当已经超过 10 个心跳的时间(也就是 tickTime)长度后 Zookeeper 服务器还没有收到客户端的返回信息,那么表明这个客户端连接失败。总的时间长度就是 5*2000=10 秒

· syncLimit:这个配置项标识 Leader 与 Follower 之间发送消息,请求和应答时间长度,最长不能超过多少个 tickTime 的时间长度,总的时间长度就是 2*2000=4 秒

· server.A=B:C:D:其中 A 是一个数字,表示这个是第几号服务器;B 是这个服务器的 ip 地址;C 表示的是这个服务器与集群中的 Leader 服务器交换信息的端口;D 表示的是万一集群中的 Leader 服务器挂了,需要一个端口来重新进行选举,选出一个新的 Leader,而这个端口就是用来执行选举时服务器相互通信的端口。如果是伪集群的配置方式,由于 B 都是一样,所以不同的 Zookeeper 实例通信端口号不能一样,所以要给它们分配不同的端口号。

除了修改 zoo.cfg 配置文件,集群模式下还要配置一个文件 myid,这个文件在 dataDir 目录下,这个文件里面就有一个数据就是 A 的值,Zookeeper 启动时会读取这个文件,拿到里面的数据与 zoo.cfg 里面的配置信息比较从而判断到底是那个 server。

数据模型

Zookeeper 会维护一个具有层次关系的数据结构,它非常类似于一个标准的文件系统,如图 1 所示:

图 1 Zookeeper 数据结构
wps_clip_image-24181[4][1]

Zookeeper 这种数据结构有如下这些特点:

1. 每个子目录项如 NameService 都被称作为 znode,这个 znode 是被它所在的路径唯一标识,如 Server1 这个 znode 的标识为 /NameService/Server1

2. znode 可以有子节点目录,并且每个 znode 可以存储数据,注意 EPHEMERAL 类型的目录节点不能有子节点目录

3. znode 是有版本的,每个 znode 中存储的数据可以有多个版本,也就是一个访问路径中可以存储多份数据

4. znode 可以是临时节点,一旦创建这个 znode 的客户端与服务器失去联系,这个 znode 也将自动删除,Zookeeper 的客户端和服务器通信采用长连接方式,每个客户端和服务器通过心跳来保持连接,这个连接状态称为 session,如果 znode 是临时节点,这个 session 失效,znode 也就删除了

5. znode 的目录名可以自动编号,如 App1 已经存在,再创建的话,将会自动命名为 App2

6. znode 可以被监控,包括这个目录节点中存储的数据的修改,子节点目录的变化等,一旦变化可以通知设置监控的客户端,这个是 Zookeeper 的核心特性,Zookeeper 的很多功能都是基于这个特性实现的,后面在典型的应用场景中会有实例介绍

如何使用

Zookeeper 作为一个分布式的服务框架,主要用来解决分布式集群中应用系统的一致性问题,它能提供基于类似于文件系统的目录节点树方式的数据存储,但是 Zookeeper 并不是用来专门存储数据的,它的作用主要是用来维护和监控你存储的数据的状态变化。通过监控这些数据状态的变化,从而可以达到基于数据的集群管理,后面将会详细介绍 Zookeeper 能够解决的一些典型问题,这里先介绍一下,Zookeeper 的操作接口和简单使用示例。

常用接口列表

客户端要连接 Zookeeper 服务器可以通过创建 org.apache.zookeeper. ZooKeeper 的一个实例对象,然后调用这个类提供的接口来和服务器交互。

前面说了 ZooKeeper 主要是用来维护和监控一个目录节点树中存储的数据的状态,所有我们能够操作 ZooKeeper 的也和操作目录节点树大体一样,如创建一个目录节点,给某个目录节点设置数据,获取某个目录节点的所有子目录节点,给某个目录节点设置权限和监控这个目录节点的状态变化。

这些接口如下表所示:

表 1 org.apache.zookeeper. ZooKeeper 方法列表

方法名方法功能描述
String create(String path, byte[] data, List<ACL>

acl,CreateMode createMode)

创建一个给定的目录节点 path, 并给它设置数据,CreateMode 标识有四种形式的目录节点,分别是 PERSISTENT:持久化目录节点,这个目录节点存储的数据不会丢失;PERSISTENT_SEQUENTIAL:顺序自动编号的目录节点,这种目录节点会根据当前已近存在的节点数自动加 1,然后返回给客户端已经成功创建的目录节点名;EPHEMERAL:临时目录节点,一旦创建这个节点的客户端与服务器端口也就是 session 超时,这种节点会被自动删除;EPHEMERAL_SEQUENTIAL:临时自动编号节点
Stat exists(String path, boolean watch)判断某个 path 是否存在,并设置是否监控这个目录节点,这里的 watcher 是在创建 ZooKeeper 实例时指定的 watcher,exists方法还有一个重载方法,可以指定特定的watcher
Stat exists(String path,Watcher watcher)重载方法,这里给某个目录节点设置特定的 watcher,Watcher 在 ZooKeeper 是一个核心功能,Watcher 可以监控目录节点的数据变化以及子目录的变化,一旦这些状态发生变化,服务器就会通知所有设置在这个目录节点上的 Watcher,从而每个客户端都很快知道它所关注的目录节点的状态发生变化,而做出相应的反应
void delete(String path, int version)删除 path 对应的目录节点,version 为 -1 可以匹配任何版本,也就删除了这个目录节点所有数据
List<String>getChildren(String path, boolean watch)获取指定 path 下的所有子目录节点,同样 getChildren方法也有一个重载方法可以设置特定的 watcher 监控子节点的状态
Stat setData(String path, byte[] data, int version)给 path 设置数据,可以指定这个数据的版本号,如果 version 为 -1 怎可以匹配任何版本
byte[] getData(String path, boolean

watch, Stat stat)

获取这个 path 对应的目录节点存储的数据,数据的版本等信息可以通过 stat 来指定,同时还可以设置是否监控这个目录节点数据的状态
voidaddAuthInfo(String scheme, byte[] auth)客户端将自己的授权信息提交给服务器,服务器将根据这个授权信息验证客户端的访问权限。
Stat setACL(String path,List<ACL>

acl, int version)

给某个目录节点重新设置访问权限,需要注意的是 Zookeeper 中的目录节点权限不具有传递性,父目录节点的权限不能传递给子目录节点。目录节点 ACL 由两部分组成:perms 和 id。
Perms 有 ALL、READ、WRITE、CREATE、DELETE、ADMIN 几种
而 id 标识了访问目录节点的身份列表,默认情况下有以下两种:
ANYONE_ID_UNSAFE = new Id("world", "anyone") 和 AUTH_IDS = new Id("auth", "") 分别表示任何人都可以访问和创建者拥有访问权限。
List<ACL>getACL(String path,Stat stat)获取某个目录节点的访问权限列表

除了以上这些上表中列出的方法之外还有一些重载方法,如都提供了一个回调类的重载方法以及可以设置特定 Watcher 的重载方法,具体的方法可以参考 org.apache.zookeeper. ZooKeeper 类的 API 说明。

基本操作

下面给出基本的操作 ZooKeeper 的示例代码,这样你就能对 ZooKeeper 有直观的认识了。下面的清单包括了创建与 ZooKeeper 服务器的连接以及最基本的数据操作:

清单 2. ZooKeeper 基本的操作示例

// 创建一个与服务器的连接

ZooKeeper zk = new ZooKeeper("localhost:" + CLIENT_PORT,

ClientBase.CONNECTION_TIMEOUT, new Watcher() {

// 监控所有被触发的事件

public void process(WatchedEvent event) {

System.out.println("已经触发了" + event.getType() + "事件!");

}

});

// 创建一个目录节点

zk.create("/testRootPath", "testRootData".getBytes(), Ids.OPEN_ACL_UNSAFE,

CreateMode.PERSISTENT);

// 创建一个子目录节点

zk.create("/testRootPath/testChildPathOne", "testChildDataOne".getBytes(),

Ids.OPEN_ACL_UNSAFE,CreateMode.PERSISTENT);

System.out.println(new String(zk.getData("/testRootPath",false,null)));

// 取出子目录节点列表

System.out.println(zk.getChildren("/testRootPath",true));

// 修改子目录节点数据

zk.setData("/testRootPath/testChildPathOne","modifyChildDataOne".getBytes(),-1);

System.out.println("目录节点状态:["+zk.exists("/testRootPath",true)+"]");

// 创建另外一个子目录节点

zk.create("/testRootPath/testChildPathTwo", "testChildDataTwo".getBytes(),

Ids.OPEN_ACL_UNSAFE,CreateMode.PERSISTENT);

System.out.println(new String(zk.getData("/testRootPath/testChildPathTwo",true,null)));

// 删除子目录节点

zk.delete("/testRootPath/testChildPathTwo",-1);

zk.delete("/testRootPath/testChildPathOne",-1);

// 删除父目录节点

zk.delete("/testRootPath",-1);

// 关闭连接

zk.close();

输出的结果如下:

已经触发了 None 事件!

testRootData

[testChildPathOne]

目录节点状态:[5,5,1281804532336,1281804532336,0,1,0,0,12,1,6]

已经触发了 NodeChildrenChanged 事件!

testChildDataTwo

已经触发了 NodeDeleted 事件!

已经触发了 NodeDeleted 事件!

当对目录节点监控状态打开时,一旦目录节点的状态发生变化,Watcher 对象的 process 方法就会被调用。

ZooKeeper 典型的应用场景

Zookeeper 从设计模式角度来看,是一个基于观察者模式设计的分布式服务管理框架,它负责存储和管理大家都关心的数据,然后接受观察者的注册,一旦这些数据的状态发生变化,Zookeeper 就将负责通知已经在 Zookeeper 上注册的那些观察者做出相应的反应,从而实现集群中类似 Master/Slave 管理模式,关于 Zookeeper 的详细架构等内部细节可以阅读 Zookeeper 的源码

下面详细介绍这些典型的应用场景,也就是 Zookeeper 到底能帮我们解决那些问题?下面将给出答案。

统一命名服务(Name Service)

分布式应用中,通常需要有一套完整的命名规则,既能够产生唯一的名称又便于人识别和记住,通常情况下用树形的名称结构是一个理想的选择,树形的名称结构是一个有层次的目录结构,既对人友好又不会重复。说到这里你可能想到了 JNDI,没错 Zookeeper 的 Name Service 与 JNDI 能够完成的功能是差不多的,它们都是将有层次的目录结构关联到一定资源上,但是 Zookeeper 的 Name Service 更加是广泛意义上的关联,也许你并不需要将名称关联到特定资源上,你可能只需要一个不会重复名称,就像数据库中产生一个唯一的数字主键一样。

Name Service 已经是 Zookeeper 内置的功能,你只要调用 Zookeeper 的 API 就能实现。如调用 create 接口就可以很容易创建一个目录节点。

配置管理(Configuration Management)

配置的管理在分布式应用环境中很常见,例如同一个应用系统需要多台 PC Server 运行,但是它们运行的应用系统的某些配置项是相同的,如果要修改这些相同的配置项,那么就必须同时修改每台运行这个应用系统的 PC Server,这样非常麻烦而且容易出错。

像这样的配置信息完全可以交给 Zookeeper 来管理,将配置信息保存在 Zookeeper 的某个目录节点中,然后将所有需要修改的应用机器监控配置信息的状态,一旦配置信息发生变化,每台应用机器就会收到 Zookeeper 的通知,然后从 Zookeeper 获取新的配置信息应用到系统中。

图 2. 配置管理结构图
wps_clip_image-121[5][1]

集群管理(Group Membership)

Zookeeper 能够很容易的实现集群管理的功能,如有多台 Server 组成一个服务集群,那么必须要一个“总管”知道当前集群中每台机器的服务状态,一旦有机器不能提供服务,集群中其它集群必须知道,从而做出调整重新分配服务策略。同样当增加集群的服务能力时,就会增加一台或多台 Server,同样也必须让“总管”知道。

Zookeeper 不仅能够帮你维护当前的集群中机器的服务状态,而且能够帮你选出一个“总管”,让这个总管来管理集群,这就是 Zookeeper 的另一个功能 Leader Election。

它们的实现方式都是在 Zookeeper 上创建一个 EPHEMERAL 类型的目录节点,然后每个 Server 在它们创建目录节点的父目录节点上调用 getChildren(String path, boolean watch) 方法并设置 watch 为 true,由于是 EPHEMERAL 目录节点,当创建它的 Server 死去,这个目录节点也随之被删除,所以 Children 将会变化,这时 getChildren上的 Watch 将会被调用,所以其它 Server 就知道已经有某台 Server 死去了。新增 Server 也是同样的原理。

Zookeeper 如何实现 Leader Election,也就是选出一个 Master Server。和前面的一样每台 Server 创建一个 EPHEMERAL 目录节点,不同的是它还是一个 SEQUENTIAL 目录节点,所以它是个 EPHEMERAL_SEQUENTIAL 目录节点。之所以它是 EPHEMERAL_SEQUENTIAL 目录节点,是因为我们可以给每台 Server 编号,我们可以选择当前是最小编号的 Server 为 Master,假如这个最小编号的 Server 死去,由于是 EPHEMERAL 节点,死去的 Server 对应的节点也被删除,所以当前的节点列表中又出现一个最小编号的节点,我们就选择这个节点为当前 Master。这样就实现了动态选择 Master,避免了传统意义上单 Master 容易出现单点故障的问题。

图 3. 集群管理结构图
wps_clip_image-22037[4][1]

这部分的示例代码如下,完整的代码请看附件:

清单 3. Leader Election 关键代码

void findLeader() throws InterruptedException {

byte[] leader = null;

try {

leader = zk.getData(root + "/leader", true, null);

} catch (Exception e) {

logger.error(e);

}

if (leader != null) {

following();

} else {

String newLeader = null;

try {

byte[] localhost = InetAddress.getLocalHost().getAddress();

newLeader = zk.create(root + "/leader", localhost,

ZooDefs.Ids.OPEN_ACL_UNSAFE, CreateMode.EPHEMERAL);

} catch (Exception e) {

logger.error(e);

}

if (newLeader != null) {

leading();

} else {

mutex.wait();

}

}

}

共享锁(Locks)

共享锁在同一个进程中很容易实现,但是在跨进程或者在不同 Server 之间就不好实现了。Zookeeper 却很容易实现这个功能,实现方式也是需要获得锁的 Server 创建一个 EPHEMERAL_SEQUENTIAL 目录节点,然后调用 getChildren方法获取当前的目录节点列表中最小的目录节点是不是就是自己创建的目录节点,如果正是自己创建的,那么它就获得了这个锁,如果不是那么它就调用exists(String path, boolean watch) 方法并监控 Zookeeper 上目录节点列表的变化,一直到自己创建的节点是列表中最小编号的目录节点,从而获得锁,释放锁很简单,只要删除前面它自己所创建的目录节点就行了。

图 4. Zookeeper 实现 Locks 的流程图
wps_clip_image-23671[4][1]

同步锁的实现代码如下,完整的代码请看附件:

清单 4. 同步锁的关键代码

void getLock() throws KeeperException, InterruptedException{

List<String> list = zk.getChildren(root, false);

String[] nodes = list.toArray(new String[list.size()]);

Arrays.sort(nodes);

if(myZnode.equals(root+"/"+nodes[0])){

doAction();

}

else{

waitForLock(nodes[0]);

}

}

void waitForLock(String lower) throws InterruptedException, KeeperException {

Stat stat = zk.exists(root + "/" + lower,true);

if(stat != null){

mutex.wait();

}

else{

getLock();

}

}

队列管理

Zookeeper 可以处理两种类型的队列:

1. 当一个队列的成员都聚齐时,这个队列才可用,否则一直等待所有成员到达,这种是同步队列。

2. 队列按照 FIFO 方式进行入队和出队操作,例如实现生产者和消费者模型。

同步队列用 Zookeeper 实现的实现思路如下:

创建一个父目录 /synchronizing,每个成员都监控标志(Set Watch)位目录 /synchronizing/start 是否存在,然后每个成员都加入这个队列,加入队列的方式就是创建 /synchronizing/member_i 的临时目录节点,然后每个成员获取 / synchronizing 目录的所有目录节点,也就是 member_i。判断 i 的值是否已经是成员的个数,如果小于成员个数等待 /synchronizing/start 的出现,如果已经相等就创建 /synchronizing/start。

用下面的流程图更容易理解:

图 5. 同步队列流程图
wps_clip_image-17695[4][1]

同步队列的关键代码如下,完整的代码请看附件:

清单 5. 同步队列

void addQueue() throws KeeperException, InterruptedException{

zk.exists(root + "/start",true);

zk.create(root + "/" + name, new byte[0], Ids.OPEN_ACL_UNSAFE,

CreateMode.EPHEMERAL_SEQUENTIAL);

synchronized (mutex) {

List<String> list = zk.getChildren(root, false);

if (list.size() < size) {

mutex.wait();

} else {

zk.create(root + "/start", new byte[0], Ids.OPEN_ACL_UNSAFE,

CreateMode.PERSISTENT);

}

}

}

当队列没满是进入 wait(),然后会一直等待 Watch 的通知,Watch 的代码如下:

public void process(WatchedEvent event) {

if(event.getPath().equals(root + "/start") &&

event.getType() == Event.EventType.NodeCreated){

System.out.println("得到通知");

super.process(event);

doAction();

}

}

FIFO 队列用 Zookeeper 实现思路如下:

实现的思路也非常简单,就是在特定的目录下创建 SEQUENTIAL 类型的子目录 /queue_i,这样就能保证所有成员加入队列时都是有编号的,出队列时通过 getChildren( ) 方法可以返回当前所有的队列中的元素,然后消费其中最小的一个,这样就能保证 FIFO。

下面是生产者和消费者这种队列形式的示例代码,完整的代码请看附件:

清单 6. 生产者代码

boolean produce(int i) throws KeeperException, InterruptedException{

ByteBuffer b = ByteBuffer.allocate(4);

byte[] value;

b.putInt(i);

value = b.array();

zk.create(root + "/element", value, ZooDefs.Ids.OPEN_ACL_UNSAFE,

CreateMode.PERSISTENT_SEQUENTIAL);

return true;

}

清单 7. 消费者代码

int consume() throws KeeperException, InterruptedException{

int retvalue = -1;

Stat stat = null;

while (true) {

synchronized (mutex) {

List<String> list = zk.getChildren(root, true);

if (list.size() == 0) {

mutex.wait();

} else {

Integer min = new Integer(list.get(0).substring(7));

for(String s : list){

Integer tempValue = new Integer(s.substring(7));

if(tempValue < min) min = tempValue;

}

byte[] b = zk.getData(root + "/element" + min,false, stat);

zk.delete(root + "/element" + min, 0);

ByteBuffer buffer = ByteBuffer.wrap(b);

retvalue = buffer.getInt();

return retvalue;

}

}

}

}

Zookeeper 作为 Hadoop 项目中的一个子项目,是 Hadoop 集群管理的一个必不可少的模块,它主要用来控制集群中的数据,如它管理 Hadoop 集群中的 NameNode,还有 Hbase 中 Master Election、Server 之间状态同步等。

本文介绍的 Zookeeper 的基本知识,以及介绍了几个典型的应用场景。这些都是 Zookeeper 的基本功能,最重要的是 Zoopkeeper 提供了一套很好的分布式集群管理的机制,就是它这种基于层次型的目录树的数据结构,并对树中的节点进行有效管理,从而可以设计出多种多样的分布式的数据管理模型,而不仅仅局限于上面提到的几个常用应用场景。

三、 SOLR安装配置

A. 软件

1. 下载Solr-4.x http://lucene.apache.org/solr/downloads.html

2. 下载Tomcat http://tomcat.apache.org/download-70.cgi

B. 单机安装

1. 安装好tomcat,确保可以正确运行。具体操作略。我这里的路径是:F:\dev\apache-tomcat-7.0.11

2. 解压下载下来的 apache-solr-4.0.0.tgz 到 apache-solr-4.0.0。

3. 将 apache-solr-4.0.0\example\webapps\solr.war 复制到 F:\dev\apache-tomcat-7.0.1\webapps 下。

4. 启动tomcat,这里会有报错:

wps_clip_image-9066[4][1]

5. 这个错误的意思是说没有找到solr home,所以这一步需要做的就是配置一个solr

home。操作如下:关闭tomcat。进入 F:\dev\apache-tomcat-7.0.1\webapps\solr

\WEB-INF 下,打开web.xml。增加如下配置

<env-entry>

<env-entry-name>solr/home</env-entry-name>

<env-entry-value>

F:/dev/apache-tomcat-7.0.11/webapps/solr/solr_home

</env-entry-value>

<env-entry-type>java.lang.String</env-entry-type>

</env-entry>

6. 在 F:\dev\apache-tomcat-7.0.1\webapps\solr 下新建文件夹solr_home,并把 apache-solr-4.0.0\example\solr 文件夹下所有东西都复制到solr_home文件夹下。

7. 到这一步,单一solr服务的tomcat已经可以正常启动啦。你可以通过这个链接访问下solr服务器。http://localhost:8080/solr

wps_clip_image-23730[4][1]

C. 集群安装

配置基于zookeeper 的分布式的solr服务。分三种情况

1) 一台zookeeper服务器,一台solr服务器。

2) 一台zookeeper服务器,多台solr服务器。

3) 多台zookeeper服务器,多台solr服务器。

1) 一台zookeeper服务器,一台solr服务器

由于是只有一台solr服务器,也就是说只有一个leader节点,不存在follower节点。这种模式比较简单。操作步骤如下:

1、 到F:\dev\apache-tomcat-7.0.11\webapps\solr\solr_home目录下,修改solr.xml文件。将cores节点中的hostPort修改为tomcat的对外服务端口:8080

wps_clip_image-7569[4][1]

2、 到F:\dev\apache-tomcat-7.0.11\bin目录下。编辑catalina.bat文件。在文件最开始增加:

set JAVA_OPTS=-Dbootstrap_confdir=../webapps/solr/solr_home/collection1/conf -Dcollection.configName=clusterconf -DzkRun -DzkHost=localhost:9080 -DnumShards=1

如图:

wps_clip_image-6464[4][1]

这里zkHost的端口是9080是因为solrCloud中内嵌的zookeeper对外服务端口是tomcat端口+1000。而tomcat端口是在第三步中的配置的。

3、 到此为止,相关配置全部完成,此时启动tomcat,访问http://localhost:8080/solr/#/~cloud即可得到如下图:

wps_clip_image-7677[4][1]

2) 一台zookeeper服务器,多台solr服务器

因没有那么多的服务器,用一台机器跑多个tomcat服务器的方式模拟集群时的配置。我先复制了两个,于是现在有三个服务器,路径为:

F:\dev\apache-tomcat-7.0.11-solr_1

F:\dev\apache-tomcat-7.0.11-solr_2

F:\dev\apache-tomcat-7.0.11-solr_3

我这里的tomcat是绿色版的,需要为每个tomcat指定 CATALINA_HOME,于是进入F:\dev\apache-tomcat-7.0.11-solr_1\bin目录下,在最开头增加下列一句:

set CATALINA_HOME=F:\dev\apache-tomcat-7.0.11-solr_1

同理为apache-tomcat-7.0.11-solr_2, apache-tomcat-7.0.11-solr_3增加CATALINA_HOME的设置。

按下来是具体的操作步骤:

1、 更改tomcat 的对外服务端口:

apache-tomcat-7.0.11-solr_1 : 8001

apache-tomcat-7.0.11-solr_2 : 8002

apache-tomcat-7.0.11-solr_3 : 8003

tomcat的其他服务端口也需要更改,因为对我们来讲没有用,所以就不细说。只要保证端口不会重复占用即可。

2、 更改F:\dev\apache-tomcat-7.0.11-solr_1\webapps\solr\solr_home目录下的solr.xml文件,将hostPort端口更新为8001;

wps_clip_image-20569[4][1]

3、 F:\dev\apache-tomcat-7.0.11-solr_2\webapps\solr\solr_home目录下的solr.xml文件,将hostPort端口更新为8002;

wps_clip_image-16314[4][1]

4、 F:\dev\apache-tomcat-7.0.11-solr_3\webapps\solr\solr_home目录下的solr.xml文件,将hostPort端口更新为8003;

wps_clip_image-17838[4][1]

5、 到F:\dev\apache-tomcat-7.0.11-solr_1\bin目录下,编辑catalina.bat文件,修改最开头的set JAVA_OPTS内容为:

set JAVA_OPTS=-Dbootstrap_confdir=../webapps/solr/solr_home/collection1/conf -Dcollection.configName=clusterconf -DzkRun -DzkHost=localhost:9001 -DnumShards=1

如图:

wps_clip_image-16702[4][1]

1、

2、

3、

4、

5、

6、 到F:\dev\apache-tomcat-7.0.11-solr_2\bin目录下,编辑catalina.bat文件,修改最开头的set JAVA_OPTS内容为:

set JAVA_OPTS= -DzkHost=localhost:9001

如图:

wps_clip_image-18746[4][1]

7、 到F:\dev\apache-tomcat-7.0.11-solr_3\bin目录下,编辑catalina.bat文件,修改最开头的set JAVA_OPTS内容为:

set JAVA_OPTS= -DzkHost=localhost:9001

如图:

wps_clip_image-6256[5][1]

8、 删除F:\dev\apache-tomcat-7.0.11-solr_1\webapps\solr\solr_home\zoo_data下的所有文件。结果如图:

wps_clip_image-12220[4][1]

9、 到此全部配置完成,访问http://localhost:8001/solr/#/~cloud 可以看到如下结果:

wps_clip_image-27587[4][1]

3) 多台zookeeper服务器,多台solr服务器

为了减少配置,所以这一步在一台zookeeper服务,多台solr服务器的基础上进行。

1、 到F:\dev\apache-tomcat-7.0.11-solr_1\webapps\solr\solr_home目录下,修改zoo.cfg文件,增加如下内容:

server.1=localhost:2888:2889

server.2=localhost:3888:3889

server.3=localhost:4888:4889

如图:

wps_clip_image-16348[4][1]

2、 到F:\dev\apache-tomcat-7.0.11-solr_1\webapps\solr\solr_home\zoo_data目录下,新建文件myid,并设内容为1。如图:

wps_clip_image-16691[4][1]

3、 到F:\dev\apache-tomcat-7.0.11-solr_2\webapps\solr\solr_home目录下,修改zoo.cfg文件,增加如下内容:

server.1=localhost:2888:2889

server.2=localhost:3888:3889

server.3=localhost:4888:4889

如图:

wps_clip_image-16827[3][1]

4、 到F:\dev\apache-tomcat-7.0.11-solr_2\webapps\solr\solr_home\zoo_data目录下,新建文件myid,并设内容为2。如图:

wps_clip_image-31274[4][1]

5、 到F:\dev\apache-tomcat-7.0.11-solr_3\webapps\solr\solr_home目录下,修改zoo.cfg文件,增加如下内容:

server.1=localhost:2888:2889

server.2=localhost:3888:3889

server.3=localhost:4888:4889

如图:

wps_clip_image-3004[3][1]

6、 到F:\dev\apache-tomcat-7.0.11-solr_3\webapps\solr\solr_home\zoo_data目录下,新建文件myid,并设内容为3。如图

wps_clip_image-11160[4][1]

7、 到F:\dev\apache-tomcat-7.0.11-solr_1\bin目录下,编辑catalina.bat文件,修改最开头的set JAVA_OPTS为:

set JAVA_OPTS=-Dbootstrap_confdir=../webapps/solr/solr_home/collection1/conf -Dcollection.configName=clusterconf -DzkRun -DzkHost=localhost:9001,localhost:9002,localhost:9003 -DnumShards=1

wps_clip_image-32448[4][1]

8、 到F:\dev\apache-tomcat-7.0.11-solr_2\bin目录下,编辑catalina.bat文件,修改最开头的set JAVA_OPTS为:

set JAVA_OPTS= -DzkRun -DzkHost=localhost:9001,localhost:9002,localhost:9003

wps_clip_image-7107[3][1]

9、 到F:\dev\apache-tomcat-7.0.11-solr_3\bin目录下,编辑catalina.bat文件,修改最开头的set JAVA_OPTS为:

set JAVA_OPTS= -DzkRun -DzkHost=localhost:9001,localhost:9002,localhost:9003

wps_clip_image-13623[3][1]

10、 清理之前运行时zookeeper生成的节点信息内容。删除下各个tomcat下的solr_home下的zoo_data文件中的version-2文件夹即可。

11、 启动apache-tomcat-7.0.11-solr_1,apache-tomcat-7.0.11-solr_2,apache-tomcat-7.0.11-solr_3,打开链接 http://localhost:8001/solr/#/~cloud 查看,结果如下:

wps_clip_image-15257[4][1]

到此为此,你可以停止任何一台solr服务器,查看下http://localhost:8001/solr/#/~cloud (当然如果你停止了端口号是8001的就换另外的tomcat服务)

四、 相关配置文件参数说明

1、 solr运行包目录位置配置文件

修改\solr\WEB-INF\web.xml文件中的下列红色字体部分

<env-entry>

<env-entry-name>solr/home</env-entry-name>

<env-entry-value>D:/tomcat7.0/webapps/solr/solrhome</env-entry-value>

<env-entry-type>java.lang.String</env-entry-type>

</env-entry>

2、 solr.xml配置文件说明(solr\solrhome\solr.xml)

<cores adminPath="/admin/cores" defaultCoreName="deals" host="${host:}" hostPort="${jetty.port:}" hostContext="${hostContext:}" leaderVoteWait="${leaderVoteWait:1000}">

<core name="deals" instanceDir="deals" />

</cores>

hostContext:指定服务名称
hostPort:指定端口
leaderVoteWait:选举leader的等待时间ms

3、 zookeeper配置文件 zoo.cfg参数的作用

# Zookeeper 服务器之间或客户端与服务器之间维持心跳的时间间隔,也就是每个 tickTime 时间就会发送一个心跳

tickTime=2000

# 这个配置项是用来配置 Zookeeper 接受客户端(这里所说的客户端不是用户连接 Zookeeper 服务器的客户端,而是 Zookeeper 服务器集群中连接到 Leader 的 Follower 服务器)初始化连接时最长能忍受多少个心跳时间间隔数。当已经超过 5个心跳的时间(也就是 tickTime)长度后 Zookeeper 服务器还没有收到客户端的返回信息,那么表明这个客户端连接失败。总的时间长度就是 5*2000=10 秒

initLimit=10

# 这个配置项标识 Leader 与 Follower 之间发送消息,请求和应答时间长度,最长不能超过多少个 tickTime 的时间长度,总的时间长度就是 2*2000=4 秒

syncLimit=5

# Zookeeper 保存数据的目录,默认情况下,Zookeeper 将写数据的日志文件也保存在这个目录里。

dataDir=/tmp/zookeeper

# 这个端口就是客户端连接 Zookeeper 服务器的端口,Zookeeper 会监听这个端口,接受客户端的访问请求。

clientPort=2181

4、 在zookeeper-3.4.5/conf/zoo.cfg追加server配置

server.1=192.168.10.14:2888:3888

server.2=192.168.10.12:2888:3888

server.3=192.168.10.16:2888:3888

5、 在每个Zookeeper保存数据的目录下指定myid文件,对应服务名称ID

#如server.id,则在myid文件中写1即可

$ vi /tmp/zookeeper/myid

五、 SolrCloud使用Zookeeper管理集群的基本流程

第一台Solr服务器启动过程:

1、 启动第一台zookeeper服务器,作为集群状态信息的管理者

2、 将自己这个节点注册到/node_states/目录下,同时将自己注册到/live_nodes/目录下

3、 创建/overseer_elect/leader,为后续Overseer节点的选举做准备,新建一个Overseer

4、 更新/clusterstate.json目录下json格式的集群状态信息

5、 本机从Zookeeper中更新集群状态信息,维持与Zookeeper上的集群信息一致

6、 上传本地配置文件到Zookeeper中,供集群中其他solr节点使用,后面启动solr则不

会上传配置文件,因为都是使用第一台solr服务启动上传的配置文件为准.

7、 启动本地的Solr服务器,Overseer会得知shard中有第一个节点进来,更新shard状

态信息,并将本机所在节点设置为shard1的leader节点,并向整个集群发布最新

的集群状态信息。

8、 本机从Zookeeper中再次更新集群状态信息,第一台solr服务器启动完毕。

第二台solr服务器的启动过程:

1. 连接到集群所在的Zookeeper

2. 将自己这个节点注册到/node_states/目录下,同时将自己注册到/live_nodes/目录下

3. 本机从Zookeeper中更新集群状态信息,维持与Zookeeper上的集群信息一致

4. 从集群中保存的配置文件加载Solr所需要的配置信息

5. 启动本地solr服务器,将本节点注册为集群中的shard,并将本机设置为shard2的Leader节点

6. 本机从Zookeeper中再次更新集群状态信息,第二台solr服务器启动完毕.

六、 SOLR数据导入

大多数的应用程序将数据存储在关系数据库、xml文件中。对这样的数据进行搜索是很常见的应用。所谓的DataImportHandler提供一种可配置 的方式向solr导入数据,可以一次全部导入,也可以增量导入。

能够读取关系数据库中的数据。

通过可配置的方式,能够将数据库中多列、多表的数据生成solr文档

能够通过solr文档更新solr

提供 通过配置文件就能够导入所有数据的能力

能够发现并处理 由insert、update带来的变化(我们假定在表中有一个叫做“last-modified的列”)

能够配置 “完全导入”和“增量导入”的时间

让读取xml文件,并建立索引成为可配置。

能够将 其他的数据源(例如:ftp,scp,etc)或者其他格式的文档(Json,csv)以插件的形式集成到项目中。

我们一共需要在两个配置文件中进行一些配置。 定义一个data-config.xml 文件,并把它的路径配置到solrconfig.xml 中,关于DataImportHandler的配置必须在这个文件中配置,datasource也可以。不过,一般将datasource放在data-config.xml文件中。如下所示:

solrconfig.xml文件

<?xml version="1.0" encoding="UTF-8" ?>

<config>

<requestHandler name="/dataimport" class="org.apache.solr.handler.dataimport.DataImportHandler">

<lst name="defaults">

<str name="config">/home/username/data-config.xml</str>

</lst>

</requestHandler>

</config>

data-config.xml文件

<?xml version="1.0" encoding="UTF-8"?>

<dataConfig>

<dataSource type="JdbcDataSource"

driver="oracle.jdbc.driver.OracleDriver"

url="jdbc:oracle:thin:@218.17.227.194:1521:kgdb"

user="ehr_test"

password="szkingdomRHIN"/>

<document>

<entity name="EHR_ID"  query="SELECT EHR_ID,MPI_ID,EHR_DATE,EHR_TIME,ORG_ID,

DATA_ELEM_SET,ACT_CODE,ACT_SNO,ACT_SNO_CLASS,EHR_DIGEST,CDA_ID,CREATE_DATE,

CANCEL,SNO_ID_INHOS_VERSION FROM T_EHR">

<field column="EHR_ID" name="id"/>

<field column="MPI_ID" name="MPI_ID"/>

<field column="EHR_DATE" name="EHR_DATE"/>

<field column="EHR_TIME" name="EHR_TIME"/>

<field column="ORG_ID" name="ORG_ID"/>

<field column="DATA_ELEM_SET" name="DATA_ELEM_SET"/>

<field column="ACT_CODE" name="ACT_CODE"/>

<field column="ACT_SNO" name="ACT_SNO"/>

<field column="ACT_SNO_CLASS" name="ACT_SNO_CLASS"/>

<field column="EHR_DIGEST" name="EHR_DIGEST"/>

<field column="CDA_ID" name="CDA_ID"/>

<field column="CREATE_DATE" name="CREATE_DATE"/>

<field column="CANCEL" name="CANCEL"/>

<field column="SNO_ID_INHOS_VERSION" name="SNO_ID_INHOS_VERSION"/>

</entity>

</document>

</dataConfig>

打开DataImportHandler页面去验证,是否该配置的都配置好了。http://localhost:8080/solr/dataimport ,使用“完全导入”选项将数据从数据库中导出,并提交给solr建立索引,使用“增量导入”选项对数据库发生的变化的数据导出,并提交给solr建立索引。

一个配置文件可以配置多个数据源。增加一个dataSource元素就可以增加一个数据源了。name属性可以区分不同的数据源。如果配 置了多于一个的数据源,那么要注意将name配置成唯一的。例如:

<?xml version="1.0" encoding="UTF-8"?>

<dataConfig>

<dataSource type="JdbcDataSource"  name="ds-1"

driver="oracle.jdbc.driver.OracleDriver"

url="jdbc:oracle:thin:@218.17.227.194:1521:kgdb"

user="ehr_test"

password="szkingdomRHIN"/>

<dataSource type="JdbcDataSource"  name="ds-2"

driver="oracle.jdbc.driver.OracleDriver"

url="jdbc:oracle:thin:@218.17.227.195:1521:htdb"

user="ehr_test"

password="szkingdomRHIN"/>

<document>

<entity name="EHR_ID" dataSource="ds-1" query="SELECT EHR_ID,MPI_ID,EHR_DATE,

EHR_TIME,ORG_ID FROM T_EHR">

<field column="EHR_ID" name="id"/>

<field column="MPI_ID" name="MPI_ID"/>

<field column="EHR_DATE" name="EHR_DATE"/>

<field column="EHR_TIME" name="EHR_TIME"/>

<field column="ORG_ID" name="ORG_ID"/>

</entity>

<entity name="EHR_ID" dataSource="ds-2"  ......>

......

</entity>

</document>

</dataConfig>

data-config.xml的根元素是document。document是schema,它的域上的值可能来自于多个表.一个document元素代表了一种文档。 一个document元素中包含了一个或者多个root实体。一个root实体包含着一些子实体,这些子实体能够包含其他的实体。实体就是,关系数据库上 的表或者视图。每个实体都能够包含多个域,每个域对应着数据库返回结果中的一列。域的名字跟列的名字默认是一样的。如果一个列的名字跟solr field的名字不一样,那么属性name就应该要给出。其他的需要的属性在solrschema.xml文件中配置。为了能够从数据库中取得想要的数据,我们的设计支持标准sql规范。这使得用户能够使用他任何想要的sql语句。root实体是一个中心表,使用它的列可 以把表连接在一起。

dataconfig的结构

dataconfig 的结构不是一成不变的,entity和field元素中的属性是随意的,这主要取决于processor和transformer。以下是entity的默认属性

Ø name(必需的):name是唯一的,用以标识entity

Ø processor:只有当datasource不是RDBMS时才是必需的。默认值是 SqlEntityProcessor

Ø transformer:转换器将会被应用到这个entity上,详情请浏览transformer部分。

Ø pk:entity的主键,它是可选的,但使用“增量导入”的时候是必需。它跟schema.xml中定义的 uniqueKey没有必然的联系,但它们可以相同。

Ø rootEntity:默认情况下,document元素下就是根实体了,如果没有根实体的话,直接在实体下 面的实体将会被看做跟实体。对于根实体对应的数据库中返回的数据的每一行,solr都将生成一个document。

下面是SqlEntityProcessor的属性

Ø query (required) :sql语句

Ø deltaQuery : 只在“增量导入”中使用

Ø parentDeltaQuery : 只在“增量导入”中使用

Ø deletedPkQuery : 只在“增量导入”中使用

Ø deltaImportQuery : (只在“增量导入”中使用) . 如果这个存在,那么它将会在“增量导入”中导入phase时代替query产生作用。这里有一个命名空间的用法${dataimporter.delta.}

solr导入数据时的参数

Ø clean : (default 'true'). 决定在建立索引之前,删除以前的索引。

Ø commit : (default 'true'). 决定这个操作之后是否要commit

Ø optimize : (default 'true'). 决定这个操作之后是否要优化。

Ø debug : (default false). 工作在debug模式下。

七、 SOLR优化

SOLR优化共三部分,第一部分Solr常规处理,第二部分针对性性处理,前者比较通用,后者有局限性。务必根据具体应用特性,具体调节参数,对比性能。第三部分

solr查询相关的

具体应用需要全面去把控,各个因素一起起作用。

第一部分<Solr常规的调优>

Schema Design Considerations

Ø indexed fields

indexed fields 的数量将会影响以下的一些性能:

索引时的时候的内存使用量

索引段的合并时间

优化时间

索引的大小

我们可以通过将omitNorms=“true”来减少indexed fields数量增加所带来的影响。

Ø stored fields

Retrieving the stored fields 确实是一种开销。这个开销,受每个文档所存储的字节影响很大。每个文档的所占用的空间越大,文档就显的更稀疏,这样从硬盘中读取数据,就需要更多的i/o操作(通常,我们在存储比较大的域的时候,就会考虑这样的事情,比如存储一篇文章的文档。)

可以考虑将比较大的域放到solr外面来存储。如果你觉得这样做会有些别扭的话,可以考虑使用压缩的域,但是这样会加重cpu在存储和读取域的时候的负担。不过这样却是可以较少i/0的负担。

如果,你并不是总是使用stored fields的话,可以使用stored field的延迟加载,这样可以节省很多的性能,尤其是使用compressed field 的时候。

Configuration Considerations

Ø mergeFactor

这个是合并因子,这个参数大概决定了segment(索引段)的数量。

合并因子这个值告诉lucene,在什么时候,要将几个segment合并成为一个segment, 合并因子就像是一个数字系统的基数一样。

比如说,如果你将合并因子设成10,那么每往索引中添加1000个文档的时候,就会创建一个新的索引段。当第10个大小为1000的索引段添加进来的时候,这十个索引段就会被合并成一个大小为10,000的索引段。当十个大小为10,000的索引段生成的时候,它们就会被合并成一个大小为100,000的索引段。如此类推下去。这个值可以在solrconfig.xml 中的*mainIndex*中设置。(不用管indexDefaults中设置)

Ø mergeFactor Tradeoffs

较高的合并因子, 会提高索引速度,

较低频率的合并,会导致更多的索引文件,这会降低索引的搜索效率

较低的合并因子

较少数量的索引文件,能加快索引的搜索速度。

较高频率的合并,会降低索引的速度。

Ø HashDocSet Max Size Considerations

hashDocSet是solrconfig.xml中自定义优化选项, 使用在filters(docSets) 中,更小的sets,表明更小的内存消耗、遍历、插入。

hashDocSet参数值最后基于索引文档总数来定,索引集合越大,hashDocSet值也越大。

Ø Cache autoWarm Count Considerations

当一个新的searcher 打开的时候,它缓存可以被预热,或者说使用从旧的searcher的缓存的数据来“自动加热”。autowarmCount是这样的一个参数,它表示从旧缓存中拷贝到新缓存中的对象数量。autowarmCount这个参数将会影响“自动预热”的时间。有些时候,我们需要一些折中的考虑,seacher启动的时间和缓存加热的程度。当然啦,缓存加热的程度越好,使用的时间就会越长,但往往,我们并不希望过长的seacher启动时间。这个autowarm 参数可以在solrconfig.xml文件中被设置。

Ø Cache hit rate(缓存命中率)

我们可以通过solr的admin界面来查看缓存的状态信息。提高solr缓存的大小往往是提高性能的捷径。当你使用面搜索的时候,你或许可以注意一下filterCache,这个是由solr实现的缓存。

Ø Explicit Warming of Sort Fields

如果你有许多域是基于排序的,那么你可以在“newSearcher”和“firstSearcher”eventlisteners中添加一些明显需要预热的查询,这样FieldCache 就会缓存这部分内容。

Ø Optimization Considerations

优化索引,是我们经常会做的事情,比如,当我们建立好索引,然后这个索引不会再变更的情况,我们就会做一次优化了。

但,如果你的索引经常会改变,那么你就需要好好的考虑下面的因素的。

§ 当越来越多的索引段被加进索引,查询的性能就会降低, lucene对索引段的数量有一个上限的限制,当超过这个限制的时候,索引段可以自动合并成为一个。

§ 在同样没有缓存的情况下,一个没有经过优化的索引的性能会比经过优化的索引的性能少10%……

§ 自动加热的时间将会变长,因为它依赖于搜索。

§  优化将会对索引的分发产生影响。

§  在优化期间,文件的大小将会是索引的两倍,不过最终将会回到它原来的大小,或者会更小一点。

优化,会将所有的索引段合并成为一个索引段,所以,优化这个操作其实可以帮助避免“too many files”这个问题,这个错误是由文件系统抛出的。

Ø Updates and Commit Frequency Tradeoffs

如果从机 经常从 主机更新的话,从机的性能是会受到影响的。为了避免,由于这个问题而引起的性能下降,我们还必须了解从机是怎样执行更新的,这样我们才能更准确去调节一些相关的参数(commit的频率,spappullers, autowarming/autocount),这样,从机的更新才不会太频繁。

1. 执行commit操作会让solr新生成一个snapshot。如果将postCommit参数设成true的话,optimization也会执行snapShot.

2. slave上的Snappuller程序一般是在crontab上面执行的,它会去master询问,有没有新版的snapshot。一旦发现新的版本,slave就会把它下载下来,然后snapinstall.

3. 每次当一个新的searcher被open的时候,会有一个缓存预热的过程,预热之后,新的索引才会交付使用。

这里讨论三个有关的参数:

Ø number/frequency of snapshots  —-snapshot的频率。

Ø snappullers 是 在crontab中的,它当然可以每秒一次、每天一次、或者其他的时间间隔一次运行。它运行的时候,只会下载slave上没有的,并且最新的版本。

Ø Cache autowarming 可以在solrconfig.xml文件中配置。

如果,你想要的效果是频繁的更新slave上的索引,以便这样看起来比较像“实时索引”。那么,你就需要让snapshot尽可能频繁的运行,然后也让snappuller频繁的运行。这样,我们或许可以每5分钟更新一次,并且还能取得不错的性能,当然啦,cach的命中率是很重要的,恩,缓存的加热时间也将会影响到更新的频繁度。

Ø cache对性能是很重要的。

一方面,新的缓存必须拥有足够的缓存量,这样接下来的的查询才能够从缓存中受益。另一方面,缓存的预热将可能占用很长一段时间,尤其是,它其实是只使用一个线程,和一个cpu在工作。snapinstaller太频繁的话,solr
slave将会处于一个不太理想的状态,可能它还在预热一个新的缓存,然而一个更新的searcher被opern了。怎么解决这样的一个问题呢,我们可能会取消第一个seacher,然后去处理一个更新seacher,也即是第二个。然而有可能第二个seacher 还没有被使用上的时候,第三个又过来了。看吧,一个恶性的循环,不是。当然也有可能,我们刚刚预热好的时候就开始新一轮的缓存预热,其实,这样缓存的作用压根就没有能体现出来。出现这种情况的时候,降低snapshot的频率才是硬道理。

Ø Query Response Compression

在有些情况下,我们可以考虑将solr xml response 压缩后才输出。如果response非常大,就会触及NIc i/o限制。

当然压缩这个操作将会增加cpu的负担,其实,solr一个典型的依赖于cpu处理速度的服务,增加这个压缩的操作,将无疑会降低查询性能。但是,压缩后的数据将会是压缩前的数据的6分之一的大小。然而solr的查询性能也会有15%左右的消耗。 至于怎样配置这个功能,要看你使用的什么服务器而定,可以查阅相关的文档。

Ø Embedded vs HTTP Post

使用embeded 来建立索引,将会比使用xml格式来建立索引快50%。

RAM Usage Considerations(内存方面的考虑)

Ø OutOfMemoryErrors

如果你的solr实例没有被指定足够多的内存的话,java virtual machine也许会抛outof memoryError,这个并不对索引数据产生影响。但是这个时候,任何的adds/deletes/commits操作都是不能够成功的。

Ø Memory allocated to the Java VM

最简单的解决这个方法就是,当然前提是java virtual machine还没有使用掉你全部的内存,增加运行solr的java虚拟机的内存。

Ø Factors affecting memory usage(影响内存使用量的因素)

我想,你或许也会考虑怎样去减少solr的内存使用量。其中的一个因素就是input document的大小。当我们使用xml执行add操作的时候,就会有两个限制。document中的field都是会被存进内存的,field有个属性叫maxFieldLength,它或许能帮上忙。每增加一个域,也是会增加内存的使用的。

第二部分<Solr特殊调优>

1. 多core的时候

多core 如果同一时间进行core 切换,会导致内存、cpu压力过大,可以扩展Solr代码,限制最多同时core切换的执行个数。保证不会出现高load或者高cpu 风险

2. 应用较高安全

最后不低于2个结点工作,并且最好2个结点是跨机器的。
offline与online切换的时候,如果数据量不是很多,可以考虑index与search合一,如果数据量较大,超过5000w的时候,建议index
offline或者search结点之外的其他结点上执行index

3. cache参数配置

如果更新很频繁,导致commit和reopen频繁,如果可以的话,关闭cache.如果访问中依赖cache提示性能,那么最好关闭cache warm,no facet 需求或者开开启cache warm  有facet需要,对fieldvalue cache很依赖的话。实时更新的话,通常document cache命中率比较低,完全可以不开启这个配置

4. reopen 和commit

如果可以的话,主磁盘索引,不参入segment合并,新的索引段走不同的目录。并且reopen的时候,主索引的不变动。

5. commit与reopen异步化

有一部分数据如果不变动,可以考虑使用memory cache 或者locale cache 平衡性能和空间开销,同时避免FGC

6. 中间变量压缩、单例化

所有查询或者建索引过程中,尽量少创建对象,而通过set改变对象值,以及单例化,提升性能。一些较大中间变量,如果可以的话,采取一些整数压缩

7. 对象表示重定义

例如日期、地区、url、byte等一些对象,可以考虑差值、区位码、可别部分、压缩等结构,使得内存开销降低间接使得内存使用率提高,获得更好性能。

8. index与store 隔离

就是index发挥它的查询性能,store发挥它的存储、响应性能。也就是不要将所有的内容都放在index中,尽量使得field的属性stored=false

9. 使用solr、lucene最新版本

10. 共享分词实例

自定义的分词,务必使用单例。千万不要一个document创建一个分词对象

第三部分 Solr查询

1. 对按指定域排序

展示的时候,对于数字的建议,展示最近1或者3个月数据。例如价格,防止作弊dump或者建索引的时候,对数字加以上下界检测,及早发现数字本身正确,而实际意义不合理的数据

2. 排序可变性

默认的排序务必有自己的相关参数,并且平衡各方面需求。排序要变,但是不至于大的波动。排序的细节不公开,但是排序的结果可以解释的清楚。

3. 线上线下

有些分值可以线下完成,有些分值线上完成。看需求。

4. 多域查询

如果默认查询多个域,不妨将多个域合成一个域,只差一个域

5. 高亮

高亮可以在solr里面或者外面执行的,不一定在solr里面执行,可以在solr之外执行同理,分词可以在线下执行好,dump只执行简单的空格分词即可

6. 统计

facet统计可以先上与线下相结合,不一定完全依赖线上即时计数。

7. 主动搜索

主动搜索查询串务必严格处理,既要去无效查询串,也要适当扩展查询串。明确查询路径和hit=0的对应处理。

发表评论