当前位置:   article > 正文

Solr集群架构概述及delta-import详细配置

部署delta importerror

背景

由于项目原因,重新熟悉了下Solr,版本为3.6,搭建了主从Solr服务,并使用DIH从RDBMS数据源增量更新索引。

其实也没什么技术含量,就是简单做个总结,分别从部署架构增量更新两个方面说明下。


Solr Replication

solr的主从其实是他的replication集群,从本质上说是通过ReplicationHandler来实现的,除了solr server之间可以互相同步之外,每个solr实例内部的core之间也是可以实现同步的,而能自身同步自身的实例称为Repeater,它的存在是为了分担master的同步开销,即由它来同步master里需要向外同步的core,然后所有的slave都从Repeater处同步相应的core。


具体配置方面,master的solrconfig.xml里的requestHandler配置为:

  1. <requestHandler name="/replication" class="solr.ReplicationHandler">
  2. <lst name="master">
  3. <str name="replicateAfter">startup</str>
  4. <str name="replicateAfter">commit</str>
  5. <str name="backupAfter">optimize</str>
  6. <str name="confFiles">schema.xml,stopword.dic,db-data-config.xml,dataimport.properties</str>
  7. <str name="commitReserveDuration">00:01:00</str>
  8. </lst>
  9. </requestHandler>
在confFiles里可以指定在同步过程中,slave需要一并同步过去的文件。slave端 solrconfig.xml里的配置为:

  1. <requestHandler name="/replication" class="solr.ReplicationHandler">
  2. <lst name="slave">
  3. <str name="masterUrl">http://yf-rd-crm-cdc-db06.yf01.baidu.com:8888/solr/core0/replication</str>
  4. <str name="pollInterval">00:00:20</str>
  5. <str name="compression">internal</str>
  6. <str name="httpConnTimeout">5000</str>
  7. <str name="httpReadTimeout">10000</str>
  8. </lst>
  9. </requestHandler>
其中pollInterval是发出同步请求的间隔时间,上述配置为每20s会去sync一次。后面的http参数都是默认值。对slave和master来说,主要的配置不同就在这个handler里,其他部分可以一致。我的solr主从比较简单,大致如下。


如果对solr的搜索还有分片和负载均衡的要求,可以参考下solr4.0之后支持的SolrCloud,适合 high scale, fault tolerant, distributed indexing and search capabilities。我没有选择SolrCloud,主要原因是数据量也不是很大,不需要分片。本来想参考SolrCloud,看能不能为请求的负载均衡提供些什么优势,后来还是放弃了,负载这块在solrj的搜索服务里简单做了下轮训。网上看到也有人用Nginx为多个Tomcat容器做负载均衡,不过这个出发点和架构上的层次又有些不一样。


Solr DataImportHandler

DataImportHandler可以为solr的索引配置数据源,我的数据源是mysql,基本配置可以参考SolrDoc里的内容。不重复。

主要的坑在需要在web.xml里添加下面这个配置

  1. <listener>
  2. <listener-class>org.apache.solr.handler.dataimport.scheduler.ApplicationListener</listener-class>
  3. </listener>
但是这个类并不存在于solr的主要几个包里,需要额外导入,包 下载链接在这里。需要在webapps/solr.war下的WEB-INF/lib里添加这个包,还要添加下dist下的两个dataimporthandler有关的两个jar。此外把上面的listener配置添加到WEB-INF/web.xml内。特别注意的是, 需要jdk7才能正常启动,否则会报错。

具体DIH相关的配置再详细列一下,首先在solrconfig.xml里配置Handler

  1. <requestHandler name="/dataimport" class="org.apache.solr.handler.dataimport.DataImportHandler">
  2. <lst name="defaults">
  3. <str name="config">db-data-config.xml</str>
  4. </lst>
  5. </requestHandler>
具体db-data-config.xml里是sql逻辑和映射field,放在core/conf内,

  1. <dataConfig>
  2. <dataSource type="JdbcDataSource" driver="com.mysql.jdbc.Driver"
  3. url="jdbc:mysql://ip:port/db_name"
  4. user="root" password="root" />
  5. <document name="tb_core">
  6. <entity name="tb_core_table" pk="table_id"
  7. query="select table_id, code, name, description, freq_id, bytes, first_date, owner, secret_level, charset_id, field_term,
  8. line_term, null_format, subj_id, gmt_modify from tb_core_table"
  9. deltaQuery="select table_id, code, name, description, freq_id, bytes, first_date, owner, secret_level, charset_id, field_term,
  10. line_term, null_format, subj_id, gmt_modify from tb_core_table where gmt_modify > '${dataimporter.last_index_time}'">
  11. <field column="table_id" name="table_id" />
  12. <field column="code" name="code" />
  13. <field column="name" name="name" />
  14. <field column="description" name="description" />
  15. <field column="description" name="subject_path" />
  16. <field column="freq_id" name="freq_id" />
  17. <field column="bytes" name="bytes" />
  18. <field column="first_date" name="first_date" />
  19. <field column="owner" name="owner" />
  20. <field column="secret_level" name="secret_level" />
  21. <field column="charset_id" name="charset_id" />
  22. <field column="field_term" name="field_term" />
  23. <field column="line_term" name="line_term" />
  24. <field column="null_format" name="null_format" />
  25. <field column="subj_id" name="subj_id" />
  26. <field column="gmt_modify" name="entity_modify" />
  27. <entity name="tb_core_column" pk="col_id"
  28. query="select col_id, table_id, code, name, description, gmt_modify from tb_core_column where table_id='${tb_core_table.table_id}'"
  29. deltaQuery="select col_id, table_id, code, name, description, gmt_modify from tb_core_column where gmt_modify > '${dataimporter.last_index_time}'"
  30. parentDeltaQuery="select table_id, code, name, description, freq_id, bytes, first_date, owner, secret_level, charset_id, field_term,
  31. line_term, null_format, subj_id, gmt_modify from tb_core_table where table_id = ${tb_core_column.table_id}">
  32. <field column="col_id" name="column_id" />
  33. <field column="code" name="column_code" />
  34. <field column="name" name="column_name" />
  35. <field column="description" name="column_description" />
  36. <field column="gmt_modify" name="column_modify" />
  37. </entity>
  38. </entity>
  39. </document>
  40. </dataConfig>
上面的逻辑里,table和column是一对多的关系,而两个table内都有最近更新时间字段(gmt_modify),任何一方的更新都要触发整个索引的增量更新,所以这是一个嵌套的例子。在SolrDoc里也有类似的嵌套写法,相对而言属于delta-import稍微高级些的写法。大家可以参考下。

  1. <dataConfig>
  2. <dataSource driver="org.hsqldb.jdbcDriver" url="jdbc:hsqldb:/temp/example/ex" user="sa" />
  3. <document>
  4. <entity name="item" pk="ID" query="select * from item"
  5. deltaImportQuery="select * from item where ID=='${dih.delta.id}'"
  6. deltaQuery="select id from item where last_modified > '${dih.last_index_time}'">
  7. <entity name="feature" pk="ITEM_ID"
  8. query="select DESCRIPTION as features from FEATURE where ITEM_ID='${item.ID}'"
  9. deltaQuery="select ITEM_ID from FEATURE where last_modified > '${dih.last_index_time}'"
  10. parentDeltaQuery="select ID from item where ID=${feature.ITEM_ID}"/>
  11. <entity name="item_category" pk="ITEM_ID, CATEGORY_ID"
  12. query="select CATEGORY_ID from item_category where ITEM_ID='${item.ID}'"
  13. deltaQuery="select ITEM_ID, CATEGORY_ID from item_category where last_modified > '${dih.last_index_time}'"
  14. parentDeltaQuery="select ID from item where ID=${item_category.ITEM_ID}">
  15. <entity name="category" pk="ID"
  16. query="select DESCRIPTION as cat from category where ID = '${item_category.CATEGORY_ID}'"
  17. deltaQuery="select ID from category where last_modified > '${dih.last_index_time}'"
  18. parentDeltaQuery="select ITEM_ID, CATEGORY_ID from item_category where CATEGORY_ID=${category.ID}"/>
  19. </entity>
  20. </entity>
  21. </document>
  22. </dataConfig>
最重要的是,在solr_home/conf内需要一个负责调度的文件:dataimport.properties(不同于core/conf下的dataimport.properties,那个dataimport.properties会自动生成,记录的是最近一次更新的时间)

  1. #################################################
  2. # #
  3. # dataimport scheduler properties #
  4. # #
  5. #################################################
  6. # 是否同步功能
  7. # 1 - 开启 ; 否则不开启
  8. syncEnabled=1
  9. # 需要同步的solr core
  10. syncCores=core0
  11. # solr server名称或ip地址
  12. # 默认为localhost
  13. server=localhost
  14. # solr server端口
  15. # 默认80
  16. port=8888
  17. # webapp name
  18. webapp=solr
  19. # application context
  20. # webapp=metadata-search
  21. # 同步URL参数
  22. params=/dataimport?command=delta-import&clean=false&commit=true
  23. # 调度区间
  24. # 默认30分钟
  25. interval=1
这部分就需要开头讲的
org.apache.solr.handler.dataimport.scheduler.ApplicationListener
的配置,否则启动后,之前的xml是不生效的。


Solr Server服务架构

结合Solr更新、主从和内部的一些主要模块,画了一个服务架构图如下。



(全文完)


声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/很楠不爱3/article/detail/168219
推荐阅读
相关标签
  

闽ICP备14008679号