基于Sphinx构建准实时更新的分布式通用搜索引擎平台 下载本文

内容发布更新时间 : 2024/6/3 16:36:43星期一 下面是文章的全部内容请认真阅读。

孔雀V – CtrlV百度文库集 文件编号:20121223-02 整理人:http://www.ctrlv.cc/ 基于Sphinx构建准实时更新的分布式通用搜索引擎平台

标签:搜索引擎、分布式、Sphinx、MySQL、并发 前言:

2008年7月,我写过一篇文章《基于Sphinx+MySQL的千万级数据全文检索(搜索引擎)架构设计》。有不少网友希望阅读全文,我将该文档整理了一下,分享出来。文档解压后大小为7.33M,共19页。 本站下载地址: http://blog.s135.com/book/sphinx/sphinx_mysql.zip 新浪下载分流: http://ishare.iask.sina.com.cn/f/6728201.html 上述文档架构存在的局限,我在2008年12月的文章《亿级数据的高并发通用搜索引擎架构设计》中已经指出:一是MySQL本身的并发能力有限,在200~300个并发连接下,查询和更新就比较慢了;二是由于MySQL表的主键与Sphinx索引的ID一一对应,从而无法跨多表建立整站查询,而且新增加类别还得修改配置文件,比较麻烦;三是因为和MySQL集成,无法发挥出Sphinx的优势。虽然如此,但对于一些写入量不大的搜索应用,已经足够了,或许对很多人会有帮助。 正文:

在这之后,本人基于《亿级数据的高并发通用搜索引擎架构设计》开发的Sphinx分布式通用站内搜索引擎平台,已经在生产环境运行9个月以上,经过运营中的不断完善与改进,目前已形成了一套可扩展的分布式通用站内搜索引擎框架。CMS、视频、论坛等产品发生的增、删、改操作,文本内容实时写入自行开发的 HTTPSQS 高性能简单消息队列服务,通过队列控制器更新索引和存储。提供支持XML、JSON的API查询接口,支持亿级数据的索引、分布式、中文分词、高亮显示、自动摘要、准实时(1分钟内)增量索引更新。

孔雀V – CtrlV百度文库集 文件编号:20121223-02 整理人:http://www.ctrlv.cc/ 下面是Sphinx新的搜索架构中技术关键点实现方式的一些介绍,与大家分享、交流一下: 1、一元分词和中文分词的结合:

①、一元分词位于索引更新模块。Sphinx索引引擎对于CJK(中日韩)语言(必须是UTF-8编码)支持一元切分,假设【反恐行动是国产主视角射击网络游戏】这段文字,Sphinx会将其切成【反 恐 行 动 是 国 产 主 视 角 射 击 网 络 游 戏】,然后对每个字建立反向索引。如果用这句话中包含的字组成一个不存在的词语,例如【恐动】,也会被搜索到,所以搜索时,需要加引号,例如搜索【\反恐行动\】,就能完全匹配连在一起的四个字,不连续的【\恐动\】就不会被搜索到。但是,这样还有一个问题,搜索【\反恐行动游戏\】或【\国产网络游戏\】就会搜索不到。对于这个问题,采用位于搜索查询模块的中文分词来处理。

sphinx.conf配置文件中关于UTF-8中文一元分词的配置如下: ...省略...

index t_source_main{

source = t_source_main

孔雀V – CtrlV百度文库集 文件编号:20121223-02 整理人:http://www.ctrlv.cc/ path = /data0/search/sphinx/data/t_source_main docinfo = extern mlock = 0 morphology = none min_word_len = 1 charset_type = utf-8 min_prefix_len = 0 html_strip = 1

charset_table = 0..9, A..Z->a..z, _, a..z, U+410..U+42F->U+430..U+44F, U+430..U+44F

ngram_len = 1

ngram_chars = U+3000..U+2FA1F }

...省略...

②、中文分词位于搜索查询模块。搜索“反恐行动游戏”、“国产网络游戏”,先调用独立的中文分词系统,分别切分为“反恐行动 游戏”、“国产 网络游戏”,这时候,再给以空格分隔的词语加上引号,去Sphinx搜索【\反恐行动\游戏\】或【\国产\网络游戏\】,就能搜索到这条记录了。中文分词词库发生增、删、改,无需重建整个Sphinx搜索索引。

2、使用自行开发的HTTPSQS(http://code.google.com/p/httpsqs)开源简单队列服务程序,来缓冲高并发数据写入

新闻、论坛帖子、客服公告、SNS社区等发生的增、删、改操作,文本内容通过更新接口实时写入HTTPSQS队列,再通过队列控制器更新到Sphinx搜索引擎索引中。 3、Sphinx不能严格按照字段排序的小问题

如果不想使用权重,只希望严格按照时间、主键等排序,而匹配模式(Matching modes)又为非SPH_MATCH_BOOLEAN时(比较常用的是SPH_MATCH_ALL、SPH_MATCH_EXTENDED),Sphinx搜索结果在某一页中的排序会不太准确。例如:按照UNIX时间戳倒序排序,0,20为第一页,20,40为第二页,第一页的最小时间戳一定会大于第二页的最大时间戳,但是,第一页中的0,20条记录却不会严格按照时间戳排序,第二页亦是如此。因此,如果需要精确排序,用户翻到搜索结果的某一页,就需要对Sphinx在某一搜索结果页中的记录另行再排序,在我的这套搜索架构中,这一再排序操作由search.php查询接口使用