基于Lucene框架的“虎扑篮球”网站搜索引擎(java版)

 1  引言

 

本次作业完成了基于Lucene的“虎扑篮球”网站搜索引擎,对其主要三个板块---“最新新闻”(主要NBA新闻),“虎扑步行街”(类似贴吧性质),“虎扑湿乎乎”(篮球发帖区)进行页面分析并建立索引完成搜索引擎。

11  设计目的

搜索引擎是一个很有用的程序,可以让你更方便,快捷的实现目标信息的查找和检索,本程序就针对虎扑篮球网站的三个子页面的帖子题目建立索引,并可实现显示目标条目的标题、时间、来源、和正文内容、以及原网址URL。

(1) 当程序运行时,在java scanner上会显示提示信息“请输入你要查询的模块:1代表虎扑新闻 2代表步行街 3代表shh 4代表综合搜索”分别代表用户搜索的四种搜索需求

(2) 输入完要求数字后,会显示如下提示信息请输入爬虫深度(爬取页数)”,这条信息代表用户想要搜索的页数,页数越多,产生的内容越多。(相当于规定搜索页数)

(3) 之后会提示输入最大显示数量,顾名思义,由用户输入显示的最大条目数。

(4) 最后会让用户输入查询串,然后敲入回车就可以根据查询串来找到对应数量的条目。

(5) 如果选择搜索虎扑新闻,则会显示最大条目数的新闻的条目、新闻的来源、新闻发布的时间、原网页的url还有全部的正文内容(正文内容格式按照原网页)。

(6)如果选择shh或虎扑步行街搜索,则会显示最大条目数的 贴子题目,发帖具体年月日、来源、原文url、正文内容 。

(7) 如果用户选择4综合搜索,则会显示出最大条目数的全部页面的搜索结果(新闻、shh、步行街),并且每个条目都会显示出其对应结构和正文内容,方便用户挑选和查看。

 

12  设计说明

本程序采用Java程序设计语言,在IDEA平台下编辑、编译与调试。

Jdk版本1.7,使用外部工具包有:Jsoup、Lucene。

总体设计

 

21  功能模块设计

本程序需实现的主要功能有:

(1) 用户可以自定义搜索页面

(2) 用户可以自定义爬虫深度也就是爬取页数

(3) 用户可以选择最大显示数目

(4) 输入搜索串,根据搜索串显示

程序的总体功能如图1所示:

 

2. 2  流程图设计

程序总体流程如图2所示:

 

 

 

2 设计总体流程图

 

 

 详细设计

31  设计概述

搜索引擎的设计总体分量四大部分:

第一部分是爬虫,主要是对想要搜索的页面进行爬取,获取其html信息;

第二部分是对这些html信息进行筛选、分析并最后转化成需要的字符串;

第三部分是利用Lucene框架对处理好的字符串信息建立索引,并根据搜索串搜索;

第四部分是将需要的信息以字符串的形式显示(正文url,正文内容,来源等)。

3.2  网页爬虫及其内容提取和分析

1、初始化:在做这一步之前,需要对Lucene的内容做初始化。

 

 

这里面使用在RAM里面建立索引,避免了空间的浪费,其余变量通过Lucene手册规范建立。

2、获取:通过jsoup的connect的get方法获取其对应url下的html内容

                  org.jsoup.nodes.Document doc = Jsoup.connect(url).get();

3、筛选:

主要函数:

                  public static Elements[] getNews(Document doc)

函数目的:

将步骤一得到的doc对象作为参数,使用getNews函数获取对应筛选标签下的元素集合。

函数核心代码:

 

 

 

函数详解:我们通过分析三个页面的html代码找到新闻标题和url所在的标签

下面我们以虎扑新闻为例来解读我们是如何筛选标签的:(其他类似,不一一页面分析)

 

 

从这个截图中我们可以看出所有的虎扑新闻都放在class=“list-head”标签下,而所有的其他信息都放在class=“other-Info”标签里。,所以我们建立了一个Elements的数组,用来分别存放这两个标签的html代码并返回。

4、解析

主要函数:

                    public static HashMap<String,String> analyze(Elements[]e)

函数目的:步骤而得到的Elements数组,返回一HashMap类型的值,该值的键为对应新闻内容的url(string),值为对应的新闻标题和新闻事件来源等信息(string)。

实现方法:首先是url的提取,这里使用了正则表达式

                   String regex = "https://[\\w+\\.?/?]+\\.[A-Za-z]+";

来提取出对应标签的url,(由于第二步做过筛选,所以可以保证当前每一个elements内只有一个url,所以可以用正则表达式)。

之后使用Elements自带的方法eachText()方法获取正文内容。再做一些细节修补工作,将新闻时间等附加内容与标题相连。

核心代码

 

 

最后返回哈希表news即可。

 

3.3  Lucene索引的建立和搜索

1、建立索引

1、主要函数:

public static void creatIndex(HashMap news,IndexWriter w)

2、函数作用:对上一步得到的HashMap的内容进行分析,并对他们的不同部分建立索引。

3、函数实现:使用迭代器遍历HashMap的键值对,取出里面的内容并adddoc方法建立索引。

4、addDoc方法:将三个参数根据“url”“newstitle”“newsother”三个字段增添索引

 

 

2、搜索

1、主要函数

                  public static void Search(String querystr,intnum,Directory index)

 

2、函数作用:通过对传入的索引index进行搜索串querystr的搜索,获取“命中的项”

3、函数实现:根据Lucene使用手册的代码修改得到:

 

 

 

3.3内容的显示

这里我为了正确的显示出内容,使用了两种方法来获取信息,第一种是老师推荐的方法Boilerpipe,但是发现这种训练方法对一些简单页面确实可以实现提取正文,但是对一些复杂页面(特别是带有很多评论的页面)提取出的正文为空,为了解决这个问题,我写了备用方案。当检测到Boilerpipe方法获取正文为空时,就启用备用方案。

备用方案的思路很简单,就是按照页面找出内容所在的标签,获取其正文,再之用字符串replace,等方法对其进行修改即可

 

 

 

 

 

测试与运行

 

41  程序测试

在程序代码基本完成后,经过不断的调试与修改,本次爬虫程序终于能正常运行如期运行。调试过程主要包括对显示结果格式的调试(需要去掉对应换行标签等),顺序的调试,显示内容完整性的调试等。

4.2  程序运行

对虎扑shh板块的的搜索

 

 

 

显示的shh内容如下图所示:

 

 

对虎扑新闻的搜索:

 

 

显示结果截图:

 

 

 

对虎扑步行街论坛的搜索:

 

 

    

搜索结果截图:

 

 

 

 

综合搜索:

 

 

 

 

搜索结果:

 

 

 

 

 

 

5.总结

通过这次实验我收获了很多:

1、首先了解了LUCENE搜索引擎框架,以后些其他搜索引擎可以更加得心应手;

2、通过阅读文档和实际使用,掌握了jsoup的基本用法;

3、增强java的编程能力。

本次实验的不足:

1、代码有冗余,下次可以多多使用封装和继承,使代码可读性更高;

2、没有做高亮显示;

3、只分析了3个页面,以后完善可以多分析几个页面(其实原理相似),增加代码完成度;

4、由于搜索的很多都是球星的名字,名字有些不规则,Lcunene分词器可能没法给出准确区分,所以有时候会出现搜索结果不匹配。

(比如搜索“科比”,可能会出现xxx比xxx高这样的选项)

 

 

 

(很喜欢这次实验,写出这个也算我这么多年的虎扑jrs没白当吧)

 (要源码的私戳吧,就不放在这献丑了)

posted @ 2018-02-08 11:19  有梦想的小菜鸟  阅读(380)  评论(0编辑  收藏  举报