Loading

结对作业_Two

Part 1.前言

(附:本次编码涵盖的所有功能均为java语言实现)

Part 2.具体分工

本次的结对作业我们简单的拆分成:

  1. 爬虫部分(高裕祥负责)
  2. 词频分析部分(柯奇豪负责)
  3. 附加题部分(柯奇豪负责处理数据、高裕祥负责处理爬取相关内容)
  4. 单元测试(柯奇豪负责)

Part 3.PSP表

PSP3.1 Personal Software Process Stages 预估耗时(分钟) 实际耗时(分钟)
Planning 计划 --- ---
· Estimate · 估计这个任务需要多少时间 60 90
Development 开发
· Analysis · 需求分析 (包括学习新技术) 120 240
· Design Spec · 生成设计文档 20 30
· Design Review · 设计复审 10 20
· Coding Standard · 代码规范 (为目前的开发制定合适的规范) 10 20
· Design · 具体设计 120 140
· Coding · 具体编码 1800 2200
· Code Review · 代码复审 30 100
· Test · 测试(自我测试,修改代码,提交修改) 30 120
Reporting 报告
· Test Repor · 测试报告 10 20
· Size Measurement · 计算工作量 10 20
· Postmortem & Process Improvement Plan · 事后总结, 并提出过程改进计划 30 30
合计 2250 3030

Part 4.解题思路描述与设计实现说明

1. 爬虫使用
  • 使用语言:java
  • 本次的爬虫我们主要利用Java爬虫工具Jsoup解析进行爬取,基本上爬虫的流程可以归纳如下:
2. 代码组织与内部实现设计(类图)

我自己在本地是建了三个java项目分别负责不同的功能模块:

  • PaperBasicFuction (处理基础的词频统计功能)
  1. commandline.java (实现命令行处理功能)
  2. infile。java (实现基础词频分析功能)
  3. mainbody.java (构成WordCount的主体main)
  • PaperMaps (处理附加的图形化显示功能)
  1. barchart.java (负责柱状图的生成)
  2. Piechart.java (负责饼图的功能)
  3. details.java (javabean模块进行数据处理)
  4. person.java (论文作者相关性数据处理)
  5. mainbody.java (构成AdditionalFunction主体main)
  • PaperSpider (负责爬虫功能的实现)
3. 说明算法的关键与关键实现部分流程图(含关键代码的解释)

接下来我就简单的介绍一下我这次新补充或者改进优化的几处地方,与上回个人作业相关功能类似的地方在这里我就不再赘述

section 1.命令行功能的实现
    options.addOption("h", "help", false,"Helps About this Command");
	options.addOption("i", "input", true, "Input this file");
	options.addOption("o", "output", true, "Output this file");
	options.addOption("w", "weight", true, "Weight of the word");
	options.addOption("m", "members", true, "Members of count words");
	options.addOption("n", "number", true, "Numbers of output words");
	
	try {
		CommandLine commandline = parser.parse(options, args);
		if(commandline.hasOption("h")) {
			HelpFormatter formatter = new HelpFormatter();
			formatter.printHelp("CommandLineParameters",options);
		}
		if(commandline.hasOption("i")) {
			infile =  commandline.getOptionValue("i");
		}
		if(commandline.hasOption("o")) {
			outfile =  commandline.getOptionValue("o");
		}
		if(commandline.hasOption("w")) {
			weight =  commandline.getOptionValue("w");
		}
		if(commandline.hasOption("o")) {
			member =  commandline.getOptionValue("m");
		}
		if(commandline.hasOption("o")) {
			number =  commandline.getOptionValue("n");
		}
	} catch (ParseException e) {
		e.printStackTrace();
	}

原先我的思路是使用命令行读入转String然后用if或者switch-case来逐一的判断匹配,显然这种方式有些许繁琐,为了方便使用命令行的处理,我转而借助于commons-cli来简化工作,显然操作起来就变得简单明了,方便我获取命令行参数

section 2.小细节的优化

关于标题和内容权重不同的情况,我简单的通过两句表达式做处理,不做多余的判断处理

w_title = w*10+(w-1)*(-1); w_content = 1; 

依照于题目的要求,文本的格式相对的统一,所以我采用逐行获取后匹配,对应的进行相关操作

while((strline = buffReader.readLine())!=null){
	Matcher t_mat = t_pat.matcher(strline);
	Matcher c_mat = c_pat.matcher(strline);
	if(t_mat.find()) {
		t_str=t_mat.group(1).toLowerCase();
		t_words.append(t_str).append(" ");
		phrase(t_str,w_title,m);
		characters += t_str.length()+1;
		lines++;
	}
	if(c_mat.find()) {
		c_str=c_mat.group(1).toLowerCase();
		c_words.append(c_str).append(" ");
		phrase(c_str,w_content,m);
		characters += c_str.length();
		lines++;
	}
}
buffReader.close();	
section 3.网页爬虫
for(Element paper:urlLink) {                                    //循环爬取url队列
    String URL = paper.attr("href");
    if(!URL.contains("https://")){
    URL = "openaccess.thecvf.com/"+URL;
    }

    Document doc = Jsoup.connect("http://"+URL).timeout(80000).maxBodySize(0).get();
    Elements paperdatas=doc.select("#content");
    Elements title1=paperdatas.select("#papertitle");
    Elements abs=paperdatas.select("#abstract");
    Elements authors = paperdatas.select("#authors");
    Elements opway = paperdatas.select("a[href]");
    
        String author=authors.select("b").text();
        String title = title1.text();
        paperid=paperid+1;
        String abst=abs.text();
        String openway=opway.text();
    
    System.out.println("ID: "+paperid);
    System.out.println("title:"+ title );
    System.out.println("link: "+ URL);
    System.out.println("abstract: " +abst);
    System.out.println("authors: "+ author);
    System.out.println("relate: "+ openway);
    System.out.println("relate link: ");
    for(Element linklink:opway) {
        String oplink = linklink.attr("href");
        System.out.println( "http://openaccess.thecvf.com/" + oplink);
    }
}
                 
section 4.命令行处异常处理,输出err信息并进入中断
if (commandline.getOptions().length > 0) {

    ...
    
    if(commandline.hasOption("m")) {
    	member =  commandline.getOptionValue("m");
    	if(Integer.parseInt(member)<2 | Integer.parseInt(member)>10) {
    		System.err.println("ERROR_MESSAGE:THE PHRASE LENGTH OUT OF BOUNDS (2<=m<=10)"); //词组包含合法单词数的限制
    		System.exit(1);
    	}
    }
    
    ...
    
    if(commandline.hasOption("n")) {
    	number =  commandline.getOptionValue("n");
    	if(Integer.parseInt(number)>100|Integer.parseInt(number)<0) {
    		System.err.println("ERROR_MESSAGE:THE OUTPUT PHRASE LENGTH OUT OF BOUNDS (0<=n<=100)"); //输出top榜的个数限制
    		System.exit(1);
    	}
    }
    
    ...
}
else {
	System.err.println("ERROR_MESSAGE:NO ARGS");    //命令行参数的约束
	System.exit(1);
}    

Part 5.附加题设计与展示

section 1.详情整合生成具体查询目录.csv并存储于新构建的class details中

因为官网上可以获取的相关信息有限,能够直接爬取下来的信息如下图所示

所以不够我们对其更详细信息的参考,故通过爬取所获得信息,我们将其进行整合成一份CVPR_Details.csv详细目录,截图展示如下

而这些信息我们将其存放于新构建的class details中,方便我们后续对其进行操作处理

section 2.论文类型的饼图构建
public PieChart(){		  
	DefaultPieDataset data = getDataSet();	      
	JFreeChart chart = ChartFactory.createPieChart3D("论文类型饼图",data,true,false,false);	    //设置百分比	      
	PiePlot pieplot = (PiePlot) chart.getPlot();	      
	DecimalFormat df = new DecimalFormat("0.00%");//获得一个DecimalFormat对象,主要是设置小数问题	      
	NumberFormat nf = NumberFormat.getNumberInstance();//获得一个NumberFormat对象	      
	StandardPieSectionLabelGenerator sp1 = new StandardPieSectionLabelGenerator("{0}  {2}", nf, df);//获得StandardPieSectionLabelGenerator对象	      
	pieplot.setLabelGenerator(sp1);//设置饼图显示百分比	  	  //没有数据的时候显示的内容	      
	pieplot.setNoDataMessage("无数据显示");	      
	pieplot.setCircular(false);	      
	pieplot.setLabelGap(0.02D);	  	      
	pieplot.setIgnoreNullValues(true);//设置不显示空值	      
	pieplot.setIgnoreZeroValues(true);//设置不显示负值	     
	frame1=new ChartPanel (chart,true);	      
	chart.getTitle().setFont(new Font("宋体",Font.BOLD,20));//设置标题字体	      
	PiePlot piePlot= (PiePlot) chart.getPlot();//获取图表区域对象	      
	piePlot.setLabelFont(new Font("宋体",Font.BOLD,10));//解决乱码	      
	chart.getLegend().setItemFont(new Font("黑体",Font.BOLD,10));	
}  

section 3.top作者论文参篇幅与top词频的直方图
public barchart() {
	CategoryDataset dataset = getDataSet();
	JFreeChart chart = ChartFactory.createBarChart("论文作者统计", "作者","出现次数",dataset,PlotOrientation.VERTICAL,true,false,false);
	CategoryPlot plot = chart.getCategoryPlot();
	CategoryAxis domainAxis = plot.getDomainAxis();
	domainAxis.setLabelFont(new Font("黑体",Font.BOLD,14));
	domainAxis.setTickLabelFont(new Font("宋体",Font.BOLD,14));
	ValueAxis rangeAxis=plot.getRangeAxis();        
	rangeAxis.setLabelFont(new Font("黑体",Font.BOLD,15));          
	chart.getLegend().setItemFont(new Font("黑体", Font.BOLD, 15));          
	chart.getTitle().setFont(new Font("宋体",Font.BOLD,20));	
	frame = new ChartPanel(chart,true);
}

public CategoryDataset getDataSet() {
	DefaultCategoryDataset dataset = new DefaultCategoryDataset();
//		System.out.println(topList.size());
	for(int i=0;i<20;i++){
		dataset.addValue(topList.get(i).getValue(), topList.get(i).getKey(), topList.get(i).getKey());
	}
	return dataset;
}

section 4.神经网络的构建(未实现)

辛苦一晚上,想视图将构建神经网络功能植入代码,但很遗憾gephi-tookit没能够很好的实现,目前尚未实现。
可能是自己太过天真,想视图将所有的功能都用java语言实现,看到大家分门别类的工具使用顿时大悟,很遗憾时间不够没办法再进一步推进,其实大概也了解了Gephi工具的使用(获取“对象-目标-权重”数据后就可以生成神经网络图)。

Part 6.性能分析与改进

命令行 -i input.txt -o output.txt -n 20 -m 2 -w 0下的性能测试图

整体正常运行的代码覆盖如下,主要未执行的部分代码存在与commandline.java中,因为其中存在大部分对于异常处理的操作,当正常运行过程中并不会去访问。

Part 7.单元测试

进行了四组单元测试环节,三组针对命令行的不正确输入,一组针对正常运行的代码校验

String args[]={"-i","test.txt","-w","1","-o","output.txt","-n","1","-m","1"}; 

String args[]={"-i","test.txt","-w","1","-o","output.txt","-n","150","-m","2"}; 

String args[]={""}; 

String args[]={"-i","test.txt","-w","1","-o","output.txt","-n","10","-m","2"}; 

校验的测试文本如下,应检验,代码运行正常

0
Title: E-mbodied Question
Abstract: E-mbodied Question We present a new AI task

1
Title: Embodied Question Answ-ering
Abstract: Embodied Question We present a new AI task

这里仅test 4可正常运行,因为之前的三个test均未通过命令行的异常处理,在输出err信息后程序均进入中断,这里贴上test 4的结果

Part 8.贴出Github的代码签入记录

Part 9.遇到的代码模块异常或结对困难及解决方法

问题描述
  1. 命令行要求的限制问题:如何在第一时间处理掉非正常的操作
  2. 两部分文本整合生成详细信息的.csv过程中,存在部分无法匹配的情形
  3. 内部对于相关文本存在大量需要处理的情形
做过哪些尝试
  1. 增设判断,抛出异常信息后直接exit()中断程序的运行
  2. 增设文本的清洗统一化处理:对于title作于key的情形,统一进行.toLowerCase()操作,各项不合法符号化作分隔符,剩下的属于内容不匹配,即两处title仅部分内容相同的我姑且忽略(当然也可以进行模糊匹配,尽可能去配对映射)
  3. 设置flag标记符作为判断依据,方便多种情况的适应性问题
是否解决

除未能实现gephi-tookit的神经网络生成外,其余均解决

有何收获

需要纠正自己的编码习惯,养成一个自定义deadline的编码原则,在代码的可读性上还需要多下功夫,总体来说,自己在接触新鲜的事物的过程中及时编码很辛苦但是内心很满足。

Part 10.评价你的队友

总的来说,我的队友在任务执行过程中相当配合,遇到不会的问题时及时的反馈与沟通,通过交流加上查找大量资料从而解决问题,关于爬虫jsoup为什么没能够爬取到全部的内容,我也是在和他一起沟通查找资料的过程中了解到:

原来在默认设置下,jsoup最大获取的响应长度正好时1M。所以这个时候需要设置connection.maxBodySize(0)来得到不限响应长度的数据。参考博客链接

但同时存在的问题是需要提高下集中式的独立编码能力,一项任务尽可能在一定时间内完成交付

Part 11.学习进度条

第N周 新增代码(行) 累计代码(行) 本周学习耗时(小时) 累计学习耗时(小时) 重要成长
5 1000+ N 36 45 学习java数据图形化处理,了解部分数据处理
6 1000+ N 18 63 学习《构建之法》,加深单元测试的应用,补缺补漏
posted @ 2018-10-10 21:25  诀别、泪  阅读(236)  评论(2编辑  收藏  举报