福大软工1816 · 第五次作业 - 结对作业2

软工实践-第五次作业-结对作业2

程晓宏

李翔

github

具体分工如下:

  • 晓宏:爬取论文信息,爬虫实现的代码,程序测试环节,附加功能
  • 李翔:命令行自定义参数,加权统计,词组统计,词频统计的功能代码

PSP表格

PSP Personal Software Process Stages 预估耗时(分钟) 实际耗时(分钟)
Planning 计划 60 90
· Estimate · 估计这个任务需要多少时间 20 20
Development 开发 400 160
· Analysis · 需求分析 (包括学习新技术) 480 540
· Design Spec · 生成设计文档 180 60
· Design Review · 设计复审 60 120
· Coding Standard · 代码规范 (为目前的开发制定合适的规范) 60 100
· Design · 具体设计 100 90
· Coding · 具体编码 300 210
· Code Review · 代码复审 60 180
· Test · 测试(自我测试,修改代码,提交修改) 120 120
Reporting 报告 30 20
· Test Repor · 测试报告 20 80
· Size Measurement · 计算工作量 15 15
· Postmortem & Process Improvement Plan · 事后总结, 并提出过程改进计划 40 60
|       | 	合计  |1945 |1765

解题思路描述和设计实现说明

爬虫使用

  • 最开始使用的爬虫工具是八爪鱼,简单上手快。但是爬的好慢,而且结果是导入到Excel文件中。还要对Excel文件进行处理,最终经过漫长的手动排版(吐血),完成了论文爬取。
  • 八爪鱼爬取论文截图
  • 到学校之后,经过舍友的点拨,在他们推荐下了解使用Java用jsoup包进行爬取,在学习jsoup以及HTML知识之后,参考网络上的爬虫代码,编写了Java爬取论文代码:
  • Java爬虫代码
package cpvrpaper;

import java.io.BufferedWriter;
import java.io.File;
import java.io.FileWriter;
import java.io.IOException;

import org.jsoup.Jsoup;
import org.jsoup.nodes.Document;
import org.jsoup.nodes.Element;
import org.jsoup.select.Elements;

public class CpvrPaper {

	public static void getContent(String URL)
	{
		try 
		{
			File file = new File("C:\\Users\\Administrator\\Desktop\\课程\\软件工程\\result1.txt");
			BufferedWriter bi = new BufferedWriter(new FileWriter(file));
			Document document1 = Jsoup.connect(URL)
					.maxBodySize(0)
					.timeout(600000)
					.get();
			Elements element3 = document1.select("[class=ptitle]");
			Elements hrefs = element3.select("a[href]");
			long count = 0;
			for(Element element6:hrefs)
			{
				String url = element6.absUrl("href");
				Document document2 = Jsoup.connect(url)
						.maxBodySize(0)
						.timeout(600000)
						.get();
				Elements elements1 = document2.select("[id=papertitle]");
				String title = elements1.text();
				bi.write(count+"\r\n");
				bi.write("Title: "+title+"\r\n");
				Elements elements2 = document2.select("[id=abstract]");
				String abstract1 = elements2.text();
				bi.write("Abstract: "+abstract1+"\r\n"+"\r\n"+"\r\n");
				count++;
			}
			bi.close();
		}catch(Exception e)
		{
			e.printStackTrace();
		}
	}
	public static void main(String[] args) throws IOException
	{
		String url = "http://openaccess.thecvf.com/CVPR2018.py";
		getContent(url);
	}
}

代码组织和内部实现设计

类设计和程序框架如图

算法关键及流程图

最主要的三个函数

  • count1()——字符数和行数统计
    大致思路和作业一相同,略微做一些调整

  • count2()——带权值的词频统计
    增加了权值判断部分,标记sg用来标记当前单词所属哪一度分

  • count3()——词组频率统计
    思路:逐行读取,将每个单词分开存储到字符串数组中,然后按照所需长度将其取出,合并成词组,再进行统计。

附加题设计与展示

  • 在改进了Java代码之后,增加了对作者和PDF下载链接的爬取,结果展示如下,详见GitHub result2.txt

  • 为了直观的看到CVPR论文热点词汇,利用Python生成了热点词汇词云,结果展示如下

  • 代码如下:
import wordcloud
from scipy.misc import imread
f = open("test.txt","r",encoding="utf-8")
mask = imread("D:\PCcode\羊.jpg")
t = f.read()
f.close()
w = wordcloud.WordCloud(width = 1000, height = 700 , background_color= "white",stopwords={"based","human","using","well","given","ale",\
   "work","loss","the","for","in","of","with","by","in","and","to","on","are","from","as","is","which","we","that","this","two","it","one","can",\
    "both","an","these","be","all","or","over","make" ,"such","while","use","also" },mask= mask)
w.generate(t)

w.to_file("cvprwordcloud5.png")

关键代码解释

  • 自定义参数部分代码:通过赋值,形成类似开关的功能,将参数传入函数,调用需要的功能。
	for (i = 0; i < nt; i++)
	{
		if ((**(argv + i)) == '-')
		{
			switch (*(*(argv + i) + 1))
			{
			case 'i':
				in.open(argv[i + 1]);
				break;
			case 'o':
				out.open(argv[i + 1]);
				break;
			case 'w': 
				if (argv[i + 1] == "1")
					weight = 1;
				else
					weight = 0;
				break;
			case 'n':  
				sscanf_s(argv[i + 1], "%d", &topn);
				break;
			case 'm':  
				sscanf_s(argv[i + 1], "%d", &cpw);
				break;
			}
		}
	}
  • 权重判断部分:设置sg,当读到Title时为1,说明这时读到的单词都是属于Title中的,当读到Abstract时为2,说明这以后读到的单词都是摘要里的。
if (stemp == "Title")
{
	sg = 1;
}
if (stemp == "Abstract")
{
	sg = 2;
}

// 只展示出部分代码
if (sg == 1)
{
	My.insert(unordered_map<string, int>::value_type(stemp, 10));
}
if (sg == 2)
{
	My.insert(unordered_map<string, int>::value_type(stemp, 1));
}
  • 自定义词组长度统计:这一部分因为没有想到更好的办法了就只能暴力了。思路是逐行读取文本,将每个单词分开存储到字符串数组中,然后按照自定义词组长度将其取出,合并成词组,再进行统计。
while (ss >> stemp)
{
    strarr[strnum] = stemp;//将每一行的单词逐个存入字符串数组中
	strnum++;
}
for (int i = 0; i < strnum - cpw + 1; i++) //遍历strarr,每cpw个单词合并
{
	cpwtp = "";
	for (int j = 0; j < cpw; j++)
	{
		cpwtp += strarr[i + j];
		if (j != cpw - 1)
			cpwtp += ' ';
	}
	unordered_map<string, int>::iterator it = My3.find(cpwtp);
	if (it == My3.end())
	{
		My3.insert(unordered_map<string, int>::value_type(cpwtp, 1));
	}
	else
	{
		My3[cpwtp]++;
	}
	for (int z = 0; z < 10000; z++)
		strarr[z].clear();//清空
}

性能分析和改进

改进思路

  • 在整个文本处理过程,最消费时间的就是单词或数组的存入和查询了。对于这一点,采用unordered_map容器进行存储。虽然空间复杂度大,但是时间复杂度低,当对大文本进行处理时,能节省更多的时间
  • 对于词组统计方面,因为才用了二重循环,如果一次读入的单词量太多的话也会消耗大量的时间。这一点就有待改进了。

展示性能分析图和程序中消耗最大的函数

有权重统计时,排序功能函数占了最主要的性能

在进行词组统计时,毫无疑问词组的划分和统计占用了绝对的资源

单元测试

  • 在单元测试时,没有在代码编程时就介入编写单元测试用例,导致了函数与单元测试的分离,单元测试编写时有一定困难。
  • 编写了十个用例,分别测试了- w参数权重测试,- n 参数 自定义输出测试,- m 词组测试,字数测试,词数测试,行数测试,空白文档测试
  • 部分代码:
TEST_CLASS(UnitTest1)
	{
	public:

		TEST_METHOD(LineCounttest1)
		{
			char f[] = "C://Users//Administrator//source//repos//wordcount//Debug//input.txt";
			ifstream in;
			in.open(f);
			WordCount wfc;
			wfc.count1(in);
			Assert::IsTrue(wfc.numLines == 12);
		}

		TEST_METHOD(CharCounttest1)
		{
			char f[] = "C://Users//Administrator//source//repos//wordcount//Debug//input.txt";
			ifstream in;
			in.open(f);
			WordCount wfc;
			wfc.count1(in);
			Assert::IsTrue(wfc.numChar == 2977);
		}

		TEST_METHOD(WordCounttest1)
		{
			char f[] = "C://Users//Administrator//source//repos//wordcount//Debug//input.txt";
			ifstream in;
			int w = 0;
			in.open(f);
			WordCount wfc;
			wfc.count1(in);
			Assert::IsTrue(wfc.numWords == 281);
		}
  • 截图

GitHub的代签入记录

遇到的代码模块异常或结对困难及解决办法

  • 结对过程中没有实现规定好代码规范,源码的注释不够详细

问题描述

  • 问题1:结对过程中没有实现规定好代码规范,源码的注释不够详细,编码与测试分离
  • 问题2:使用爬虫工具爬取速度慢,数据处理耗费时间,没有找到一款可以符合要求成品爬虫工具
  • 问题3:英文人名分词不熟练,对文本的处理能力太弱

尝试和结果

  • 针对问题1,在测试的时候,真的很痛苦,首先要理解代码,但是队友给的注释太少了,理解代码花了很久时间,最终还是靠沟通完成,再写单元测试的时候,因为编码和测试的分离,导致了函数的编写没有面对测试单元,函数接口不明显,这给测试带来了很大的麻烦。导致测试不是很全面,只能针对部分功能进行测试。
  • 针对问题2,没有学习爬虫相关知识时,只在网上找了几款爬虫工具,但是效果都不怎么好,最后选择了八爪鱼作为爬虫工具,但是爬取速度太慢,爬了快3个小时,导出数据时不能自定义输出格式。对爬出后的Excel表格还要导出到txt进行数据处理!!天啊,我当时居然傻傻的人工排版,900多条,排到吐血。之后舍友给我介绍了jsoup包让我对照着网络上的爬虫样例学习,刚开始学习爬虫时很吃力,很多不懂,还要学习HTML的相关知识,在写爬虫时,舍友给了我很多帮助,感谢感谢(给你们加鸡腿)。最后用Java实现了爬虫爬取。
  • 针对问题3,最初在考虑拓展功能实现时,有想到用Python的jieba库和wordcloud库进行相关可视化处理。之后发现了一款很有用的可视化工具gephi。这工具真的很强大,本来想把爬取出来的作者信息进行关联度处理,但是之前是做中文分词和中文人物的关系图,到了英文人名,处理就出了问题,想法实现不了,只能作罢。

收获

  • 终于写出了单元测试!!!!! 太感动了,第一次个人作业时单元测试老是出问题,只能手动测试,这次终于写了出来。
  • 学习了爬虫的相关知识,对爬虫有了一些了解,数据处理能力真的太重要了!!!!特别是当数据量很大的时候,有一项拿得出手的数据处理技术真的重要。
  • 对Python复习了一下,还了解了一款强大的数据可视化处理软件gephi,在以后可以利用这款软件做一些酷炫的图。

评价队友

  • 队友很好,因为他负责功能模块编写,也是很辛苦,在测试时发现问题跟他反馈,都会认真听取意见并改正。在项目后期总结的时候也尽职尽责,很棒~两个人合作算是很愉快的。

学习进度条

第N周 新增代码(行) 累计代码(行) 本周学习耗时(小时) 累计学习耗时(小时) 重要成长
1 200 200 13 13 C++基础复习,VS熟悉
2 0 200 10 23 墨刀使用,axure rp8熟悉,了解原型
3,4 300 500 12 25 了解爬虫,了解测试工作,Python复习,gephi的初级使用
posted @ 2018-10-10 18:10  Yasin_cxh  阅读(213)  评论(0编辑  收藏  举报