摘要: 一、用Hive对爬虫大作业产生的文本文件(或者英文词频统计下载的英文长篇小说)词频统计。 1.启动hadoop 2.Hdfs上创建文件夹并查看 3.上传英文词频统计文本至hdfs 4.启动Hive 5.导入文件内容到表docs并查看 6.进行词频统计,结果放在表t_word_count里 7.查看统 阅读全文
posted @ 2018-05-21 12:25 191钟菲菲 阅读(1031) 评论(0) 推荐(0) 编辑
摘要: 通过hadoop上的hive完成WordCount 1.启动hadoop 2.Hdfs上创建文件夹 3.上传文件至hdfs 4.启动Hive 5.创建原始文档表 6.导入文件内容到表docs并查看 7.用HQL进行词频统计,结果放在表word_count里 8.查看统计结果 阅读全文
posted @ 2018-05-16 20:41 191钟菲菲 阅读(106) 评论(0) 推荐(0) 编辑
摘要: 1.选一个自己感兴趣的主题。 2.用python 编写爬虫程序,从网络上爬取相关主题的数据。 3.对爬了的数据进行文本分析,生成词云。 4.对文本分析结果进行解释说明。 5.写一篇完整的博客,描述上述实现过程、遇到的问题及解决办法、数据分析思想及结论。 6.最后提交爬取的全部数据、爬虫及数据分析源代 阅读全文
posted @ 2018-04-30 20:17 191钟菲菲 阅读(182) 评论(0) 推荐(0) 编辑
摘要: 编程实现以下指定功能,并利用Hadoop提供的Shell命令完成相同任务: ./bin/hdfs dfs -rm news.txt ./bin/hdfs dfs -ls input 向HDFS中上传任意文本文件,如果指定的文件在HDFS中已经存在,由用户指定是追加到原有文件末尾还是覆盖原有的文件; 阅读全文
posted @ 2018-04-25 20:31 191钟菲菲 阅读(903) 评论(0) 推荐(0) 编辑
摘要: 1. 将新闻的正文内容保存到文本文件。 2. 将新闻数据结构化为字典的列表: 单条新闻的详情-->字典news 一个列表页所有单条新闻汇总-->列表newsls.append(news) 所有列表页的所有新闻汇总列表newstotal.extend(newsls) 3. 安装pandas,用pand 阅读全文
posted @ 2018-04-12 18:01 191钟菲菲 阅读(156) 评论(0) 推荐(0) 编辑
摘要: 1.取出一个新闻列表页的全部新闻 包装成函数。 2.获取总的新闻篇数,算出新闻总页数。 3.获取全部新闻列表页的全部新闻详情。 运行结果: 4.找一个自己感兴趣的主题,进行数据爬取,并进行分词分析。不能与其它同学雷同。 阅读全文
posted @ 2018-04-11 21:51 191钟菲菲 阅读(112) 评论(0) 推荐(0) 编辑
摘要: 0.可以新建一个用于练习的html文件,在浏览器中打开。 1.利用requests.get(url)获取网页页面的html文件 import requests newsurl='http://news.gzcc.cn/html/xiaoyuanxinwen/' res = requests.get( 阅读全文
posted @ 2018-03-29 21:13 191钟菲菲 阅读(97) 评论(0) 推荐(0) 编辑
摘要: 运行结果: 阅读全文
posted @ 2018-03-28 21:53 191钟菲菲 阅读(152) 评论(0) 推荐(1) 编辑
摘要: 词频统计预处理 下载一首英文的歌词或文章 将所有,.?!’:等分隔符全部替换为空格 将所有大写转换为小写 生成单词列表 生成词频统计 排序 排除语法型词汇,代词、冠词、连词 输出词频最大TOP10 str='''Earthquake early warning detection is more effective for minor quakes than major ones. This ... 阅读全文
posted @ 2018-03-26 17:54 191钟菲菲 阅读(183) 评论(0) 推荐(1) 编辑
摘要: 1.字符串练习: http://news.gzcc.cn/html/2017/xiaoyuanxinwen_1027/8443.html 取得校园新闻的编号 方法一: 方法二: https://docs.python.org/3/library/turtle.html 产生python文档的网址 h 阅读全文
posted @ 2018-03-21 17:50 191钟菲菲 阅读(200) 评论(0) 推荐(1) 编辑