摘要: Hadoop综合大作业 要求: 1.用Hive对爬虫大作业产生的文本文件(或者英文词频统计下载的英文长篇小说)进行词频统计。 我下载了英文长篇小说《The Souls of Black Folk》,全文69100个单词,下载完更改名字为Black.txt方便操作。 start-all.sh Hdfs 阅读全文
posted @ 2018-05-23 20:09 245陈蔓嘉 阅读(141) 评论(0) 推荐(0) 编辑
摘要: 通过hadoop上的hive完成WordCount 启动hadoop start-all.sh Hdfs上创建文件夹 hdfs dfs -mkdir songinput hdfs dfs -ls /user/hadoop 上传文件至hdfs: 下载歌词songs.txt保存在~/hadoop里,查询 阅读全文
posted @ 2018-05-16 03:31 245陈蔓嘉 阅读(119) 评论(0) 推荐(0) 编辑
摘要: 用Python编写WordCount程序任务 程序 WordCount 输入 一个包含大量单词的文本文件 输出 文件中每个单词及其出现次数(频数),并按照单词字母顺序排序,每个单词和其频数占一行,单词和频数之间有间隔 编写map函数,reduce函数 将其权限作出相应修改 本机上测试运行代码 放到H 阅读全文
posted @ 2018-05-11 03:40 245陈蔓嘉 阅读(90) 评论(0) 推荐(0) 编辑
摘要: 1. 以下关系型数据库中的表和数据,要求将其转换为适合于HBase存储的表并插入数据: 学生表(Student)(不包括最后一列) 学号(S_No) 姓名(S_Name) 性别(S_Sex) 年龄(S_Age) 课程(course) 2015001 Zhangsan male 23 2015003 阅读全文
posted @ 2018-05-08 16:09 245陈蔓嘉 阅读(105) 评论(0) 推荐(0) 编辑
摘要: 1.选一个自己感兴趣的主题(所有人不能雷同)。 2.用python 编写爬虫程序,从网络上爬取相关主题的数据。 3.对爬了的数据进行文本分析,生成词云。 4.对文本分析结果进行解释说明。 5.写一篇完整的博客,描述上述实现过程、遇到的问题及解决办法、数据分析思想及结论。 这次大作业选的主题是豆丁网的 阅读全文
posted @ 2018-04-28 06:54 245陈蔓嘉 阅读(765) 评论(0) 推荐(0) 编辑
摘要: 一、Hadoop提供的Shell命令完成相同任务: 在本地Linux文件系统的“/home/hadoop/”目录下创建一个文件txt,里面可以随意输入一些单词. mkdir hadoop cd hadoop ~/hadoop$ touch test.txt ~/hadoop$ gedit test. 阅读全文
posted @ 2018-04-26 16:45 245陈蔓嘉 阅读(176) 评论(0) 推荐(0) 编辑
摘要: 1. 将新闻的正文内容保存到文本文件。 def writeNewsDetail(content): f = open('gzccNews.txt','a',encoding='utf-8') f.write(content) f.close() 2. 将新闻数据结构化为字典的列表: 单条新闻的详情- 阅读全文
posted @ 2018-04-18 00:13 245陈蔓嘉 阅读(178) 评论(0) 推荐(0) 编辑
摘要: 学会使用正则表达式 1. 用正则表达式判定邮箱是否输入正确。 对:错: 2. 用正则表达式识别出全部电话号码。 3. 用正则表达式进行英文分词。re.split('',news) 4. 使用正则表达式取得新闻编号 5. 生成点击次数的Request URL 6. 获取点击次数 7. 将456步骤定义 阅读全文
posted @ 2018-04-11 21:40 245陈蔓嘉 阅读(161) 评论(0) 推荐(0) 编辑
摘要: 1. 用requests库和BeautifulSoup库,爬取校园新闻首页新闻的标题、链接、正文。 2. 分析字符串,获取每篇新闻的发布时间,作者,来源,摄影等信息。 3. 将其中的发布时间由str转换成datetime类型。 4. 将完整的代码及运行结果截图发布在作业上。 阅读全文
posted @ 2018-04-04 01:11 245陈蔓嘉 阅读(200) 评论(0) 推荐(0) 编辑
摘要: 0.可以新建一个用于练习的html文件,在浏览器中打开。 1.利用requests.get(url)获取网页页面的html文件 import requests newsurl='http://news.gzcc.cn/html/xiaoyuanxinwen/' res = requests.get( 阅读全文
posted @ 2018-03-30 01:25 245陈蔓嘉 阅读(216) 评论(0) 推荐(0) 编辑