摘要: 1.用Hive对爬虫大作业产生的文本文件(或者英文词频统计下载的英文长篇小说)进行词频统计。 先启动dfs 上传下载的英文小说 创建表world 进行HQL词频统计,将结果放到word_count中 查找表的前二十条记录 2.用Hive对爬虫大作业产生的csv文件进行数据分析,写一篇博客描述你的分析 阅读全文
posted @ 2018-05-24 23:02 227温立恒 阅读(102) 评论(0) 推荐(0) 编辑
摘要: 通过hadoop上的hive完成WordCount 启动hadoop Hdfs上创建文件夹 上传文件至hdfs 启动Hive 创建原始文档表 导入文件内容到表docs并查看 用HQL进行词频统计,结果放在表word_count里 查看统计结果 阅读全文
posted @ 2018-05-16 22:14 227温立恒 阅读(72) 评论(0) 推荐(0) 编辑
摘要: 1. 以下关系型数据库中的表和数据,要求将其转换为适合于HBase存储的表并插入数据: 学生表(Student)(不包括最后一列) 学号(S_No) 姓名(S_Name) 性别(S_Sex) 年龄(S_Age) 课程(course) 2015001 Zhangsan male 23 2015003 阅读全文
posted @ 2018-05-10 18:47 227温立恒 阅读(82) 评论(0) 推荐(0) 编辑
摘要: 1.主题 爬取小说网站的《全职高手》小说第一章 2.代码 导入包 取出所需要的标题和正文 定义一个获取所有章节 url的函数 去掉句子中多余的部分 将数据放入txt文本文件 读取要生成词云的文件和生成形状的图片 进行分隔 设置词云生成图片的样式 显示词云生成的图片 3.数据截图 4.遇到的问题及解决 阅读全文
posted @ 2018-04-30 16:14 227温立恒 阅读(281) 评论(0) 推荐(0) 编辑
摘要: 一、Hadoop提供的Shell命令完成相同任务: 阅读全文
posted @ 2018-04-27 14:36 227温立恒 阅读(101) 评论(0) 推荐(0) 编辑
摘要: 1. 将新闻的正文内容保存到文本文件。 import requests from bs4 import BeautifulSoup url = "http://news.gzcc.cn/html/xiaoyuanxinwen/" res = requests.get(url) res.encodin 阅读全文
posted @ 2018-04-18 15:56 227温立恒 阅读(131) 评论(0) 推荐(0) 编辑
摘要: 学会使用正则表达式 1. 用正则表达式判定邮箱是否输入正确。 2. 用正则表达式识别出全部电话号码。 3. 用正则表达式进行英文分词。re.split('',news) 4. 使用正则表达式取得新闻编号 5. 生成点击次数的Request URL 6. 获取点击次数 7. 将456步骤定义成一个函数 阅读全文
posted @ 2018-04-11 14:40 227温立恒 阅读(143) 评论(0) 推荐(0) 编辑
摘要: 学会使用正则表达式 1. 用正则表达式判定邮箱是否输入正确。 2. 用正则表达式识别出全部电话号码。 3. 用正则表达式进行英文分词。re.split('',news) 4. 使用正则表达式取得新闻编号 5. 生成点击次数的Request URL 6. 获取点击次数 7. 将456步骤定义成一个函数 阅读全文
posted @ 2018-04-10 17:49 227温立恒 阅读(89) 评论(0) 推荐(0) 编辑
摘要: 0.可以新建一个用于练习的html文件,在浏览器中打开。 0.可以新建一个用于练习的html文件,在浏览器中打开。 1.利用requests.get(url)获取网页页面的html文件 import requests newsurl='http://news.gzcc.cn/html/xiaoyua 阅读全文
posted @ 2018-03-29 22:34 227温立恒 阅读(130) 评论(0) 推荐(0) 编辑
摘要: 英文词频统计 英文词频统计 下载一首英文的歌词或文章 将所有,.?!’:等分隔符全部替换为空格 将所有大写转换为小写 sep = ''',.'?!;:'"'''; for i in sep: worldSet = news.replace(i,' '); worldSet= news.lower() 阅读全文
posted @ 2018-03-27 19:13 227温立恒 阅读(116) 评论(0) 推荐(0) 编辑