摘要: 一、用Hive对爬虫大作业产生的文本文件(或者英文词频统计下载的英文长篇小说)词频统计。 1.启动hadoop 2.在Hdfs上创建文件夹并查看 3.把下载的英文小说novers.txt文件上传至hdfs 4.启动Hive 5.创建原始文档表,把文件内容导入到表fiction1中 6.进行词频统计, 阅读全文
posted @ 2018-05-25 21:24 188吴梅英 阅读(161) 评论(0) 推荐(0) 编辑
摘要: 通过hadoop上的hive完成WordCount 启动hadoop Hdfs上创建文件夹 上传文件至hdfs 启动Hive 创建原始文档表 导入文件内容到表docs并查看 用HQL进行词频统计,结果放在表word_count里 查看统计结果 阅读全文
posted @ 2018-05-16 21:20 188吴梅英 阅读(113) 评论(0) 推荐(0) 编辑
摘要: 1. 以下关系型数据库中的表和数据,要求将其转换为适合于HBase存储的表并插入数据: 学生表(Student)(不包括最后一列) 学号(S_No) 姓名(S_Name) 性别(S_Sex) 年龄(S_Age) 课程(course) 2015001 Zhangsan male 23 2015003 阅读全文
posted @ 2018-05-08 19:12 188吴梅英 阅读(195) 评论(0) 推荐(0) 编辑
摘要: 1.选一个自己感兴趣的主题。 2.用python 编写爬虫程序,从网络上爬取相关主题的数据。 3.对爬了的数据进行文本分析,生成词云。 4.对文本分析结果进行解释说明。 5.写一篇完整的博客,描述上述实现过程、遇到的问题及解决办法、数据分析思想及结论。 6.最后提交爬取的全部数据、爬虫及数据分析源代 阅读全文
posted @ 2018-04-30 21:41 188吴梅英 阅读(180) 评论(0) 推荐(0) 编辑
摘要: 编程实现以下指定功能,并利用Hadoop提供的Shell命令完成相同任务: 2. 在本地查看文件位置(ls) 3. 在本地显示文件内容 4. 使用命令把本地文件系统中的“txt”上传到HDFS中的当前用户目录的input目录下。 5. 查看hdfs中的文件(-ls) 6. 显示hdfs中该的文件内容 阅读全文
posted @ 2018-04-25 19:34 188吴梅英 阅读(159) 评论(0) 推荐(0) 编辑
摘要: 1. 将新闻的正文内容保存到文本文件。 2. 将新闻数据结构化为字典的列表: 单条新闻的详情-->字典news 一个列表页所有单条新闻汇总-->列表newsls.append(news) 所有列表页的所有新闻汇总列表newstotal.extend(newsls) 3. 安装pandas,用pand 阅读全文
posted @ 2018-04-12 14:01 188吴梅英 阅读(204) 评论(0) 推荐(0) 编辑
摘要: 1.取出一个新闻列表页的全部新闻 包装成函数。 2.获取总的新闻篇数,算出新闻总页数。 3.获取全部新闻列表页的全部新闻详情。 阅读全文
posted @ 2018-04-11 21:28 188吴梅英 阅读(128) 评论(0) 推荐(0) 编辑
摘要: 1. 用requests库和BeautifulSoup库,爬取校园新闻首页新闻的标题、链接、正文、show-info。 2. 分析info字符串,获取每篇新闻的发布时间,作者,来源,摄影等信息。 3. 将字符串格式的发布时间转换成datetime类型 4. 使用正则表达式取得新闻编号 5. 生成点击 阅读全文
posted @ 2018-04-04 16:05 188吴梅英 阅读(110) 评论(0) 推荐(0) 编辑
摘要: 0.可以新建一个用于练习的html文件,在浏览器中打开。 1.利用requests.get(url)获取网页页面的html文件 import requests newsurl='http://news.gzcc.cn/html/xiaoyuanxinwen/' res = requests.get( 阅读全文
posted @ 2018-03-29 21:12 188吴梅英 阅读(121) 评论(0) 推荐(0) 编辑
摘要: 下载一长篇中文文章。 从文件读取待分析文本。 news = open('gzccnews.txt','r',encoding = 'utf-8') 安装与使用jieba进行中文分词。 pip install jieba import jieba list(jieba.lcut(news)) 生成词频 阅读全文
posted @ 2018-03-28 16:56 188吴梅英 阅读(104) 评论(0) 推荐(0) 编辑