六云

  博客园  :: 首页  :: 新随笔  :: 联系 :: 订阅 订阅  :: 管理

2018年5月25日

摘要: 1.用Hive对爬虫大作业产生的文本文件(或者英文词频统计下载的英文长篇小说)词频统计。 首先开启相关的程序,hadoop、hbase 使用hdfs命令把下载的英文长篇小说复制进hdfs文件夹中 然后打开hive命令行将hdfs中的长篇小说加入数据表 然后查看数据表中的数据 然后使用相关的命令进行词 阅读全文
posted @ 2018-05-25 17:27 流XC 阅读(145) 评论(0) 推荐(0) 编辑

2018年5月16日

摘要: 通过hadoop上的hive完成WordCount 启动hadoop Hdfs上创建文件夹 上传文件至hdfs 启动Hive 创建原始文档表 导入文件内容到表docs并查看 用HQL进行词频统计,结果放在表word_count里 查看统计结果 阅读全文
posted @ 2018-05-16 18:26 流XC 阅读(160) 评论(0) 推荐(0) 编辑

2018年5月9日

摘要: 用mapreduce 处理气象数据集 编写程序求每日最高最低气温,区间最高最低气温 阅读全文
posted @ 2018-05-09 21:58 流XC 阅读(126) 评论(0) 推荐(0) 编辑

2018年5月8日

摘要: 1. 以下关系型数据库中的表和数据,要求将其转换为适合于HBase存储的表并插入数据: 学生表(Student)(不包括最后一列) 学号(S_No) 姓名(S_Name) 性别(S_Sex) 年龄(S_Age) 课程(course) 2015001 Zhangsan male 23 2015003 阅读全文
posted @ 2018-05-08 21:53 流XC 阅读(129) 评论(0) 推荐(0) 编辑

2018年4月30日

摘要: 因为一直无法下载python中wordcloud的相关文件,于是便使用了网上词云的生成器。网址是:https://timdream.org/wordcloud 运行效果图: 此次爬取的是一个关于区块链的新闻内容,通过使用python爬取新闻页面的内容,然后使用网上的词云生成器生成词。 阅读全文
posted @ 2018-04-30 16:22 流XC 阅读(234) 评论(0) 推荐(0) 编辑

2018年4月25日

摘要: 编程实现以下指定功能,并利用Hadoop提供的Shell命令完成相同任务: 1、在本地Linux文件系统的“/home/hadoop/”目录下创建一个文件txt,里面可以随意输入一些单词. 2、在本地查看文件位置(ls) 3、在本地显示文件内容 4、使用命令把本地文件系统中的“txt”上传到HDFS 阅读全文
posted @ 2018-04-25 19:40 流XC 阅读(297) 评论(0) 推荐(0) 编辑

2018年4月12日

摘要: 1. 将新闻的正文内容保存到文本文件。 2. 将新闻数据结构化为字典的列表: 单条新闻的详情-->字典news 一个列表页所有单条新闻汇总-->列表newsls.append(news) 所有列表页的所有新闻汇总列表newstotal.extend(newsls) 3. 安装pandas,用pand 阅读全文
posted @ 2018-04-12 19:49 流XC 阅读(191) 评论(0) 推荐(0) 编辑

2018年4月11日

摘要: 1.取出一个新闻列表页的全部新闻 包装成函数。 2.获取总的新闻篇数,算出新闻总页数。 3.获取全部新闻列表页的全部新闻详情。 此处有个疑问,最后的for循环中,如果改为(2,n)则只输出某一列表页中的新闻,但是换成(1,n)则显示所有列表中的所有新闻 4.找一个自己感兴趣的主题,进行数据爬取,并进 阅读全文
posted @ 2018-04-11 21:06 流XC 阅读(174) 评论(0) 推荐(0) 编辑

2018年4月4日

摘要: 1. 用requests库和BeautifulSoup库,爬取校园新闻首页新闻的标题、链接、正文、show-info。 2. 分析info字符串,获取每篇新闻的发布时间,作者,来源,摄影等信息。 3. 将字符串格式的发布时间转换成datetime类型 4. 使用正则表达式取得新闻编号 5. 生成点击 阅读全文
posted @ 2018-04-04 16:07 流XC 阅读(208) 评论(0) 推荐(0) 编辑

2018年3月29日

摘要: 0.可以新建一个用于练习的html文件,在浏览器中打开。 1.利用requests.get(url)获取网页页面的html文件 import requests newsurl='http://news.gzcc.cn/html/xiaoyuanxinwen/' res = requests.get( 阅读全文
posted @ 2018-03-29 21:15 流XC 阅读(522) 评论(0) 推荐(0) 编辑