会员
周边
众包
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
RE148
博客园
首页
新随笔
联系
订阅
管理
2018年5月25日
Hadoop综合大作业
摘要: 一、用Hive对爬虫大作业产生的文本文件(或者英文词频统计下载的英文长篇小说)词频统计。 1、启动hadoop 2、上传英文词频统计文本至hdfs 3、启动hive 4、导入文件内容到表novel并查看 5、用HQL进行词频统计,结果放在表k_word_count里 6、查看统计结果 二、用Hive
阅读全文
posted @ 2018-05-25 21:42 148崔格畅
阅读(117)
评论(0)
推荐(0)
编辑
2018年5月16日
hive基本操作与应用
摘要: 通过hadoop上的hive完成WordCount 启动hadoop Hdfs上创建文件夹 上传文件至hdfs 启动Hive 创建原始文档表 导入文件内容到表docs并查看 用HQL进行词频统计,结果放在表word_count里 查看统计结果
阅读全文
posted @ 2018-05-16 16:56 148崔格畅
阅读(99)
评论(0)
推荐(0)
编辑
2018年5月9日
用mapreduce 处理气象数据集
摘要: 编写程序求每日最高最低气温,区间最高最低气温 2.按学号后三位下载不同年份月份的数据(例如201506110136号同学,就下载2013年以6开头的数据,看具体数据情况稍有变通)
阅读全文
posted @ 2018-05-09 21:29 148崔格畅
阅读(228)
评论(0)
推荐(0)
编辑
2018年5月7日
熟悉常用的HBase操作,编写MapReduce作业
摘要: 1. 以下关系型数据库中的表和数据,要求将其转换为适合于HBase存储的表并插入数据: 学生表(Student)(不包括最后一列) 学号(S_No) 姓名(S_Name) 性别(S_Sex) 年龄(S_Age) 课程(course) 2015001 Zhangsan male 23 2015003
阅读全文
posted @ 2018-05-07 23:22 148崔格畅
阅读(592)
评论(0)
推荐(0)
编辑
2018年4月29日
爬虫大作业
摘要: 1.选一个自己感兴趣的主题。 2.用python 编写爬虫程序,从网络上爬取相关主题的数据。 3.对爬了的数据进行文本分析,生成词云。 4.对文本分析结果进行解释说明。 5.写一篇完整的博客,描述上述实现过程、遇到的问题及解决办法、数据分析思想及结论。 6.最后提交爬取的全部数据、爬虫及数据分析源代
阅读全文
posted @ 2018-04-29 22:55 148崔格畅
阅读(190)
评论(0)
推荐(0)
编辑
2018年4月25日
熟悉常用的HDFS操作
摘要: 1.编程实现以下指定功能,并利用Hadoop提供的Shell命令完成相同任务: 1.在本地Linux文件系统的“/home/hadoop/”目录下创建一个文件txt,里面可以随意输入一些单词. 2.在本地查看文件位置(ls) 3.在本地显示文件内容 4.使用命令把本地文件系统中的“txt”上传到HD
阅读全文
posted @ 2018-04-25 17:42 148崔格畅
阅读(215)
评论(0)
推荐(0)
编辑
2018年4月12日
数据结构化与保存
摘要: 作业是转载同学的,因为没有对新闻信息做提取,所有无法添加新闻信息到字典。已练习pandas库的相关使用方法,导出excel文件。ps:自己的代码会尽快修改!
阅读全文
posted @ 2018-04-12 21:30 148崔格畅
阅读(110)
评论(0)
推荐(0)
编辑
2018年4月11日
获取全部校园新闻
摘要: import requests from bs4 import BeautifulSoup from datetime import datetime import re def get_soup(url): req = requests.get(url) req.encoding = 'utf-8' soup = BeautifulSoup(req.text, 'htm...
阅读全文
posted @ 2018-04-11 14:58 148崔格畅
阅读(174)
评论(0)
推荐(0)
编辑
2018年4月4日
爬取校园新闻首页的新闻的详情,使用正则表达式,函数抽离
摘要: 1. 用requests库和BeautifulSoup库,爬取校园新闻首页新闻的标题、链接、正文、show-info。 2. 分析info字符串,获取每篇新闻的发布时间,作者,来源,摄影等信息。 运行结果
阅读全文
posted @ 2018-04-04 15:28 148崔格畅
阅读(117)
评论(0)
推荐(0)
编辑
2018年3月28日
网络爬虫基础
摘要: 0.可以新建一个用于练习的html文件,在浏览器中打开。 1.利用requests.get(url)获取网页页面的html文件 import requests newsurl='http://news.gzcc.cn/html/xiaoyuanxinwen/' res = requests.get(
阅读全文
posted @ 2018-03-28 21:57 148崔格畅
阅读(148)
评论(0)
推荐(0)
编辑
下一页
点击右上角即可分享