会员
周边
众包
新闻
博问
闪存
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
懒得、起昵称
博客园
首页
新随笔
新文章
联系
管理
订阅
1
2
3
下一页
2018年5月25日
Hadoop综合大作业
摘要: 1.用Hive对爬虫大作业产生的文本文件(或者英文词频统计下载的英文长篇小说)进行词频统计。 2.用Hive对爬虫大作业产生的csv文件进行数据分析,写一篇博客描述你的分析过程和分析结果。
阅读全文
posted @ 2018-05-25 16:11 Runka
阅读(82)
评论(0)
推荐(0)
编辑
2018年5月17日
hive基本操作与应用
摘要: 通过hadoop上的hive完成WordCount 启动hadoop Hdfs上创建文件夹 上传文件至hdfs 启动Hive 创建原始文档表 导入文件内容到表docs并查看 用HQL进行词频统计,结果放在表word_count里 查看统计结果
阅读全文
posted @ 2018-05-17 13:20 Runka
阅读(111)
评论(0)
推荐(0)
编辑
2018年5月11日
理解MapReduce计算构架
摘要: 用Python编写WordCount程序任务 程序 WordCount 输入 一个包含大量单词的文本文件 输出 文件中每个单词及其出现次数(频数),并按照单词字母顺序排序,每个单词和其频数占一行,单词和频数之间有间隔
阅读全文
posted @ 2018-05-11 21:26 Runka
阅读(98)
评论(0)
推荐(0)
编辑
2018年5月8日
Hbase练习
摘要: 1. 以下关系型数据库中的表和数据,要求将其转换为适合于HBase存储的表并插入数据: 学生表(Student)(不包括最后一列) 学号(S_No) 姓名(S_Name) 性别(S_Sex) 年龄(S_Age) 课程(course) 2015001 Zhangsan male 23 2015003
阅读全文
posted @ 2018-05-08 17:39 Runka
阅读(184)
评论(0)
推荐(0)
编辑
2018年4月27日
爬虫大作业
摘要: 我爬取的是新浪新闻,打开网页链接http://news.sina.com.cn/china/: 打开网页获取需要的链接:,然后开始做项目。 1,获取评论数: 2 获取新闻内容: 3 保存为txt: 得到txt文本: 4 词频分析并生成词云: 得到词云图片: 在做大作业的过程中,遇到的主要问题还是在安
阅读全文
posted @ 2018-04-27 19:10 Runka
阅读(390)
评论(0)
推荐(0)
编辑
2018年4月26日
第三章 熟悉常用的HDFS操作
摘要: 一、Hadoop提供的Shell命令完成相同任务: 二、
阅读全文
posted @ 2018-04-26 18:30 Runka
阅读(251)
评论(0)
推荐(0)
编辑
2018年4月17日
数据结构化与保存
摘要: import requests from bs4 import BeautifulSoup from datetime import datetime import re import pandas #获取点击次数 def getClickCount(newsUrl): newsId = re.findall('\_(.*).html', newsUrl)[0].split('/'...
阅读全文
posted @ 2018-04-17 22:07 Runka
阅读(111)
评论(0)
推荐(0)
编辑
2018年4月10日
使用正则表达式
摘要: #判断邮箱格式 import re mail = '^(\w)+(\.\w+)*@(\w)+((\.\w{2,3}){1,3})$' myMail = '45612563@qq.com' if re.match(mail, myMail): print(re.match(mail, myMail).group(0)) else: print('error') #用正则...
阅读全文
posted @ 2018-04-10 17:41 Runka
阅读(197)
评论(0)
推荐(0)
编辑
2018年4月3日
爬取校园新闻首页的新闻
摘要: import requestsfrom bs4 import BeautifulSoupfrom datetime import datetimeres=requests.get('http://news.gzcc.cn/html/xiaoyuanxinwen/')res.encoding='utf-8'soup=BeautifulSoup(res.text,'html.parser')for ...
阅读全文
posted @ 2018-04-03 15:55 Runka
阅读(134)
评论(0)
推荐(0)
编辑
2018年3月29日
网络爬虫基础教程
摘要: 0.可以新建一个用于练习的html文件,在浏览器中打开。 1.利用requests.get(url)获取网页页面的html文件 import requests newsurl='http://news.gzcc.cn/html/xiaoyuanxinwen/' res = requests.get(
阅读全文
posted @ 2018-03-29 16:38 Runka
阅读(205)
评论(0)
推荐(0)
编辑
1
2
3
下一页
公告