摘要: Hive对爬虫大作业产生的文本文件(或者英文词频统计下载的英文长篇小说)进行词频统计。 Hive对爬虫大作业产生的csv文件进行数据分析,写一篇博客描述你的分析过程和分析结果。 由于我的爬虫大作业是中文的,所以我下载了一篇英文小说(哈利波特1-7章,共58000行数据)来进行词频统计分析。 首先启动 阅读全文
posted @ 2018-05-21 17:46 风丶轻轻 阅读(226) 评论(0) 推荐(0) 编辑
摘要: 通过hadoop上的hive完成WordCount 启动hadoop Hdfs上创建文件夹 上传文件至hdfs 先从自己本机使用WinSCP把文件放在linux文件夹中 然后上传到hdfs 启动Hive 创建原始文档表 导入文件内容到表docs并查看 导入操作 查看操作 用HQL进行词频统计,结果放 阅读全文
posted @ 2018-05-15 22:00 风丶轻轻 阅读(118) 评论(0) 推荐(0) 编辑
摘要: 用Python编写WordCount程序任务 程序 WordCount 输入 一个包含大量单词的文本文件 输出 文件中每个单词及其出现次数(频数),并按照单词字母顺序排序,每个单词和其频数占一行,单词和频数之间有间隔 1.编写map函数,reduce函数 首先先创建文件 然后编写两个函数 2.将其权 阅读全文
posted @ 2018-05-10 12:36 风丶轻轻 阅读(106) 评论(0) 推荐(0) 编辑
摘要: 1. 以下关系型数据库中的表和数据,要求将其转换为适合于HBase存储的表并插入数据: 学生表(Student)(不包括最后一列) 学号(S_No) 姓名(S_Name) 性别(S_Sex) 年龄(S_Age) 课程(course) 2015001 Zhangsan male 23 2015003 阅读全文
posted @ 2018-05-08 16:27 风丶轻轻 阅读(189) 评论(0) 推荐(0) 编辑
摘要: 一、Hadoop提供的Shell命令完成相同任务: 4.使用命令把本地文件系统中的“txt”上传到HDFS中的当前用户目录的input目录下。 5.查看hdfs中的文件(-ls) 6.显示hdfs中该的文件内容 7.删除本地的txt文件并查看目录 8.从hdfs中将txt下载地本地原来的位置。 9. 阅读全文
posted @ 2018-04-26 09:50 风丶轻轻 阅读(247) 评论(0) 推荐(0) 编辑
摘要: 数据来源: 我爬取的数据是博客园首页的新闻信息,选择的原因是因为博客园是开发者经常使用的博客网站,里面发布的信息当然是最前沿的信息,通过爬取博客园的新闻,我可以了解到IT行业最新的信息。 实现过程: 首先进入一个新闻的页面,通过观察,编写一个获取当页需要的信息的函数 其中要来将读取的新闻详情信息保存 阅读全文
posted @ 2018-04-22 11:49 风丶轻轻 阅读(607) 评论(0) 推荐(0) 编辑
摘要: 1. 将新闻的正文内容保存到文本文件。 2. 将新闻数据结构化为字典的列表: 单条新闻的详情-->字典news 一个列表页所有单条新闻汇总-->列表newsls.append(news) 所有列表页的所有新闻汇总列表newstotal.extend(newsls) 3. 安装pandas,用pand 阅读全文
posted @ 2018-04-17 19:57 风丶轻轻 阅读(141) 评论(0) 推荐(0) 编辑
摘要: 1. 用正则表达式判定邮箱是否输入正确。 2. 用正则表达式识别出全部电话号码。 3. 用正则表达式进行英文分词。re.split('',news) 4. 使用正则表达式取得新闻编号 5. 生成点击次数的Request URL 6. 获取点击次数 7. 将456步骤定义成一个函数 def getCl 阅读全文
posted @ 2018-04-10 17:50 风丶轻轻 阅读(173) 评论(0) 推荐(0) 编辑
摘要: 1. 用requests库和BeautifulSoup库,爬取校园新闻首页新闻的标题、链接、正文。 运行结果图: 2. 分析字符串,获取每篇新闻的发布时间,作者,来源,摄影等信息。 运行结果图: 3. 将其中的发布时间由str转换成datetime类型。 运行结果图: 4. 将完整的代码及运行结果截 阅读全文
posted @ 2018-04-03 22:15 风丶轻轻 阅读(276) 评论(0) 推荐(0) 编辑
摘要: 1.利用requests.get(url)获取网页页面的html文件 代码: 运行结果图: 2.利用BeautifulSoup的HTML解析器,生成结构树 代码: 3.找出特定标签的html元素 代码: 4.取得含有特定CSS属性的元素 5.练习: 取出h1标签的文本 取出a标签的链接 取出所有li 阅读全文
posted @ 2018-03-29 18:26 风丶轻轻 阅读(157) 评论(0) 推荐(0) 编辑