摘要:
1.用Hive对英文长篇小说进行词频统计。 利用WinSCP 英语长篇小说文本文件放于 /home/hadoop/wc 目录下: 启动hadoop: 上传到hdfs/data文件中 启动Hive 在hive数据库创建表 world: 导入文本world.txt并查看: 用HQL进行词频统计并保持到表 阅读全文
摘要:
通过hadoop上的hive完成WordCount 启动hadoop Hdfs上创建文件夹 上传文件至hdfs 准备文件song.txt: 上传到hdfs/data文件中 启动Hive 创建原始文档表 导入文件内容到表docs并查看 导入: 查看: 用HQL进行词频统计,结果放在表word_coun 阅读全文
摘要:
用Python编写WordCount程序任务 程序 WordCount 输入 一个包含大量单词的文本文件 输出 文件中每个单词及其出现次数(频数),并按照单词字母顺序排序,每个单词和其频数占一行,单词和频数之间有间隔 编写map函数,reduce函数 map函数: reduce函数: 将其权限作出相 阅读全文
摘要:
1. 以下关系型数据库中的表和数据,要求将其转换为适合于HBase存储的表并插入数据: 学生表(Student)(不包括最后一列) 学号(S_No) 姓名(S_Name) 性别(S_Sex) 年龄(S_Age) 课程(course) 2015001 Zhangsan male 23 2015003 阅读全文
摘要:
一、Hadoop提供的Shell命令完成相同任务: 在本地Linux文件系统的“/home/hadoop/”目录下创建一个文件txt,里面可以随意输入一些单词. 在本地查看文件位置(ls) 在本地显示文件内容 使用命令把本地文件系统中的“txt”上传到HDFS中的当前用户目录的input目录下。 查 阅读全文
摘要:
一、主题 : 爬取博客园博问上160页每页25条帖子标题,利用jieba分词生成词云进行分析 二、python爬取数据 博问主页:https://q.cnblogs.com/list/unsolved?page=1 第二页:https://q.cnblogs.com/list/unsolved?pa 阅读全文
摘要:
1. 将新闻的正文内容保存到文本文件。 2. 将新闻数据结构化为字典的列表: 单条新闻的详情-->字典news 一个列表页所有单条新闻汇总-->列表newsls.append(news) 所有列表页的所有新闻汇总列表newstotal.extend(newsls) 3. 安装pandas,用pand 阅读全文
摘要:
学会使用正则表达式 import requestsimport match import re newsurl = 'http://news.gzcc.cn/html/xiaoyuanxinwen/' res = requests.get(newsurl) res.encoding = 'utf-8 阅读全文
摘要:
1. 用requests库和BeautifulSoup库,爬取校园新闻首页新闻的标题、链接、正文。 2. 分析字符串,获取每篇新闻的发布时间,作者,来源,摄影等信息。 3. 将其中的发布时间由str转换成datetime类型。 阅读全文
摘要:
练习: 新建一个用于练习的html文件,在浏览器中打开。 利用requests.get(url)获取网页页面的html文件 利用BeautifulSoup的HTML解析器,生成结构树 取出h1标签的文本 取出a标签的链接 取出所有li标签的所有内容 取出一条新闻的标题、链接、发布时间、来源 标题: 阅读全文