摘要: Hadoop综合大作业 要求: 1.用Hive对爬虫大作业产生的文本文件(或者英文词频统计下载的英文长篇小说)进行词频统计。 我下载的是一篇英文长篇小说《教父》,字数为个, 将文章(godfather.txt)放在了wc文件中: 启动hadoop: 文件上传至hdfs 启动hive 创建原始文档表 阅读全文
posted @ 2018-05-23 15:52 246王芷玲 阅读(132) 评论(0) 推荐(0) 编辑
摘要: 启动hadoop Hdfs上创建文件夹 上传文件至hdfs 先将文件放在wc文件夹中,我存放的是try.txt 然后文件上传到hdfs 启动Hive 创建原始文档表 导入文件内容到表docs并查看 用HQL进行词频统计,结果放在表word_count里 查看统计结果 阅读全文
posted @ 2018-05-17 00:16 246王芷玲 阅读(114) 评论(0) 推荐(0) 编辑
摘要: 用Python编写WordCount程序任务 程序 WordCount 输入 一个包含大量单词的文本文件 输出 文件中每个单词及其出现次数(频数),并按照单词字母顺序排序,每个单词和其频数占一行,单词和频数之间有间隔 1.编写map函数,reduce函数 首先在/home/hadoop路径下建立wc 阅读全文
posted @ 2018-05-10 23:23 246王芷玲 阅读(188) 评论(0) 推荐(0) 编辑
摘要: 先登录ssh,再启动hadoop 如果没有启动,分别用以下命令: ssh localhost cd /usr/local/hadoop ./sbin/start-dfs.sh jps 切换目录至/usr/local/hbase;再启动HBase cd /usr/local/hbase bin/sta 阅读全文
posted @ 2018-05-08 17:05 246王芷玲 阅读(275) 评论(0) 推荐(0) 编辑
摘要: 1.选一个自己感兴趣的主题(所有人不能雷同)。 2.用python 编写爬虫程序,从网络上爬取相关主题的数据。 3.对爬了的数据进行文本分析,生成词云。 4.对文本分析结果进行解释说明。 5.写一篇完整的博客,描述上述实现过程、遇到的问题及解决办法、数据分析思想及结论。 6.最后提交爬取的全部数据、 阅读全文
posted @ 2018-04-27 23:01 246王芷玲 阅读(1005) 评论(0) 推荐(0) 编辑
摘要: 一、Hadoop提供的Shell命令完成相同任务: 在本地Linux文件系统的“/home/hadoop/”目录下创建一个文件txt,里面可以随意输入一些单词. 在本地查看文件位置(ls) 在本地显示文件内容 使用命令把本地文件系统中的“txt”上传到HDFS中的当前用户目录的input目录下。 查 阅读全文
posted @ 2018-04-26 18:19 246王芷玲 阅读(239) 评论(0) 推荐(0) 编辑
摘要: 1. 将新闻的正文内容保存到文本文件。 2. 将新闻数据结构化为字典的列表: 单条新闻的详情-->字典news 一个列表页所有单条新闻汇总-->列表newsls.append(news) 所有列表页的所有新闻汇总列表newstotal.extend(newsls) 3. 安装pandas,用pand 阅读全文
posted @ 2018-04-17 20:25 246王芷玲 阅读(134) 评论(0) 推荐(0) 编辑
摘要: 学会使用正则表达式 1. 用正则表达式判定邮箱是否输入正确。 r='^(\w)+(\.\w+)*@(\w)+((\.\w{2,3}){1,3})$' e='wzl201506110246@123.com' if re.match(r,e): print(re.match(r,e).group(0)) 阅读全文
posted @ 2018-04-10 17:49 246王芷玲 阅读(149) 评论(0) 推荐(0) 编辑
摘要: 1. 用requests库和BeautifulSoup库,爬取校园新闻首页新闻的标题、链接、正文。 运行结果如图所示: 2. 分析字符串,获取每篇新闻的发布时间,作者,来源等信息。 运行结果如下: 3. 将其中的发布时间由str转换成datetime类型。 运行结果如图所示: 4. 将完整的代码及运 阅读全文
posted @ 2018-04-03 20:06 246王芷玲 阅读(144) 评论(0) 推荐(0) 编辑
摘要: 0.可以新建一个用于练习的html文件,在浏览器中打开。 1.利用requests.get(url)获取网页页面的html文件 import requests newsurl='http://news.gzcc.cn/html/xiaoyuanxinwen/' res = requests.get( 阅读全文
posted @ 2018-03-29 13:23 246王芷玲 阅读(143) 评论(0) 推荐(0) 编辑