Hadoop综合大作业

1.用Hive对爬虫大作业产生的文本文件(或者英文词频统计下载的英文长篇小说)进行词频统计。

将小说利用vb共享文件夹传到虚拟机

启动hive

 

 将小说上传到hdfs

中间出现“Parent path is not a directory: /user/admini”错误,后将/user/hadoop文件夹重建后解决

将小说传到数据库

存到word_count表

查询结果

 

 2.用Hive对爬虫大作业产生的csv文件进行数据分析,写一篇博客描述你的分析过程和分析结果。

爬虫大作业产生CSV文件一览图:

csv生成时出现乱码,使用notepad++将其编码从UTF-8转换为UTF-8无BOM解决。

将文件从虚拟机共享文件夹中传过来并查看数据。

数据预处理

 

 

 

将处理后的txt文本上传到hdfs

 存到hive后查看

 

posted @ 2018-05-24 23:05  lawliet9  阅读(184)  评论(0编辑  收藏  举报