Hadoop综合大作业

作业来源:https://edu.cnblogs.com/campus/gzcc/GZCC-16SE1/homework/3363

Hadoop综合大作业 要求:

1.将爬虫大作业产生的csv文件上传到HDFS

2.对CSV文件进行预处理生成无标题文本文件

3.把hdfs中的文本文件最终导入到数据仓库Hive中

 

4.在Hive中查看并分析数据

5.用Hive对爬虫大作业产生的进行数据分析,写一篇博客描述你的分析过程和分析结果。(10条以上的查询分析)

(1)查询不重复id的评论数

(2)查询前十条信息的所属城市

(3)查询前二十条信息的评论时间

(4)查询评论次数最多的20个用户

(5)查询城市中评分为5分的数量最多的前20名

(6)查询城市中评低于3分的前20名

(7)查询评论数前20名的城市

(8)查询不重复昵称的评论数

(9)计算出表内一共有几条评论数据

(10)查看评论里各评分的评论数

 总结分析:在第一次上传文件到hive的时候发现并没有预想中的按列排序,后来把pre_deal.sh文件中默认的分列符改了之后就可以了。通过数据分析出来的结果,可以看出北京上海这些一些城市与观看评论的时间都比较靠前,而且评分也相对较高。通过对评论打分的数目分析也可以看出,打分4分以上的人数很多,占很大的比重,证明这也一部很精彩很受人喜欢的电影。

posted on 2019-06-19 21:19  3fufu  阅读(451)  评论(0编辑  收藏  举报