1.用Hive对爬虫大作业产生的文本文件(或者英文词频统计下载的英文长篇小说)进行词频统计。

(1)我下载了英文小说《追风筝的人》,改成story.txt,来进行操作

首先,启动hadoop

Hdfs上创建文件夹

上传文件到HDFS

启动hive

在story数据库建表storydocs,

导入文件内容到storydocs并查看

select * from storydocs;

用HQL进行词频统计,结果放在表storydocs_count里

 

查看统计结果(截图为部分截图)

 2.用Hive对爬虫大作业产生的csv文件进行数据分析,写一篇博客描述你的分析过程和分析结果。

1.将大数据产生的csv文件改名new.csv,存到虚拟机,然后上传到hdfs 并查看前十条数据

 

 

 2.启动hive,启动hive,建new数据库,建表格big_data,把wordcount.csv里的数据导进该表并查询前10条记录

 结论:数据能够进行正常的数据统计分析。

问题:由于编码问题,导致上传到hdfs的csv文件是乱码,尚未找到解决办法