Hadoop综合大作业

1.用Hive对爬虫大作业产生的文本文件(或者英文词频统计下载的英文长篇小说)进行词频统计。

将小说利用vb共享文件夹传到虚拟机

启动hive

 

 将小说上传到hdfs

中间出现“Parent path is not a directory: /user/admini”错误,后将/user/hadoop文件夹重建后解决

将小说传到数据库

存到word_count表

查询结果

 

 2.用Hive对爬虫大作业产生的csv文件进行数据分析,写一篇博客描述你的分析过程和分析结果。

爬虫大作业产生CSV文件一览图:

csv生成时出现乱码,使用notepad++将其编码从UTF-8转换为UTF-8无BOM解决。

将文件从虚拟机共享文件夹中传过来并查看数据。

数据预处理

 

 

 

将处理后的txt文本上传到hdfs

 存到hive后查看

 

posted @   lawliet9  阅读(185)  评论(0编辑  收藏  举报
编辑推荐:
· Linux系列:如何用heaptrack跟踪.NET程序的非托管内存泄露
· 开发者必知的日志记录最佳实践
· SQL Server 2025 AI相关能力初探
· Linux系列:如何用 C#调用 C方法造成内存泄露
· AI与.NET技术实操系列(二):开始使用ML.NET
阅读排行:
· 被坑几百块钱后,我竟然真的恢复了删除的微信聊天记录!
· 【自荐】一款简洁、开源的在线白板工具 Drawnix
· 没有Manus邀请码?试试免邀请码的MGX或者开源的OpenManus吧
· 园子的第一款AI主题卫衣上架——"HELLO! HOW CAN I ASSIST YOU TODAY
· 无需6万激活码!GitHub神秘组织3小时极速复刻Manus,手把手教你使用OpenManus搭建本
点击右上角即可分享
微信分享提示