会员
周边
众包
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
Heyuanz
博客园
首页
新随笔
联系
订阅
管理
06 2019 档案
Hadoop大作业
摘要:1.将爬虫大作业产生的csv文件上传到HDFS,选取的文件是hhh.csv,大约30000条数据 创建文件夹,导入hhh.csv文件并查看。并启动hadoop 将hhh.csv文件导入hdfs中 导入数据库hive中,创建数据库dbpy,创建表hhh_py,并查看前五行数据。 用select选取城市
阅读全文
posted @
2019-06-16 21:22
Heyuanz
阅读(210)
评论(0)
推荐(0)
编辑
公告