摘要:
默认使用的竟然是2.7好烦如何解决呢 配置环境变量就行了 vi ~/.bashrc 添加一句话 export PATH=/home/hadoop/app/python3/bin:$PATH 保存退出 使环境变量生效 source ~/.bashrc... 阅读全文
摘要:
去官网下载安装包放到~/software/ 下 1更新软件库 sudo apt-get update 2安装相应的开发库 sudo apt-get install zlib1g-dev libbz2-dev libssl-dev libncurses5-d... 阅读全文
摘要:
简单查询分析 select brand_id from user_log limit 10; -- 查看日志前10数据 好像也没啥,和SQL相同,,limit取前多少条 , as取别名 查询条数统计分析 count()聚合函数 select count(*)... 阅读全文
摘要:
1.外部表 关键字:EXTERNAL 外部表创建时需要指定LOCATION 删除外部表时,数据不被删除 CREATE EXTERNAL TABLE page_view(viewTime INT, userid BIGINT, page_url ST... 阅读全文
摘要:
和sql十分类似简单计一下 1、 启动hive 因为需要借助于MySQL保存Hive的元数据,所以,请首先启动MySQL数据库 service mysql start # 可以在Linux的任何目录下执行该命令 由于Hive是基于Hadoop的数据仓库,使用H... 阅读全文
摘要:
1、目录操作 hdfs dfs [命令] [命令] 等价于 hadoop fs [] [] 1 ./bin/hdfs dfs -mkdir -p /user/hadoop 基本操作在hadoop目录bin中h... 阅读全文