虚拟机 Ubuntu -- Docker 三个linux 节点 :
单机版本 -- 跑代码
1:安装到 虚拟机的 Ubuntu 上
2: 安装到 Windows 上
-- 网络 linux命令 安装各种 配置环境变量
-- 报错 每个错误如何处理
环境变量
-
启动程序的路径表格
-
运行一个程序 -- 在当前所处的目录查找 有没有这个程序
-
去环境变量中查找有没有
Linux 单节点 :https://hadoop.apache.org/docs/stable/hadoop-project-dist/hadoop-common/SingleCluster.html
Windows单节点: https://cwiki.apache.org/confluence/display/HADOOP2/Hadoop2OnWindows
windows下安装:
1:-- 下载 jdk 1.8 -- 配置好 java环境变量
2:-- 下载hadoop 的源代码 -- 解压到一个目录下
3:Hadoop: D:\Hadoop\hadoop-3.2.2 然后配置-- / bin /sbin
windows下工具 https://github.com/steveloughran/winutils下载对应版本
将下载下来的bin目录 替换你的安装的bin目录
配置文件路径:
D:\Hadoop\hadoop-3.2.2\etc\hadoop
4:使用管理员启动cmd
- 先格式化HDFS - %HADOOP_PREFIX%\bin\ hdfs namenode -format
-
start-all 启动集群
-
stop-all 关闭集群
192.168.99.1 :8088 hadoop
3.0版本以上 : 9870 HDFS 2.0版本的 :50070
maven:
pom.xml:
<dependencies>
<dependency>
<groupId>org.apache.hadoop</groupId>
<artifactId>hadoop-client</artifactId>
<version>2.7.2</version>
</dependency>
</dependencies>
// 链接配置类
Configuration conf = new Configuration();
conf.set("fs.defaultFS", "hdfs://192.168.99.1:19000");
// 文件操作类 FileSystem
FileSystem fs = FileSystem.get(conf);
//本地文件上传到 hdfs
Path file = new Path("C:\vi.zip");
fs.copyFromLocalFile(file, new Path("/output5"));// 上传服务器的存储目录
fs.close();// 关闭流
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 无需6万激活码!GitHub神秘组织3小时极速复刻Manus,手把手教你使用OpenManus搭建本
· Manus爆火,是硬核还是营销?
· 终于写完轮子一部分:tcp代理 了,记录一下
· 别再用vector<bool>了!Google高级工程师:这可能是STL最大的设计失误
· 单元测试从入门到精通