Hadoop伪分布式部署
1.解压Hadoop安装包
cd ...... 进入软件包所在文件夹
ls 查看文件夹下所有文件
tar -zxvf hadoop...... 解压Hadoop的jar包
2.配置hadoop文件
cd /......(Hadoop安装所在目录)/etc/hadoop 进入配置文件所在目录下
vim hadoop-env.sh 设置Hadoop的JAVA_HOME
export JAVA_HOME=/......(本机Java的安装目录)
vim core-site.xml 设置common组件的属性
<property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property> <property> <name>hadoop.tmp.dir</name> <value>/simple/hadoop-2.7.3/tmp</value> </property>
vim hdfs-site.xml 设置HDFS组件的属性
<property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.name.dir</name> <value>/simple/hadoop-2.7.3/hdfs/name</value> </property> <property> <name>dfs.data.dir</name> <value>/simple/hadoop-2.7.3/hdfs/data</value> </property>
mv mapred-site.xml template mapred-site.xml 修改文件的命名
vm mapred.xml 设置map-reduce组件的属性
<property> <name>mapreduce.framework.name</name> <value>yarn</value> </property>
vim yarn-site.xml 设置yarn组件的属性
<property> <name>yarn.resourcemanager.hostname</name> <value>localhost</value> </property> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property>
vim /etc/profile 配置环境变量
source /etc/profile 使配置文件生效
hdfs namesode -format 格式化namenode
cd ~/.ssh 设置本机免密
ssh-keygen -t rsa 默认在~/.ssh/目录下生成id_rsa:私钥、id_rsa.pub:公钥
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys 将公钥导入到认证文件
start-hdfs.sh 开启hdfs
start-yarn.sh 开启yarn
jps 验证进程是否正常启动
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· winform 绘制太阳,地球,月球 运作规律
· 超详细:普通电脑也行Windows部署deepseek R1训练数据并当服务器共享给他人
· TypeScript + Deepseek 打造卜卦网站:技术与玄学的结合
· AI 智能体引爆开源社区「GitHub 热点速览」
· 写一个简单的SQL生成工具