Hadoop 2.9单机安装配置
安装过程可参考网络文章: https://www.cnblogs.com/defineconst/p/10828899.html
本机内存资源不够的情况使用虚拟内存:
刚安装的服务器一开始默认貌似是没有swap空间的,如果不确定的话,可以通过下面的命令来查看自己的服务器的swap分区的情况:
free -m
因为我的系统的内存是1G,所以准备做个2G的Swap空间。
在网上找了一些增加swap的步骤,发现阿里云的用户遇到过类似的问题,参考URL:https://yq.aliyun.com/ziliao/5443
下面是我执行的步骤(我使用的是root用户,当然如果你有sudo权限的话,也可以):
-
在 / 目录下建立swap 目录
mkdir /swap -
使用dd命令生成一个空文件,因为我准备建立一个2G的swap空间,所以我准备把空文件设置为2G
cd /swap/
dd if =/dev/zero of=swap.img bs=1M count=2048M -
接下来使用mkswap 命令把这个空文件格式化为swap格式
mkswap swap.img -
激活swap
swapon swap.img -
再次使用free -m 命令查看swap分区信息,可以发现已经配置成功
-
目前虽然已经配置好了缓存分区,但是我们的服务器重启之后会失去缓存分区,需要重新挂在,所以需要设置为开机就自动挂载
到/etc/fstab 中添加下面的内容:
/swap/swap.img swap swap defaults 0 0
启动hadoop时总是提示输入密码解决办法:
生成秘钥:如果本地环境有则不需要
ssh-keygen -t rsa
实现本地登录免密码登录,因为搭建的时候,我们做了对其他主机的免密码登录,但是本地ssh连接本地没有
所以,讲本地的公钥导入私钥就可以
cat /root/.ssh/id_rsa.pub >> /root/.ssh/authorized_keys
————————————
参考文章:
https://blog.csdn.net/dwl764457208/article/details/55252228
https://blog.csdn.net/shikenian520/article/details/79896639