CentOS7使用集群同步脚本对文件同步分发
1.介绍
使用集群同步脚本对文件同步分发
2.操作
1)安装rsync
1 | [root@hadoop101 ~]$ yum install rsync |
2)在/root目录下创建bin目录,并在bin目录下创建文件xsync,文件内容如下:
[root@hadoop101 ~]$ mkdir bin [root@hadoop101 ~]$ cd bin/ [root@hadoop101 bin]$ vi xsync
在该文件中编写如下代码(其中第5步需要按自己集群情况配置分发范围)
#!/bin/bash #1 获取输入参数个数,如果没有参数,直接退出 pcount=$# if((pcount==0)); then echo no args; exit; fi #2 获取文件名称 p1=$1 fname=`basename $p1` echo fname=$fname #3 获取上级目录到绝对路径 pdir=`cd -P $(dirname $p1); pwd` echo pdir=$pdir #4 获取当前用户名称 user=`whoami` #5 循环 for((host=102; host<104; host++)); do echo ------------------- hadoop$host -------------- rsync -rvl $pdir/$fname $user@hadoop$host:$pdir done
3)修改脚本 xsync 具有执行权限
[root@hadoop101 bin]$ chmod 777 xsync
3.使用示例
1)将hadoop101中的JDK和环境变量分发到hadoop102、hadoop103两台主机
[root@hadoop101 opt]# xsync /opt/module/ [root@hadoop101 opt]# xsync /etc/profile
分别在hadoop102、hadoop103上source一下
[root@hadoop102 ~]$ source /etc/profile [root@hadoop103 ~]# source /etc/profile
2)同步/etc/selinux/config配置文件
[root@hadoop101 ~]# xsync /etc/selinux/config
重启hadoop101、hadoop102、hadoop103主机
[root@hadoop101 ~]# reboot [root@hadoop102 ~]# reboot [root@hadoop103 ~]# reboot
分类:
Centos7
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】凌霞软件回馈社区,博客园 & 1Panel & Halo 联合会员上线
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】博客园社区专享云产品让利特惠,阿里云新客6.5折上折
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 浏览器原生「磁吸」效果!Anchor Positioning 锚点定位神器解析
· 没有源码,如何修改代码逻辑?
· 一个奇形怪状的面试题:Bean中的CHM要不要加volatile?
· [.NET]调用本地 Deepseek 模型
· 一个费力不讨好的项目,让我损失了近一半的绩效!
· PowerShell开发游戏 · 打蜜蜂
· 在鹅厂做java开发是什么体验
· 百万级群聊的设计实践
· WPF到Web的无缝过渡:英雄联盟客户端的OpenSilver迁移实战
· 永远不要相信用户的输入:从 SQL 注入攻防看输入验证的重要性
2020-01-13 基于Nginx实现访问控制、连接限制
2020-01-13 Tomcat线程模型分析及源码解读