CentOS7使用集群同步脚本对文件同步分发

1.介绍

使用集群同步脚本对文件同步分发

2.操作

1)安装rsync

1
[root@hadoop101 ~]$ yum install rsync

2)在/root目录下创建bin目录,并在bin目录下创建文件xsync,文件内容如下:

[root@hadoop101 ~]$ mkdir bin
[root@hadoop101 ~]$ cd bin/
[root@hadoop101 bin]$ vi xsync

在该文件中编写如下代码(其中第5步需要按自己集群情况配置分发范围

复制代码
#!/bin/bash
#1 获取输入参数个数,如果没有参数,直接退出
pcount=$#
if((pcount==0)); then
echo no args;
exit;
fi

#2 获取文件名称
p1=$1
fname=`basename $p1`
echo fname=$fname

#3 获取上级目录到绝对路径
pdir=`cd -P $(dirname $p1); pwd`
echo pdir=$pdir

#4 获取当前用户名称
user=`whoami`

#5 循环
for((host=102; host<104; host++)); do
    echo ------------------- hadoop$host --------------
    rsync -rvl $pdir/$fname $user@hadoop$host:$pdir
done
复制代码

3)修改脚本 xsync 具有执行权限

[root@hadoop101 bin]$ chmod 777 xsync

3.使用示例

1)将hadoop101中的JDK和环境变量分发到hadoop102、hadoop103两台主机

[root@hadoop101 opt]# xsync /opt/module/
[root@hadoop101 opt]# xsync /etc/profile

分别在hadoop102、hadoop103上source一下

[root@hadoop102 ~]$ source /etc/profile
[root@hadoop103 ~]# source /etc/profile

2)同步/etc/selinux/config配置文件

[root@hadoop101 ~]# xsync /etc/selinux/config

重启hadoop101、hadoop102、hadoop103主机

[root@hadoop101 ~]# reboot
[root@hadoop102 ~]# reboot
[root@hadoop103 ~]# reboot

posted on   uestc2007  阅读(411)  评论(0编辑  收藏  举报

编辑推荐:
· 浏览器原生「磁吸」效果!Anchor Positioning 锚点定位神器解析
· 没有源码,如何修改代码逻辑?
· 一个奇形怪状的面试题:Bean中的CHM要不要加volatile?
· [.NET]调用本地 Deepseek 模型
· 一个费力不讨好的项目,让我损失了近一半的绩效!
阅读排行:
· PowerShell开发游戏 · 打蜜蜂
· 在鹅厂做java开发是什么体验
· 百万级群聊的设计实践
· WPF到Web的无缝过渡:英雄联盟客户端的OpenSilver迁移实战
· 永远不要相信用户的输入:从 SQL 注入攻防看输入验证的重要性
历史上的今天:
2020-01-13 基于Nginx实现访问控制、连接限制
2020-01-13 Tomcat线程模型分析及源码解读

导航

< 2025年2月 >
26 27 28 29 30 31 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 1
2 3 4 5 6 7 8
点击右上角即可分享
微信分享提示