rsync与scp,分发同步

1. scpsecure copy)安全拷贝

1scp定义:

scp可以实现服务器与服务器之间的数据拷贝。from server1 to server2)

2)基本语法

scp    -r          $pdir/$fname              $user@hadoop$host:$pdir/$fname

命令   递归       要拷贝的文件路径/名称    目的用户@主机:目的路径/名称

(3)案例实操

a在hadoop101上,hadoop101/opt/module目录下的软件拷贝到hadoop102上。

[jing@hadoop101 /]$ scp -r /opt/module  root@hadoop102:/opt/module

b)在hadoop103上hadoop101服务器上的/opt/module目录下的软件拷贝到hadoop103上。

[jing@hadoop103 opt]$sudo scp -r jinghang@hadoop101:/opt/module root@hadoop103:/opt/module

c)在hadoop103上操作将hadoop101/opt/module目录下的软件拷贝到hadoop104上。

[jing@hadoop103 opt]$ scp -r jinghang@hadoop101:/opt/module root@hadoop104:/opt/module

注意:拷贝过来的/opt/module目录别忘了在hadoop102、hadoop103、hadoop104上修改所有文件的,所有者和所有者组。sudo chown jing:jing -R /opt/module

d)将hadoop101/etc/profile文件拷贝到hadoop102/etc/profile

[jing@hadoop101 ~]$ sudo scp /etc/profile root@hadoop102:/etc/profile

e)将hadoop101/etc/profile文件拷贝到hadoop103/etc/profile

[jing@hadoop101 ~]$ sudo scp /etc/profile root@hadoop103:/etc/profile

f)将hadoop101/etc/profile文件拷贝到hadoop104/etc/profile

[jing@hadoop101 ~]$ sudo scp /etc/profile root@hadoop104:/etc/profile

注意:拷贝过来的配置文件别忘了source一下/etc/profile

2.  rsync 远程同步工具

rsync主要用于备份和镜像。具有速度快、避免复制相同内容和支持符号链接的优点。

rsyncscp区别:rsync做文件的复制要比scp的速度快,rsync只对差异文件做更新。scp是把所有文件都复制过去。

1)基本语法

rsync    -av       $pdir/$fname              $user@hadoop$host:$pdir/$fname

命令   选项参数   要拷贝的文件路径/名称    目的用户@主机:目的路径/名称

  选项参数说明

2-2

选项

功能

-a

归档拷贝

-v

显示复制过程

 

 

2)案例实操

ahadoop101机器上的/opt/software目录同步到hadoop102服务器的root用户下的/opt/目录

[jing@hadoop101 opt]$ rsync -av /opt/softwarehadoop102:/opt/software

3. xsync集群分发脚本

1)需求:循环复制文件到所有节点的相同目录下

2需求分析:

arsync命令原始拷贝:

rsync  -av     /opt/module    root@hadoop103:/opt/

b)期望脚本:

xsync要同步的文件名称

c)说明:在/home/jing/bin这个目录下存放的脚本,jing用户可以在系统任何地方直接执行。

(3)脚本实现

a)在/home/jing目录下创建bin目录,并在bin目录下xsync创建文件,文件内容如下:

[jing@hadoop102 ~]$ mkdir bin

[jing@hadoop102 ~]$ cd bin/

[jing@hadoop102 bin]$ touch xsync

[jing@hadoop102 bin]$ vi xsync

该文件中编写如代码

#!/bin/bash

#1 获取输入参数个数,如果没有参数,直接退出

pcount=$#

if ((pcount==0)); then

echo no args;

exit;

fi

 

#2 获取文件名称

p1=$1

fname=`basename $p1`

echo fname=$fname

 

#3 获取上级目录到绝对路径

pdir=`cd -P $(dirname $p1); pwd`

echo pdir=$pdir

 

#4 获取当前用户名称

user=`whoami`

 

#5 循环

for((host=103; host<105; host++)); do

        echo ------------------- hadoop$host --------------

        rsync -av $pdir/$fname $user@hadoop$host:$pdir

done

b)修改脚本 xsync 具有执行权限

[jing@hadoop102 bin]$ chmod 777 xsync

c)调用脚本形式:xsync 文件名称

[jing@hadoop102 bin]$ xsync /home/jinghang/bin

注意:如果将xsync放到/home/jing/bin目录下仍然不能实现全局使用,可以将xsync移动/usr/local/bin目录下。

posted @ 2021-12-31 11:35  shan_zhayidian  阅读(66)  评论(0编辑  收藏  举报