美文网首页
linux 文件分发 数据拷贝 scp rsync

linux 文件分发 数据拷贝 scp rsync

作者: 无来无去_A | 来源:发表于2020-07-26 23:10 被阅读0次

    1. scp(secure copy)安全拷贝

    (1)scp定义:
    scp可以实现服务器与服务器之间的数据拷贝。(from server1 to server2)
    (2)基本语法
    scp -r pdir/fname user@hadoophost:pdir/fname
    命令 递归 要拷贝的文件路径/名称 目的用户@主机:目的路径/名称
    (3)案例实操
    (a)在hadoop101上,将hadoop101中/opt/module目录下的软件拷贝到hadoop102上。

    [atguigu@hadoop101 /]$ scp -r /opt/module  root@hadoop102:/opt/module
    

    (b)在hadoop103上,将hadoop101服务器上的/opt/module目录下的软件拷贝到hadoop103上。

    [atguigu@hadoop103 opt]$sudo scp -r atguigu@hadoop101:/opt/module root@hadoop103:/opt/module
    

    (c)在hadoop103上操作将hadoop101中/opt/module目录下的软件拷贝到hadoop104上。

    [atguigu@hadoop103 opt]$ scp -r atguigu@hadoop101:/opt/module root@hadoop104:/opt/module
    

    注意:拷贝过来的/opt/module目录,别忘了在hadoop102、hadoop103、hadoop104上修改所有文件的,所有者和所有者组。sudo chown atguigu:atguigu -R /opt/module

    (d)将hadoop101中/etc/profile文件拷贝到hadoop102的/etc/profile上。

    [atguigu@hadoop101 ~]$ sudo scp /etc/profile root@hadoop102:/etc/profile
    

    (e)将hadoop101中/etc/profile文件拷贝到hadoop103的/etc/profile上。

    [atguigu@hadoop101 ~]$ sudo scp /etc/profile root@hadoop103:/etc/profile
    

    (f)将hadoop101中/etc/profile文件拷贝到hadoop104的/etc/profile上。

    [atguigu@hadoop101 ~]$ sudo scp /etc/profile root@hadoop104:/etc/profile
    

    注意:拷贝过来的配置文件别忘了source一下/etc/profile,。

    2. rsync 远程同步工具

    rsync主要用于备份和镜像。具有速度快、避免复制相同内容和支持符号链接的优点。
    rsync和scp区别:用rsync做文件的复制要比scp的速度快,rsync只对差异文件做更新。scp是把所有文件都复制过去。
    (1)基本语法

    rsync    -av       $pdir/$fname              $user@hadoop$host:$pdir/$fname
    

    命令 选项参数 要拷贝的文件路径/名称 目的用户@主机:目的路径/名称
    选项参数说明

    选项 功能
    -a 归档拷贝
    -v 显示复制过程

    2)案例实操
    (a)把hadoop101机器上的/opt/software目录同步到hadoop102服务器的root用户下的/opt/目录

    [atguigu@hadoop101 opt]$ rsync -av /opt/software/ hadoop102:/opt/software
    

    3. xsync集群分发脚本

    在hadoop102 , hadoop103 , hadoop104 数据拷贝脚本案例:
    创建 xsync.sh 文件

    #!/bin/bash
    #1. 判断参数个数
    if [ $# -lt 1 ]
    then
      echo Not Enough Arguement!
      exit;
    fi
    #2. 遍历集群所有机器
    for host in hadoop102 hadoop103 hadoop104
    do
      echo ====================  $host  ====================
      #3. 遍历所有目录,挨个发送
      for file in $@
      do
        #4 判断文件是否存在
        if [ -e $file ]
        then
          #5. 获取父目录
          pdir=$(cd -P $(dirname $file); pwd)
          #6. 获取当前文件的名称
          fname=$(basename $file)
          ssh $host "mkdir -p $pdir"
          rsync -av $pdir/$fname $host:$pdir
        else
          echo $file does not exists!
        fi
      done
    done
    
    

    修改脚本 xsync 具有执行权限
    chmod +x xsync.sh

    相关文章

      网友评论

          本文标题:linux 文件分发 数据拷贝 scp rsync

          本文链接:https://www.haomeiwen.com/subject/wpcnlktx.html