隶属于文章系列:大数据安全实战 https://www.jianshu.com/p/76627fd8399c
本文为ansible的最简单使用说明。
- 安装
- 配置
- 实用介绍
安装
sudo yum -y install ansible
配置
sudo vi /etc/ansible/hosts
[hadoop]
172.20.176.68
172.20.176.69
172.20.176.70
172.20.176.71
[test]
172.20.176.35
172.20.176.36
172.20.176.37
中括号内为其下面的一系列主机的整体代号,比如使用hadoop可以同时操作69到71四台主机。
- 配置ssh免密码登陆
ansible的批量操作是在特定用户下执行的。当前的登录用户需要能投免密码登陆到它要批量操作的所有主机。
否则: 需要使用 -k选项: --ask-pass,这样会提示输入ssh的密码,
使用
最简单的使用 : 检查主机连接
ansible hadoop -m ping
最常用最有用的使用
在运维中ansible的远程命令、分发文件模块可以覆盖几乎所有的使用场景。
-m 指定要使用的模块
-m shell : 批量执行命令
-m copy : 批量分发文件
-a 后引号之间的内容是具体的操作。
- 执行远程命令
设置环境变量
ansible hadoop -m shell -a "echo 'export SPARK_HOME=/home/kduser/spark/current'
- 分发文件
ansible hadoop -m copy -a ' src=~/Anaconda2-4.3.1-Linux-x86_64.sh dest=~/Anaconda2-4.3.1-Linux-x86_64.sh'
src :本地的源路径
dest:远程路径
注意:当要把/etc/hadoop 分发出去的时候:
scp一般这样操作,两者效果一样
scp -r /etc/hadoop hostname:/etc/
或者
scp -r /etc/hadoop hostname:/etc/hadoop
ansible在复制文件的时候:下面都符合要求
ansible hadoop -m copy -a ' src=~/etc/hadoop/hdfs-site.xml dest=/etc/hadoop/hdfs-site.xml'
ansible hadoop -m copy -a ' src=~/etc/hadoop/hdfs-site.xml dest=/etc/hadoop/'
但目录的复制,目的路径必须写到父目录,
ansible hadoop -m copy -a ' src=~/etc/hadoop dest=/etc/'
如果dest=/etc/hadoop 则回到生成/etc/hadoop/hadoop
使用进阶
当前用户需要用到root权限才能执行特定命令(比如yum命令),或者操作特定目录(比如/etc目录)。这时候--become选项可以自动sudo到root用户下执行。
例如:
- 执行没有权限的命令
ansible slave --become -m shell -a "rm -f -r /usr/local/testfolder"
- 复制到没有读src路径权限或者没有写入dest路径权限的情况
ansible all --become -m copy -a "src=/home/kduser/JDK8/US_export_policy.jar dest=/usr/java/jdk1.8.0_144/jre/lib/security/ "
注意:只用--become选项需要当前用户能够免密码sudo到root。当前用户需要输入密码才能sudo到root时,则需要-K 选项,提示输入sudo密码
网友评论