- common
- zookeeper
- hadoop
- hbase
- opentsdb
- 指标监控系统部署
common:
IP 角色
192.168.1.80 master
192.168.1.81 slave1
192.168.1.82 slave2
1.将上述映射 添加到host
$ vi /etc/hosts
2.ssh无密码登陆
1.生成秘钥
2.将公钥添加到每个host的authorized_keys
$ ssh-keygen -t rsa
$ cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
$ scp authorized_keys master:/root/.ssh/
$ scp authorized_keys slave1:/root/.ssh/
$ scp authorized_keys slave2:/root/.ssh/
zookeeper
说明
存放相关数据目录:${zookeeper_data}
存放log日志目录:${zookeeper_log}
解压目录:${zookeeper_home}
1.下载,解压
2.配置
- 获取zoo.cfg
cd ${zookeeper_home}
cp zoo_sample.cfg zoo.cfg
- 修改zoo.cfg
dataDir=${zookeeper_data}
dataLogDir=${zookeeper_log}
clientPort=2181
//
server.0=master:2888:3888
server.1=slave1:2888:3888
server.2=slave2:2888:3888
- 新建myid 文件
vi ${zookeeper_data}/myid
//写入数字x,该数字与配置文件中的server.x 有关,
//例如 本台服务器为master,则在myid中填入0即可
3.相关命令
- 启动
${zookeeper_home}/bin/zkServer.sh start
- 查看状态
${zookeeper_home}/bin/zkServer.sh status
- bin/zkServer.sh stop
${zookeeper_home}/bin/zkServer.sh stop
hadoop
1.下载,解压
2.配置
- core-site.xml
<property>
<name>hadoop.tmp.dir</name>
<value>file://${hadoop_data}</value>
</property>
<property>
<name>fs.defaultFS</name>
<value>hdfs://master:9000</value>
</property>
- hdfs-site.xml
<configuration>
<property>
<name>dfs.name.dir</name>
<value>${hadoop_data}/name</value>
</property>
<property>
<name>dfs.data.dir</name>
<value>${hadoop_data}/data</value>
</property>
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
</configuration>
- hadoop-env.sh
添加java的软连接到sbin里面 或者
export JAVA_HOME=${java_home}
- 修改slaves文件
vi ${hadoop_home}/etc/hadoop/slaves
//--------
master
slave1
slave2
- 分发同步包(将整个hadoop安装目录都拷贝到所有slave服务器:)
scp -r ${hadoop_home} slave1:${hadoop_home}
scp -r ${hadoop_home} slave2r:${hadoop_home}
3.相关命令
- 启动
${hadoop_home}/sbin/start-all.sh
//
//第一次启动前,需要执行,以后不可以执行
${hadoop_home}/bin namenode -format
- 停止
${hadoop_home}/sbin/stop-all.sh
hbase
1.下载,解压
2.配置
- hbase-env.sh
export JAVA_HOME=${java_home}
export HBASE_CLASSPATH=${hadoop_home}
- hbase-site.xml
<property>
<name>hbase.rootdir</name>
<value>hdfs://master:9000/hbase</value>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>master,slave1,slave2</value>
</property>
<property>
<name>hbase.tmp.dir</name>
<value>/software/tmp/hbase/tmp</value>
</property>
<!-- 开启web-->
<property>
<name>hbase.master.info.port</name>
<value>60010</value>
</property>
- 修改 regionservers
vi ${hbase_home}/conf/regionservers
//
master
slave1
slave2
- 分发同步包(将整个hbase安装目录都拷贝到所有slave服务器:)
scp -r ${hbase_home} slave1:${hbase_home}
scp -r ${hbase_home} slave2r:${hbase_home}
3.相关命令
- 启动
${hbase_home}/bin/start-hbase.sh
- 停止
${hbase_home}/bin/stop-hbase.sh
opentsdb
1.下载,安装
rpm -ivh xxx.rpm
2.配置
- 导入表到hbase
env COMPRESSION=NONE HBASE_HOME=${hbase_home} /usr/share/opentsdb/tools.create_table.sh
- 配置config
vi xxx
tsd.http.cachedir - 临时文件的路径
tsd.http.staticroot - 找到的静态GUI文件的路径./build/staticroot,后台管理用到
tsd.storage.hbase.zk_quorum - 如果HBase和Zookeeper未在同一台计算机上运行,请在此处指定主机和端口。
3.相关命令
- 启动
service opentsdb start
- 关闭
seervice opentsdb stop
指标监控系统部署
1.编译 打成jar包
mvn clean package
(打包前,需要自己修改配置参数)
2.运行
nohup java -jar xxxx.jar &
网友评论