美文网首页我爱编程
指标相关部署文档

指标相关部署文档

作者: 良辰夜 | 来源:发表于2018-05-22 14:40 被阅读0次
  1. common
  2. zookeeper
  3. hadoop
  4. hbase
  5. opentsdb
  6. 指标监控系统部署

common:

IP 角色
192.168.1.80 master
192.168.1.81 slave1
192.168.1.82 slave2

1.将上述映射 添加到host

$ vi /etc/hosts

2.ssh无密码登陆

1.生成秘钥
2.将公钥添加到每个host的authorized_keys

$ ssh-keygen -t rsa             
$ cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys 

$ scp authorized_keys master:/root/.ssh/
$ scp authorized_keys slave1:/root/.ssh/
$ scp authorized_keys slave2:/root/.ssh/

zookeeper

说明

存放相关数据目录:${zookeeper_data}
存放log日志目录:${zookeeper_log}
解压目录:${zookeeper_home}

1.下载,解压

2.配置

  1. 获取zoo.cfg
cd ${zookeeper_home}
cp zoo_sample.cfg zoo.cfg
  1. 修改zoo.cfg
dataDir=${zookeeper_data}
dataLogDir=${zookeeper_log}
clientPort=2181
//
server.0=master:2888:3888
server.1=slave1:2888:3888
server.2=slave2:2888:3888
  1. 新建myid 文件
vi ${zookeeper_data}/myid 
//写入数字x,该数字与配置文件中的server.x 有关,
//例如 本台服务器为master,则在myid中填入0即可

3.相关命令

  1. 启动
${zookeeper_home}/bin/zkServer.sh start 
  1. 查看状态
${zookeeper_home}/bin/zkServer.sh status
  1. bin/zkServer.sh stop
${zookeeper_home}/bin/zkServer.sh stop

hadoop

1.下载,解压

2.配置

  1. core-site.xml
<property>
        <name>hadoop.tmp.dir</name>
        <value>file://${hadoop_data}</value>
    </property>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://master:9000</value>
    </property>
  1. hdfs-site.xml
<configuration>
   <property>
        <name>dfs.name.dir</name>
        <value>${hadoop_data}/name</value>
    </property>
    <property>
        <name>dfs.data.dir</name>
        <value>${hadoop_data}/data</value>
    </property>
    <property>
        <name>dfs.replication</name>
        <value>3</value>
    </property>
</configuration>
  1. hadoop-env.sh
    添加java的软连接到sbin里面 或者
export JAVA_HOME=${java_home}
  1. 修改slaves文件
vi ${hadoop_home}/etc/hadoop/slaves
//--------
master
slave1
slave2
  1. 分发同步包(将整个hadoop安装目录都拷贝到所有slave服务器:)
 scp -r ${hadoop_home} slave1:${hadoop_home}
 scp -r ${hadoop_home} slave2r:${hadoop_home}

3.相关命令

  1. 启动
${hadoop_home}/sbin/start-all.sh
//
//第一次启动前,需要执行,以后不可以执行
${hadoop_home}/bin namenode -format
  1. 停止
${hadoop_home}/sbin/stop-all.sh

hbase

1.下载,解压

2.配置

  1. hbase-env.sh
export JAVA_HOME=${java_home}
export HBASE_CLASSPATH=${hadoop_home}
  1. hbase-site.xml
<property>
    <name>hbase.rootdir</name>
    <value>hdfs://master:9000/hbase</value>
</property>
  
  <property>
    <name>hbase.cluster.distributed</name>
    <value>true</value>
  </property>
  
 <property>
    <name>hbase.zookeeper.quorum</name>
   <value>master,slave1,slave2</value>
 </property>
 
 <property>
    <name>hbase.tmp.dir</name>
    <value>/software/tmp/hbase/tmp</value>
</property>
<!-- 开启web-->
<property>
  <name>hbase.master.info.port</name>
  <value>60010</value>
</property>
  1. 修改 regionservers
vi ${hbase_home}/conf/regionservers
//
master
slave1
slave2
  1. 分发同步包(将整个hbase安装目录都拷贝到所有slave服务器:)
 scp -r ${hbase_home} slave1:${hbase_home}
 scp -r ${hbase_home} slave2r:${hbase_home}

3.相关命令

  1. 启动
${hbase_home}/bin/start-hbase.sh
  1. 停止
${hbase_home}/bin/stop-hbase.sh

opentsdb

1.下载,安装

rpm -ivh xxx.rpm

2.配置

  1. 导入表到hbase
env COMPRESSION=NONE HBASE_HOME=${hbase_home} /usr/share/opentsdb/tools.create_table.sh
  1. 配置config
vi xxx

tsd.http.cachedir - 临时文件的路径
tsd.http.staticroot - 找到的静态GUI文件的路径./build/staticroot,后台管理用到
tsd.storage.hbase.zk_quorum - 如果HBase和Zookeeper未在同一台计算机上运行,请在此处指定主机和端口。

3.相关命令

  1. 启动
service opentsdb start
  1. 关闭
seervice opentsdb stop

指标监控系统部署

1.编译 打成jar包
mvn clean package

(打包前,需要自己修改配置参数)
2.运行
nohup java -jar xxxx.jar &

相关文章

网友评论

    本文标题:指标相关部署文档

    本文链接:https://www.haomeiwen.com/subject/huihjftx.html