Hadoop学习1

作者: 坚持做自己 | 来源:发表于2018-03-20 20:01 被阅读0次

    1、大数据时代背景

    移动互联、社交网络、电子商务导致各种数据迅速膨胀并变大。

    1 PB = 1,024 TB = 1,048,576 GB =1,125,899,906,842,624 Bytes 

    1 EB = 1,024 PB = 1,048,576 TB = 1,152,921,504,606,846,976 Bytes 

    1 ZB = 1,024 EB = 1,180,591,620,717,411,303,424 Bytes 

    1 YB = 1,024 ZB = 1,208,925,819,614,629,174,706,176 Bytes 

    数据能为我们带来什么?------商业价值

    海量数据如何处理?------Hadoop

    MapReduce------并行计算框架

    BigTable------join耗费资源,列式存储

    创建者:Doug Cutting   棕黄色的大象

    Hadoop安装:

    3台虚拟机

    集群模式

    vim /etc/sysconfig/network     修改主机名:HOSTNAME=h101

    重启虚拟机    init 6    

    vim /etc/sysconfig/network-scripts/ifcfg-eth0    修改虚拟机的主机IP 

    service network restart   网卡生效

    vim /etc/hosts   修改hosts做映射

    输入:192.168.16.101 h101

    192.168.16.102 h102

    192.168.16.103 h103

    配置完后 :ssh h102  直接跳到h102

    创建Hadoop用户:useradd hadoop

    password hadoop

    三台虚拟机安装JDK

    tar -zxvf jdk.XX.tar.gz -C /usr/

    配置环境变量  vim /etc/profile

    让环境变量生效  source /etc/profile  或者init 6

    验证环境变量生效  /usr/jdk1.7/bin/java -version

    1、上传并解压Hadoop安装包

    2、在conf文件夹下的hadoop-env.sh  最后一行添加

    export JAVA_HOME=/usr/jdk1.7.0_25/

    3、修改core-site.xml

    <property>

    <name>fs.default.name</name>

    <value>hdfs://h101:9000</value>

    </property>

    4、修改hdfs-site.xml

    <property>

    <name>dfs.replication</name>

    <value>2</value>

    </property>

    5、修改mapred-site.

    <property>

    <name>mapred.job.tracker</name>

    <value>h101:9001</value>

    </property>

    6、修改masters

    localhost修改为主节点主机名:h101

    7、修改slaves

    localhost修改为从节点主机名:h102

    h103

    8、拷贝到其他两个节点

    scp -r /home/hadoop/hadoop-0.20.2-cdh3u5   h103:/home/hadoop/

    9、授权:所有节点上的hadoop-0.20.2-cdh3u5目录的所有者改为Hadoop用户

    chown hadoop.hadoop /usr/local/hadoop-0.20.2-cdh3u5/ -R

    10、免密钥操作配置SSH服务:Hadoop 用户下

    ssh-keygen -t rsa

    ssh-copy-id -i /home/hadoop/.ssh/id_rsa.pub h101

    ssh-copy-id -i /home/hadoop/.ssh/id_rsa.pub h102

    ssh-copy-id -i /home/hadoop/.ssh/id_rsa.pub h103

    11、namenode格式化:

    cd   /home/hadoop/hadoop-0.20.2-cdh3u5

    bin/hadoop  namenode -format

    12、验证

    bin/start-all.sh  开启服务

    jps查看进程:

    分布式文件系统HDFS

    hadoop2.0默认大小是128M。

    Hadoop基本命令

    $hadoop_home/bin/hadoop fs <args>

    hadoop fs -ls/lsr uri

    实际例子:./hadoop fs -ls hdfs://h101:9000/ 

    在主节点上可以简写成        ./hadoop fs -ls /

    cat  显示一个或多个文件内容到控制台

    put 将本地一个文件或多个文件导入HDFS

    get 下载

    打开安全模式:./hadoop dfsadmin -safemode enter

    关闭安全模式:./hadoop dfsadmin -safemode leave

    安全模式下不能删除文件

    删除文件:./hadoop fs -rmr /a.txt

    ./hadoop dfsadmin -report

    MapReduce介绍

    相关文章

      网友评论

        本文标题:Hadoop学习1

        本文链接:https://www.haomeiwen.com/subject/yexbqftx.html