Hadoop学习1

作者: 坚持做自己 | 来源:发表于2018-03-20 20:01 被阅读0次

1、大数据时代背景

移动互联、社交网络、电子商务导致各种数据迅速膨胀并变大。

1 PB = 1,024 TB = 1,048,576 GB =1,125,899,906,842,624 Bytes 

1 EB = 1,024 PB = 1,048,576 TB = 1,152,921,504,606,846,976 Bytes 

1 ZB = 1,024 EB = 1,180,591,620,717,411,303,424 Bytes 

1 YB = 1,024 ZB = 1,208,925,819,614,629,174,706,176 Bytes 

数据能为我们带来什么?------商业价值

海量数据如何处理?------Hadoop

MapReduce------并行计算框架

BigTable------join耗费资源,列式存储

创建者:Doug Cutting   棕黄色的大象

Hadoop安装:

3台虚拟机

集群模式

vim /etc/sysconfig/network     修改主机名:HOSTNAME=h101

重启虚拟机    init 6    

vim /etc/sysconfig/network-scripts/ifcfg-eth0    修改虚拟机的主机IP 

service network restart   网卡生效

vim /etc/hosts   修改hosts做映射

输入:192.168.16.101 h101

192.168.16.102 h102

192.168.16.103 h103

配置完后 :ssh h102  直接跳到h102

创建Hadoop用户:useradd hadoop

password hadoop

三台虚拟机安装JDK

tar -zxvf jdk.XX.tar.gz -C /usr/

配置环境变量  vim /etc/profile

让环境变量生效  source /etc/profile  或者init 6

验证环境变量生效  /usr/jdk1.7/bin/java -version

1、上传并解压Hadoop安装包

2、在conf文件夹下的hadoop-env.sh  最后一行添加

export JAVA_HOME=/usr/jdk1.7.0_25/

3、修改core-site.xml

<property>

<name>fs.default.name</name>

<value>hdfs://h101:9000</value>

</property>

4、修改hdfs-site.xml

<property>

<name>dfs.replication</name>

<value>2</value>

</property>

5、修改mapred-site.

<property>

<name>mapred.job.tracker</name>

<value>h101:9001</value>

</property>

6、修改masters

localhost修改为主节点主机名:h101

7、修改slaves

localhost修改为从节点主机名:h102

h103

8、拷贝到其他两个节点

scp -r /home/hadoop/hadoop-0.20.2-cdh3u5   h103:/home/hadoop/

9、授权:所有节点上的hadoop-0.20.2-cdh3u5目录的所有者改为Hadoop用户

chown hadoop.hadoop /usr/local/hadoop-0.20.2-cdh3u5/ -R

10、免密钥操作配置SSH服务:Hadoop 用户下

ssh-keygen -t rsa

ssh-copy-id -i /home/hadoop/.ssh/id_rsa.pub h101

ssh-copy-id -i /home/hadoop/.ssh/id_rsa.pub h102

ssh-copy-id -i /home/hadoop/.ssh/id_rsa.pub h103

11、namenode格式化:

cd   /home/hadoop/hadoop-0.20.2-cdh3u5

bin/hadoop  namenode -format

12、验证

bin/start-all.sh  开启服务

jps查看进程:

分布式文件系统HDFS

hadoop2.0默认大小是128M。

Hadoop基本命令

$hadoop_home/bin/hadoop fs <args>

hadoop fs -ls/lsr uri

实际例子:./hadoop fs -ls hdfs://h101:9000/ 

在主节点上可以简写成        ./hadoop fs -ls /

cat  显示一个或多个文件内容到控制台

put 将本地一个文件或多个文件导入HDFS

get 下载

打开安全模式:./hadoop dfsadmin -safemode enter

关闭安全模式:./hadoop dfsadmin -safemode leave

安全模式下不能删除文件

删除文件:./hadoop fs -rmr /a.txt

./hadoop dfsadmin -report

MapReduce介绍

相关文章

  • Hadoop学习1

    1、大数据时代背景 移动互联、社交网络、电子商务导致各种数据迅速膨胀并变大。 1 PB = 1,024 TB = ...

  • 大数据学习Day1

    大数据学习Day1 - hadoop了解

  • Hadoop学习笔记1

    Hadoop部署方式 本地模式 伪分布模式(在一台机器中模拟,让所有进程在一台机器上运行) 集群模式 服务器只是一...

  • Hadoop学习笔记(1)

    title: Hadoop学习笔记(1)date: 2016-08-23 20:57:36categories: ...

  • Hadoop学习笔记(1)

    使用docker搭建分布式环境 今天开始,准备学习大数据分析,参考的教材是O‘REILLY的《Hadoop数据分析...

  • Hadoop 学习笔记 1

    Hadoop 基本组成结构 Hadoop HDFS 分布式文件系统 Map Reduce 分布式离线并行计算框架 ...

  • Hadoop的学习路线图

    目录: .1.Hadoop家族产品 2.Hadoop家族学习路线图 Hadoop家族产品 截止到2013年,根据c...

  • 让你年薪30万的大数据学习路线

    偶遇年薪30W大数据学习路线,努力追求一下。 一、Hadoop入门,了解什么是Hadoop 1、Hadoop产生背...

  • 搭hadoop+hbase(mac单机)

    摘要 单机搭hadoop+hbase流程记录 引用学习: 1、hadoop 2.7.4 单机版安装2、HBase环...

  • 2019-05-03

    正在 学习1.林轩田2.hadoop

网友评论

    本文标题:Hadoop学习1

    本文链接:https://www.haomeiwen.com/subject/yexbqftx.html