1.hadoop的广义和狭义的理解
宏观: Hadoop为主的生态圈 hadoop flume........
狭义: apache hadoop hadoop.apache.org
2.hadoop三大组件是什么?分别是做什么?
hdfs: 分布式文件管理系统 存储
mapreduce : 执行引擎 计算
yarn: 资源(memory cpu)和作业调度平台 资源
3.hdfs伪分布式部署时我们需要配置当前用户对当前机器的无密码信任关系,那么你们会配置吗? root和其他用户有什么区别? 知道在哪找吗?
注意:非root权限 要记得chmod 600 authorized_keys
ssh-keygen 做多台机器间 互相信任
http://blog.itpub.net/30089851/viewspace-1992210/
文件夹: ~/.ssh
生成:
rm -rf ~/.ssh
[root@hadoop000 ~]# ssh-keygen
[root@hadoop001 ~]# ssh-keygen
选择第一台作为先完善的机器
[root@hadoop000 .ssh]# cat id_rsa.pub >> authorized_keys
注意:非root权限 要记得chmod 600 authorized_keys
其他机器将id_rsa.pub发送给第一台
[root@hadoop001 .ssh]# scp id_rsa.pub 192.168.137.251:/root/.ssh/id_rsa.pub.hadoop001
[root@hadoop002 .ssh]# scp id_rsa.pub 192.168.137.251:/root/.ssh/id_rsa.pub.hadoop001
[root@hadoop003 .ssh]# scp id_rsa.pub 192.168.137.251:/root/.ssh/id_rsa.pub.hadoop001
[root@hadoop004 .ssh]# scp id_rsa.pub 192.168.137.251:/root/.ssh/id_rsa.pub.hadoop001
将其他机器的id_rsa.pub追加到authorized_keys
[root@hadoop000 .ssh]# cat id_rsa.pub.hadoop001 >> authorized_keys
[root@hadoop000 .ssh]# cat id_rsa.pub.hadoop002 >> authorized_keys
[root@hadoop000 .ssh]# cat id_rsa.pub.hadoop003 >> authorized_keys
[root@hadoop000 .ssh]# cat id_rsa.pub.hadoop004 >> authorized_keys
然后将该authorized_keys分发
[root@hadoop000 .ssh]# scp authorized_keys 192.168.137.141:/root/.ssh/
[root@hadoop000 .ssh]# scp authorized_keys 192.168.137.142:/root/.ssh/
[root@hadoop000 .ssh]# scp authorized_keys 192.168.137.143:/root/.ssh/
[root@hadoop000 .ssh]# scp authorized_keys 192.168.137.144:/root/.ssh/
每台机器第一次要做: yes --> known_hosts
[root@hadoop000 .ssh]# ssh hadoop000 date
[root@hadoop000 .ssh]# ssh hadoop001 date
[root@hadoop000 .ssh]# ssh hadoop002 date
[root@hadoop000 .ssh]# ssh hadoop003 date
[root@hadoop000 .ssh]# ssh hadoop004 date
4.xml配置文件官网怎么找,会不?
进入官网--Document-- Configuration

5.hdfs启动时,报JAVA home没有,怎么修改呢?
vim /etc/hadoop/hadoop-env.sh
6.假如java配置OK了,就是用不了,估计什么问题?(昨天小伙伴的问题)
java 权限问题
7.hdfs的三个进程是什么?默认存储在哪?
datanode namenode seconeynode 默认在tmp目录下
8.jps 发现进程不可用信息,生产上正确处理流程是什么?
首先ps -ef|grep pid 确认一下进程是否活的
9.hdfs的web界面端口号是多少
50070
10.yarn的web界面端口号是多少
8088
11.假如让你们该这两个默认端口号,请问怎么改,去哪找?(跳跃思维)
去官网翻查core-default.xml 和hdfs-default.xml 搜索端口号
12.mapreduce案例 jar,我也不记得路径在哪,该怎么办
[hadoop@hadoop000 hadoop-2.8.1]$ find ./ -name "*example*"
13.我们学习了第一个提交 jar到yarn平台,那么命令是什么
hadoop jar
网友评论