1.查看网卡设备--当前ip
ifconfig
[hadoop@hadoop000 ~]$ ifconfig
eth0 Link encap:Ethernet HWaddr 00:0C:29:7D:5F:19
inet addr:192.168.137.251 Bcast:192.168.137.255 Mask:255.255.255.0
inet6 addr: fe80::20c:29ff:fe7d:5f19/64 Scope:Link
UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1
RX packets:2916 errors:0 dropped:0 overruns:0 frame:0
TX packets:1697 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:1000
RX bytes:309525 (302.2 KiB) TX bytes:345353 (337.2 KiB)
lo Link encap:Local Loopback
inet addr:127.0.0.1 Mask:255.0.0.0
inet6 addr: ::1/128 Scope:Host
UP LOOPBACK RUNNING MTU:16436 Metric:1
RX packets:14 errors:0 dropped:0 overruns:0 frame:0
TX packets:14 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:0
RX bytes:826 (826.0 b) TX bytes:826 (826.0 b)
2.创建一个空文件
touch 文件名
[hadoop@hadoop000 ~]$ cd test
[hadoop@hadoop000 test]$ ll
total 0
[hadoop@hadoop000 test]$ touch zouhan.log
[hadoop@hadoop000 test]$ ll
total 0
-rw-rw-r--. 1 hadoop hadoop 0 Dec 25 14:22 zouhan.log
3.创建文件夹
mkdir 文件夹名 ——创建一个新的文件夹
[hadoop@hadoop000 test]$ mkdir 0
[hadoop@hadoop000 test]$ ll
total 4
drwxrwxr-x. 2 hadoop hadoop 4096 Dec 25 14:23 0
-rw-rw-r--. 1 hadoop hadoop 0 Dec 25 14:22 zouhan.log
mkdir -p 1/2/3 ——创建连续3层的文件夹
[hadoop@hadoop000 test]$ mkdir -p 1/2/3
[hadoop@hadoop000 test]$ ll
total 8
drwxrwxr-x. 2 hadoop hadoop 4096 Dec 25 14:23 0
drwxrwxr-x. 3 hadoop hadoop 4096 Dec 25 14:23 1
-rw-rw-r--. 1 hadoop hadoop 0 Dec 25 14:22 zouhan.log
[hadoop@hadoop000 test]$ ll 1
total 4
drwxrwxr-x. 3 hadoop hadoop 4096 Dec 25 14:23 2
[hadoop@hadoop000 test]$ ll 1/2
total 4
drwxrwxr-x. 2 hadoop hadoop 4096 Dec 25 14:23 3
mkdir 4 5 6 ——创建同层的3个文件夹
[hadoop@hadoop000 test]$ mkdir 4 5 6
[hadoop@hadoop000 test]$ ll
total 20
drwxrwxr-x. 2 hadoop hadoop 4096 Dec 25 14:23 0
drwxrwxr-x. 3 hadoop hadoop 4096 Dec 25 14:23 1
drwxrwxr-x. 2 hadoop hadoop 4096 Dec 25 14:24 4
drwxrwxr-x. 2 hadoop hadoop 4096 Dec 25 14:24 5
drwxrwxr-x. 2 hadoop hadoop 4096 Dec 25 14:24 6
-rw-rw-r--. 1 hadoop hadoop 0 Dec 25 14:22 zouhan.log
4.移动文件或文件夹
mv 文件名或文件夹名 目标路径
(移动之后文件或文件夹在原路径就不存在了,相当于Windows里的剪切)
[hadoop@hadoop000 test]$ mv zouhan.log 1
[hadoop@hadoop000 test]$ ll
total 20
drwxrwxr-x. 2 hadoop hadoop 4096 Dec 25 14:23 0
drwxrwxr-x. 3 hadoop hadoop 4096 Dec 25 14:24 1
drwxrwxr-x. 2 hadoop hadoop 4096 Dec 25 14:24 4
drwxrwxr-x. 2 hadoop hadoop 4096 Dec 25 14:24 5
drwxrwxr-x. 2 hadoop hadoop 4096 Dec 25 14:24 6
[hadoop@hadoop000 test]$ ll 1
total 4
drwxrwxr-x. 3 hadoop hadoop 4096 Dec 25 14:23 2
-rw-rw-r--. 1 hadoop hadoop 0 Dec 25 14:22 zouhan.log
5.复制文件或文件夹
cp 文件名 目标路径 ——复制文件至指定文件夹
[hadoop@hadoop000 test]$ cd 1
[hadoop@hadoop000 1]$ ll
total 4
drwxrwxr-x. 3 hadoop hadoop 4096 Dec 25 14:23 2
-rw-rw-r--. 1 hadoop hadoop 0 Dec 25 14:22 zouhan.log
[hadoop@hadoop000 1]$ cp zouhan.log ~/test/
[hadoop@hadoop000 1]$ cd ..
[hadoop@hadoop000 test]$ ll
total 20
drwxrwxr-x. 2 hadoop hadoop 4096 Dec 25 14:23 0
drwxrwxr-x. 3 hadoop hadoop 4096 Dec 25 14:24 1
drwxrwxr-x. 2 hadoop hadoop 4096 Dec 25 14:24 4
drwxrwxr-x. 2 hadoop hadoop 4096 Dec 25 14:24 5
drwxrwxr-x. 2 hadoop hadoop 4096 Dec 25 14:24 6
-rw-rw-r--. 1 hadoop hadoop 0 Dec 25 14:26 zouhan.log
cp -r 文件夹名 目标路径 ——复制文件夹至指定文件夹
[hadoop@hadoop000 test]$ ll
total 20
drwxrwxr-x. 2 hadoop hadoop 4096 Dec 25 14:23 0
drwxrwxr-x. 3 hadoop hadoop 4096 Dec 25 14:24 1
drwxrwxr-x. 2 hadoop hadoop 4096 Dec 25 14:24 4
drwxrwxr-x. 2 hadoop hadoop 4096 Dec 25 14:24 5
drwxrwxr-x. 2 hadoop hadoop 4096 Dec 25 14:24 6
-rw-rw-r--. 1 hadoop hadoop 0 Dec 25 14:26 zouhan.log
[hadoop@hadoop000 test]$ cp -r 6 0 //将文件夹6复制到文件夹0中
[hadoop@hadoop000 test]$ cd 0
[hadoop@hadoop000 0]$ ll
total 4
drwxrwxr-x. 2 hadoop hadoop 4096 Dec 25 14:27 6
[hadoop@hadoop000 0]$ cp -r 6 ../1/ //将文件夹6复制到文件夹1中
[hadoop@hadoop000 0]$ cd ../1
[hadoop@hadoop000 1]$ ll
total 8
drwxrwxr-x. 3 hadoop hadoop 4096 Dec 25 14:23 2
drwxrwxr-x. 2 hadoop hadoop 4096 Dec 25 14:29 6
-rw-rw-r--. 1 hadoop hadoop 0 Dec 25 14:22 zouhan.log
6.查看文件内容
cat zouhan.log (文件的内容会一下子全部显示出来)
more zouhan.log (文件内容会先显示一部分,按空格可以一页一页往下翻着看)
7.实时查看文件内容
tail -f
tail -200f 倒着查看最新200行且实时显示
tail -F 相当于tail -f 后面再跟一个retry
8.echo命令
echo "123" 输出打印
[hadoop@hadoop000 test]$ echo "123"
123
echo "123" >> zouhan.log 将"123"追加至文件内
[hadoop@hadoop000 test]$ echo "123" >> zouhan.log
[hadoop@hadoop000 test]$ cat zouhan.log
123
[hadoop@hadoop000 test]$ echo "123" >> zouhan.log
[hadoop@hadoop000 test]$ cat zouhan.log
123
123
echo "123" > zouhan.log 用"123"覆盖文件
[hadoop@hadoop000 test]$ echo "123" > zouhan.log
[hadoop@hadoop000 test]$ cat zouhan.log
123
9.环境变量文件
(1)全局环境变量文件 /etc/profile
全局环境变量文件编辑完之后,需要生效一下才起作用
生效命令
source /etc/profile
(2)个人环境变量文件 .bash_profile 或者 .bashrc (个人的环境变量文件是隐藏的)
个人环境变量文件编辑完之后,也需要生效一下才起作用
生效命令
source .bash_profile
10.设置别名alias
(1)设置临时别名
alias zh='cd /root/zouhan/1/'
(2)设置永久别名
需要设置全局的或者个人的环境变量文件
11.删除命令
rm xxx.log 删除一个文件,且询问
rm -f xxx.log 删除一个文件,且不询问 (f代表强制删除)
rm -r 4 删除一个文件夹
特别注意:生产上一定不要执行 rm -rf / 命令,此操作为强制删除根目录下所有的文件及文件夹
12.设置变量
key=value 如:path=6
rm -rf $path/* 强制删除“6”文件夹下所有的文件和文件夹,但不删除“6”文件夹本身
rm -rf $path/ 强制删除“6”文件夹本身及其中所有的文件和文件夹
13.历史用过的所有命令的显示
history
执行第70行历史命令有两种方法:1.复制粘贴第70行命令;2.执行!70
注:在Linux终端里,复制命令:ctrl+shift+c;粘贴命令:ctrl+shift+v
14.用户,用户组的常用命令
(1)查看当前在什么用户组
id 用户名
[hadoop@hadoop000 ~]$ id hadoop
uid=500(hadoop) gid=500(hadoop) groups=500(hadoop)
(2)关于用户和用户组的所有命令的路径查看
ll /usr/sbin/user* (*是模糊匹配)
[hadoop@hadoop000 test]$ ll /usr/sbin/user*
-rwxr-x---. 1 root root 103096 Dec 8 2011 /usr/sbin/useradd
-rwxr-x---. 1 root root 69560 Dec 8 2011 /usr/sbin/userdel
-rws--x--x. 1 root root 42408 Aug 23 2010 /usr/sbin/userhelper
-rwxr-x---. 1 root root 98680 Dec 8 2011 /usr/sbin/usermod
-rwsr-xr-x. 1 root root 9000 Nov 23 2013 /usr/sbin/usernetctl
ll /usr/sbin/group*
[hadoop@hadoop000 test]$ ll /usr/sbin/group*
-rwxr-x---. 1 root root 54968 Dec 8 2011 /usr/sbin/groupadd
-rwxr-x---. 1 root root 46512 Dec 8 2011 /usr/sbin/groupdel
-rwxr-x---. 1 root root 50800 Dec 8 2011 /usr/sbin/groupmems
-rwxr-x---. 1 root root 61360 Dec 8 2011 /usr/sbin/groupmod
(3)创建新用户和删除用户
useradd zouhan (会自动创建一个与用户同名的用户组,uid = userid 即用户ID,用来标识每个用户的唯一标示符,gid = groupid 即组ID,用来标识用户组的唯一标识符 gid代表主组,groups代表用户所属的所有组,包括主组和附属组)
[root@hadoop000 ~]# useradd zouhan
[root@hadoop000 ~]# id zouhan
uid=515(zouhan) gid=515(zouhan) groups=515(zouhan)
userdel zouhan
[root@hadoop000 ~]# userdel zouhan
[root@hadoop000 ~]# id zouhan
id: zouhan: No such user
(4)查看有关zouhan用户和用户组的相关信息
cat /etc/passwd | grep zouhan ( | ) 为管道符
[root@hadoop000 ~]# cat /etc/passwd | grep hadoop
hadoop:x:500:500:hadoop:/home/hadoop:/bin/bash
cat /etc/group | grep zouhan
[root@hadoop000 ~]# cat /etc/group | grep hadoop
hadoop:x:500:
(6)将一个用户添加进某用户组
usermod -a -G bigdata zouhan
[root@hadoop000 ~]# groupadd bigdata
[root@hadoop000 ~]# usermod -a -G bigdata zouhan
[root@hadoop000 ~]# id zouhan
uid=515(zouhan) gid=515(zouhan) groups=515(zouhan),516(bigdata)
注:
-G, --groups GROUPS new list of supplementary GROUPS
-a, --append append the user to the supplemental GROUPS
mentioned by the -G option without removing
him/her from other groups
(7)将指定用户组指定为主组,并删除其他用户组
usermod -g bigdata zouhan
[root@hadoop000 ~]# usermod -g bigdata zouhan
[root@hadoop000 ~]# id zouhan
uid=515(zouhan) gid=516(bigdata) groups=516(bigdata)
注:
-g, --gid GROUP force use GROUP as new primary group
(8)查看命令帮助
usermod --help 进入帮助后,先看Usage
man usermod (较少使用) 看完后,按ctrl+z退出
(9)设置密码
passwd zouhan (只能在root下设置)
(10)切换用户
su zouhan 切换用户,但还在当前用户文件夹下
[hadoop@hadoop000 ~]$ pwd
/home/hadoop
[hadoop@hadoop000 ~]$ su zouhan
Password:
[zouhan@hadoop000 hadoop]$ pwd
/home/hadoop
su - zouhan 切换用户之后,执行环境变量文件.bash_profile,且进入该用户的家目录
[hadoop@hadoop000 ~]$ pwd
/home/hadoop
[hadoop@hadoop000 ~]$ su - zouhan
Password:
[zouhan@hadoop000 ~]$ pwd
/home/zouhan
(11)退出当前用户,返回上一次的用户
exit
(12)临时获取root权限
sudo(首先应把该普通用户添加进sudoer文件内,sudo命令才生效)
注:不是所有命令前边加sudo都可以被执行,比如sudo cd 就不可以,原因参见https://blog.csdn.net/u014717036/article/details/70338463
[root@hadoop000 ~]# cat /etc/sudoers
## Allow root to run any commands anywhere
root ALL=(ALL) ALL
hadoop ALL=(root) NOPASSWD:ALL
15.查看所有进程
ps -ef 查看所有进程
ps -ef | grep XXX 查看有关XXX的所有进程
[root@hadoop000 ~]# ps -ef | grep mysql
root 6926 3576 0 15:31 pts/1 00:00:00 su - mysqladmin
514 6969 1 0 15:31 pts/1 00:00:00 /bin/sh /usr/local/mysql/bin/mysqld_safe --datadir=/usr/local/mysql/data --pid-file=/usr/local/mysql/data/hostname.pid
514 7638 6969 4 15:31 pts/1 00:00:05 /usr/local/mysql/bin/mysqld --basedir=/usr/local/mysql --datadir=/usr/local/mysql/data --plugin-dir=/usr/local/mysql/lib/plugin --log-error=/usr/local/mysql/data/hostname.err --pid-file=/usr/local/mysql/data/hostname.pid --socket=/usr/local/mysql/data/mysql.sock --port=3306
root 7714 7694 0 15:33 pts/1 00:00:00 grep mysql
16.关闭某进程
kill -9 XXX(进程的pid) 关闭某一个进程
sudo kill -9 XXX(进程的pid) 提示没权限时可以尝试前边加sudo
同时关闭多个进程的两种方法:
(1)kill -9 XXX(空格)XXX(空格)XXX 关闭多个进程
(2)kill -9 $(pgrep -f XXX) 关闭有关XXX的所有进程(生产上操作之前务必逐一确认能否关闭)
echo “$(pgrep -f XXX)” 查看有关XXX的所有进程的pid
*******注意********
生产上一般不会通过ps -ef | grep xxx查pid,然后kill,因为有可能杀掉别人的同名或者名字相似的进程,通常会把pid写到到一个文件里,当需要杀掉的时候,从文件里读出来然后杀掉该pid的进程
例如hadoop-daemon.sh脚本里
pid=$HADOOP_PID_DIR/hadoop-$HADOOP_IDENT_STRING-$command.pid
pid是从某路径下的xxx.pid文件中读出来的
17.查看某进程的端口号
netstat -nlp | grep XXX(进程的pid)
[root@hadoop000 ~]# netstat -nlp | grep 7638
tcp 0 0 :::3306 :::* LISTEN 7638/mysqld
unix 2 [ ACC ] STREAM LISTENING 51158 7638/mysqld /usr/local/mysql/data/mysql.sock
18.如何打开某个服务的web界面
解析:web界面=ip+端口号(http://ip:端口号)
第一步:查ip ------ ifconfig
第二步:查端口号 ps -ef | grep XXX ------找到该进程的pid
netstat -nlp | grep XXX(该进程的pid)------找到端口号
网友评论