hdfs dfs等价于hadoop fs
1、查询命令
查看根目录下所有文件和目录
$hdfs dfs -ls /
级联查看根目录下所有文件及目录
$hdfs dfs -lsr(已过期)
$hdfs dfs -ls -R /
查看test.log文件内容
$hdfs dfs -cat /test.log
2、创建目录
级联创建目录/new/test(/new开始不存在)
$hdfs dfs -mkdir -p /new/test
3、文件上传命令
上传test.log到hadoop根目录
$hdfs dfs -put test.log /
$hdfs dfs -copyFromLocal test.log /
上传本地文件test.log到根目录,并且删除本地文件
$hdfs dfs -moveFromLocal test.log /
4、文件下载命令
下载test.log到本地/tmp目录
$hdfs dfs -get /test.log /tmp
$hdfs dfs -copyToLocal /test.log /tmp
下载到本地/tmp目录,且删除hadoop文件test.log
$hdfs dfs -moveToLocal /test.log /tmp
5、文件操作命令
复制文件
$hdfs dfs -cp /test.log /test.log1
移动文件
$hdfs dfs -mv /test.log /test
修改文件权限
$hdfs dfs -chmod +w /test.log
$hdfs dfs -chown root:root /test.log
6、删除文件(-r删除目录,-f删除文件,可以不填)
$hdfs dfs -rm -f -r /test.log
7、hdfs dfsadmin命令
报告文件系统的基本信息和统计信息
$hdfs dfsadmin -report
返回安全模式是否开启的信息,返回 Safe mode is OFF/OPEN
$hdfs dfsadmin -safemode get
进入安全模工
$ hdfs dfsadmin -safemode enter
强制 NameNode 离开安全模式
$hdfs dfsadmin -safemode leave
等待,一直到安全模式结束
$hdfs dfsadmin -safemode wait
8、hadoop fsck工具
fsck工具用于检查各种不一致,报告各种文件问题,如block丢失或缺少block等
<path> 检查的起始目录
-move 将损坏的文件移动到/lost+found下面
-delete 删除损坏的文件
-openforwrite 打印出正在写的文件
-files 打印出所有被检查的文件
-blocks 打印出block报告
-locations 打印出每个block的位置
-racks 打印出datanode的网络拓扑结构
默认情况下,fsck会忽略正在写的文件,使用-openforwrite选项可以汇报这种文件。
网友评论