![实战Hadoop](https://wfqqreader-1252317822.image.myqcloud.com/cover/354/656354/b_656354.jpg)
2.2 HDFS常用操作
了解了关于HDFS的基本知识之后,这一小节将介绍一些常用的HDFS操作。
2.2.1 HDFS下的文件操作
1.列出HDFS文件
此处为读者展示如何通过“-ls”命令列出HDFS下的文件:
/usr/hadoop-0.20.2$ bin/hadoop dfs -ls
执行结果如图2-3所示。在这里读者需要注意:在HDFS中未带参数的“-ls”命令没有返回任何值,它默认返回HDFS的“home”目录下的内容。在HDFS中,没有当前工作目录这样的一个概念,也没有cd这个命令。
![](https://epubservercos.yuewen.com/037BF7/3590315104035301/epubprivate/OEBPS/Images/Figure-0046-16329.jpg?sign=1739922720-uRMjOc4lL9LIpGxtRDpbF9h6VszNmNxp-0-403d9664b10325827f2b78082dd59e2b)
图2-3 列出HDFS文件
2.列出HDFS目录下某个文档中的文件
此处为读者展示如何通过“-ls 文件名”命令浏览HDFS下名为in的文档中的文件:
/usr/hadoop-0.20.2$ bin/hadoop dfs -ls in
执行结果如图2-4所示。
![](https://epubservercos.yuewen.com/037BF7/3590315104035301/epubprivate/OEBPS/Images/Figure-0046-16335.jpg?sign=1739922720-oYlkG1pjrz57sYOINWybUpEw1BnKJrZd-0-f2503aef0851f3167eb66f45903ec913)
图2-4 列出HDFS下名为in的文档下的文件
3.上传文件到HDFS
此处为读者展示如何通过“-put 文件1 文件2”命令将hadoop-0.20.2目录下的test1文件上传到HDFS上并重命名为test:
/usr/hadoop-0.20.2$ bin/hadoop dfs -put test1 test
执行结果如图2-5所示。在执行“-put”时只有两种可能,即是执行成功和执行失败。在上传文件时,文件首先复制到DataNode上。只有所有的DataNode都成功接收完数据,文件上传才是成功的。其他情况(如文件上传终端等)对于HDFS来说都是做了无用功。
![](https://epubservercos.yuewen.com/037BF7/3590315104035301/epubprivate/OEBPS/Images/Figure-0046-16341.jpg?sign=1739922720-IYrusS1F7qmbBbZJQBZem58g3hDPGZcz-0-6737585e4fd6a50ed263b0412c0f9a16)
图2-5 成功上传test1到HDFS
4.将HDFS中的文件复制到本地系统中
此处为读者展示如何通过“-get文件1文件2”命令将HDFS中的in文件复制到本地系统并命名为getin:
/usr/hadoop-0.20.2$ bin/hadoop dfs -get in getin
执行结果如图2-6示。与“-put”命令一样,“-get”操作既可以操作文件,也可以操作目录。
![](https://epubservercos.yuewen.com/037BF7/3590315104035301/epubprivate/OEBPS/Images/Figure-0047-16353.jpg?sign=1739922720-p60KcIvmjtx60G7OI6Mthm0cjjbVFyks-0-b5c37b41fc135cdb372faa3efff4ae5d)
图2-6 成功将HDFS中的in文件复制到本地系统
5.删除HDFS下的文档
此处为读者展示如何通过“-rmr 文件”命令删除HDFS下名为out的文档:
/usr/hadoop-0.20.2$ bin/hadoop dfs -rmr out
执行结果如图2-7所示。
![](https://epubservercos.yuewen.com/037BF7/3590315104035301/epubprivate/OEBPS/Images/Figure-0047-16360.jpg?sign=1739922720-VZSAVDRDVCpfLf4WT4RyaxAVXzIhJChK-0-8072e92c0de9a943c111e51eb8fd9053)
图2-7 成功删除HDFS下的out文档
6.查看HDFS下某个文件
此处为读者展示如何通过“-cat 文件”命令查看HDFS下in文件中的内容:
/usr/hadoop-0.20.2$ bin/hadoop dfs -cat in/*
执行结果如图2-8所示。
![](https://epubservercos.yuewen.com/037BF7/3590315104035301/epubprivate/OEBPS/Images/Figure-0048-16373.jpg?sign=1739922720-sD811h15kEYF35nPxEh1wulvnAB8BNsL-0-33c880f4370d1224b122a894f9b6e3a6)
图2-8 HDFS下in文件的内容
bin/hadoop dfs的命令远不止这些,本小结介绍的命令已可以让读者在HDFS上完成大多数常规操作。对于其他操作,读者可以通过“-help commandName”命令所列出的清单来进行进一步学习与探索。
2.2.2 管理与更新
1.报告HDFS的基本统计信息
此处为读者展示通过“-report”命令如何查看HDFS的基本统计信息:
$ bin/hadoop dfsadmin -report
执行结果如图2-9所示。
![](https://epubservercos.yuewen.com/037BF7/3590315104035301/epubprivate/OEBPS/Images/Figure-0048-16384.jpg?sign=1739922720-7GnAM4NR8NWYTtPWdWi6pQKK9TIygjUq-0-de6114bf907f32113572c53437e13680)
图2-9 HDFS基本统计信息
2.退出安全模式
NameNode在启动时会自动进入安全模式。安全模式是NameNode的一种状态,在这个阶段,文件系统不允许有任何修改。安全模式的目的是在系统启动时检查各个DataNode上数据块的有效性,同时根据策略对数据块进行必要的复制或删除,当数据块最小百分比数满足配置的最小副本数条件时,会自动退出安全模式。
系统显示“Name node is in safe mode”,说明系统正处于安全模式,这时只需要等待17秒即可,也可以通过下面的命令退出安全模式:
$ bin/hadoop dfsadmin -safemode leave
成功退出安全模式结果如图2-10所示。
![](https://epubservercos.yuewen.com/037BF7/3590315104035301/epubprivate/OEBPS/Images/Figure-0049-16397.jpg?sign=1739922720-7S2svsom7ufBY6i5L2Zu103eaYzgGCwx-0-fd245c59c33338074ebcd4145a1e4df5)
图2-10 成功退出安全模式
3.进入安全模式
在必要情况下,可以通过以下命令把HDFS置于安全模式:
$ bin/hadoop dfsadmin -safemode enter
执行结果如图2-11所示。
![](https://epubservercos.yuewen.com/037BF7/3590315104035301/epubprivate/OEBPS/Images/Figure-0049-16404.jpg?sign=1739922720-O29MAtvKEds5BPQOHwFOIXBCSt0Qsmv5-0-826213759649991155f565f670b93897)
图2-11 进入HDFS安全模式
4.添加节点
可扩展性是HDFS的一个重要特性,向HDFS集群中添加节点是很容易实现的。添加一个新的DataNode节点,首先在新加节点上安装好Hadoop,要和NameNode使用相同的配置(可以直接从NameNode复制),修改$HADOOP_HOME/conf/master文件,加入NameNode主机名。然后在NameNode节点上修改$HADOOP_HOME/conf/slaves文件,加入新加节点主机名,再建立到新加节点无密码的SSH连接,运行启动命令:
$ bin/start-all.sh
通过http://(Master node的主机名/IP):50070可查看到新的DataNode节点ubuntu1添加成功,如图2-12所示。
![](https://epubservercos.yuewen.com/037BF7/3590315104035301/epubprivate/OEBPS/Images/Figure-0050-16418.jpg?sign=1739922720-YdYwcpN9TxNNEc3UFZlLP6SN2Krh0wbh-0-2dc12ddde50e4e761d288617ead2b3ce)
图2-12 成功添加DataNode节点ubuntu1
5.负载均衡
HDFS的数据在各个DataNode中的分布可能很不均匀,尤其是在DataNode节点出现故障或新增DataNode节点时。新增数据块时NameNode对DataNode节点的选择策略也有可能导致数据块分布的不均匀。用户可以使用命令重新平衡DataNode上的数据块的分布:
$ bin/start-balancer.sh
执行结果如图2-13所示。
![](https://epubservercos.yuewen.com/037BF7/3590315104035301/epubprivate/OEBPS/Images/Figure-0051-16429.jpg?sign=1739922720-mnLSY6Ogz2848KjW4kIgiYDV9zxuZ0VS-0-aa88e21f3e498829338ddbdf0d36debb)
图2-13 HDFS数据块负载均衡
命令执行前,DataNode节点上数据的分布情况如图2-14所示。
![](https://epubservercos.yuewen.com/037BF7/3590315104035301/epubprivate/OEBPS/Images/Figure-0051-16433.jpg?sign=1739922720-V3K9QDOpCwWOHpcIIYDitr1OvaC2gaYY-0-2e36f870c18c9c316a9c26f5fe503749)
图2-14 负载均衡前的数据分布情况
负载均衡完毕后,DataNode节点上数据的分布情况如图2-15所示。
![](https://epubservercos.yuewen.com/037BF7/3590315104035301/epubprivate/OEBPS/Images/Figure-0051-16437.jpg?sign=1739922720-T4bHzcFh5y2WSh1EIu4gmbEAIbVNBI7F-0-0dceec4b152655fe549c8c946dec27f3)
图2-15 负载均衡后的数据分布情况