文章目录[隐藏]
1 HDFS运维—实验背景
HDFS是大数据其他组件的基础,Hive的数据存储在HDFS中,Mapreduce、Spark 等计算数据也存储在 HDFS中,HBase的 region 也是存储在HDFS 中。在HDFS shell 客户端我们可以实现多种操作,如上传、下载、删除数据,文件系统管理等。掌握HDFS 的使用对我们更好的理解和掌握大数据大有裨益。
2 实验目的
- 掌握 HDFS 常用操作。
- 掌握 HDFS 文件系统管理操作。
3 实验步骤
- HDFS 常用操作
[-appendToFile ... ][-cat [-ignoreCrc] ...][-chmod [-R] PATH...][-chown [-R] [OWNER][:[GROUP]] PATH...][-copyFromLocal [-f] [-p] ... ][-copyToLocal [-p] [-ignoreCrc] [-crc] ... ][-count [-q] ...][-cp [-f] [-p] ... ][-df [-h] [ ...]][-du [-s] [-h] ...][-get [-p] [-ignoreCrc] [-crc] ... ][-getmerge [-nl] ][-help [cmd ...]][-ls [-d] [-h] [-R] [ ...]][-mkdir [-p] ...][-moveFromLocal ... ][-moveToLocal ][-mv ... ][-put [-f] [-p] ... ][-rm [-f] [-r|-R] [-skipTrash] ...][-rmdir [--ignore-fail-on-non-empty] ...][-tail [-f] ][-text [-ignoreCrc] ...][-touchz ...]
步骤 1 help 命令
- 功能: 查看命令的帮助文档
- hdfs dfs -help
步骤 2 ls 命令
- 功能:显示目录信息
- hdfs dfs -ls /
步骤 3 mkdir 命令
- 功能:在 hdfs 上创建目录
在根目录的 user 文件夹下创建 stu01 文件夹,首先查看 user 下的内容,然后创建,再使用 ls命令查看,可以看到出现了 stu01 文件夹:
- hdfs dfs -mkdir /user/stu01
步骤 4 put 命令
- 功能:上传本地文件到 hdfs 指定目录,首先使用 vi 命令在 linux 本地编辑一份数据文件
- 输入命令 vim stu01.txt
步骤 5 cat 命令
- 功能:显示文件内容
- 输入命令: hdfs dfs -cat /user/stu01/stu01.txt
步骤 6 text 命令
- 功能:以字符形式打印一个文件的内容
- 输入命令:hdfs dfs -text /user/stu01/stu01.txt
步骤 7 moveFromLocal 命令
- 功能:从本地剪切粘贴到 hdfs
同理,使用 vi 命令在 linux 本地先创建一个数据文件,例如 stu01_2.txt,
- 输入命令:hdfs dfs -moveFromLocal stu01_2.txt /user/stu01/
注意:
- 可以看到 stu01_2.txt 文件已上传到 hdfs 文件系统的/user/stu01 目录下,并且使用 ls 命令查看
- linux 本地,stu01_2.txt 已不存在,证明是剪切粘贴到 hdfs 文件系统了。如果是 put 命令,linux 本地还存在,只是复制到 hdfs 系统。
步骤 8 appendToFile 命令
- 功能:追加一个文件到已经存在的文件末尾
首先,使用 vi 命令在 linux 本地编辑一份数据文件:stu01_3.txt,
- 输入命令:hdfs dfs -appendToFile stu01_3.txt /user/stu01/stu01_2.txt
把 stu01_3.txt 文件的内容追加到 hdfs 文件系统的 stu01_2.txt 文件里面去。
步骤 9 chmod 命令
- 功能:linux 文件系统中的用法一样,更改文件所属权限
使用 ls 命令可以查看到 hdfs 文件的权限:
使用 chmod 命令修改 stu01 文件夹的权限,
- 输入命令:hdfs dfs -chmod 755 /user/stu01/
步骤 10 chown 命令
- 功能:linux 文件系统中的用法一样,更改文件所属用户和用户组
首先在 hdfs 根目录下创建文件夹 stu01,使用 ls 命令可以查看属组:
注意:因为 root 用户无权限操作属组,需要切换到 admin 用户。
- 输入命令:su admin,切换admin 用户:
使用 chown 命令修改 stu01 文件夹的用户及用户组,
- 输入命令:hdfs dfs -chown -R hive:hive /stu01/
步骤 11 cp 命令
- 功能:从 hdfs 的一个路径拷贝 hdfs 的另一个路径
首先在 linux 本地使用 vi 命令编辑一份文件:stu01_4.txt ,然后用 put 命令上传到 hdfs 的根目
录下。
- 输入 cp 命令:hdfs dfs -cp /stu01_4.txt /user/stu01/
步骤 12 mv 命令
- 功能:在 hdfs 目录中移动文件
首先在 linux 本地使用 vi 命令编辑一份文件:stu01_5.txt ,然后用 put 命令上传到 hdfs 的根目
录下。
- 输入 mv 命令:hdfs dfs -mv /stu01_5.txt /user/stu01/
注意:可以看到/user/stu01 文件夹下已经有 stu01_5.txt 文件了,但是该文件在根目录下已经不存在,
被移走了。
步骤 13 get 命令
- 功能:等同于 copyToLocal,就是从 hdfs 下载文件到本地
首先删除 linux 本地的 stu01_5.txt 文件:
- 执行 copyToLocal 命令:hdfs dfs -copyToLocal /user/stu01/stu01_5.txt .
可以看到在 linux 本地已经有 stu01_5.txt 文件了。
注意:hdfs 命令最后的.,表示当前目录,如果指 定其他目录,就可以指定文件保存的路径。
步骤 14 getmerge 命令
- 功能:合并下载多个文件
执行 ls 命令,在/user/stu01/目录下有多个文件存在
- 执行命令:hdfs dfs -getmerge /user/stu01/* ./merge.txt */
可以看到当前目录下生成了一个 merge.txt 文件,里面的内容就是/user/stu01/下几个文件的合 集。
步骤 15 rm 命令
- 功能:删除 hdfs 文件或文件夹
- 执行命令:hdfs dfs -rm /user/stu01/stu01_5.txt
可以看到/user/stu01/目录下已经没有 stu01_5.txt 文件了。
步骤 16 df 命令
- 功能:统计文件系统的可用空间信息
- 执行命令:hdfs dfs -df -h /
步骤 17 du 命令
- 功能:统计文件夹的大小信息
- 执行命令:hdfs dfs -du -s -h /user/stu01
步骤 18 count 命令
- 功能:统计一个指定目录下的文件节点数量
- 执行命令:hdfs dfs -count -v /user/stu01
4 回收站使用
日常工作中,有时会误删文件。此时我们可以在 hdfs 的回收站中找到被误删的文件,回收站默认将被删除文件保存 7 天。例如误删了/user/stu01/stu01_5.txt 文件,此时 stu01_5.txt 文件被移动到回收站。
- 使用命令:hdfs dfs -ls /user/root/.Trash/Current/user/stu01/
可以查看到回收站中的 stu01_5.txt。
备注: 被删除数据默认保留 7 天
使用 mv 命令,将文件移动回/user/stu01/目录文件即可使用。