12.5日记

发布时间 2023-12-05 20:17:41作者: zhangmingmingkjz
普通创建:hadoop fs -mkdir /xiaolin

递归创建:hadoop fs -mkdir -p /xiaolin/xiaoyin
2)从本地剪切文件粘贴到 HDFS 上(-moveFromLocal)

mkdir xuan.txt

hadoop fs -moveFromLocal xuan.txt /xiaolin
3)把本地文件复制到 HDFS 上(-copyFromLocal 或者 -put)

hadoop fs -copyFromLocal xuan.txt /

hadoop fs -put xuan.txt /
4)从 HDFS 复制文件到本地上(-copyToLocal 或者 -get)

hadoop fs -copyToLocal /xiaolin ./

hadoop fs -get /xiaolin ./
5)在 HDFS 里拷贝文件路径到另一个路径上(-cp)

hadoop fs -mkdir /xiaona

hadoop fs -cp /xiaolin/xuan.txt /xiaona/
6)追加文件到 HDFS 里的文件末尾(-appendToFile)

vim zero.txt

hadoop fs -appendToFile zero.txt /xiaolin/xuan.txt
7)显示文件内容(-cat)

hadoop fs -cat /xiaolin/xuan.txt
8)修改文件所属权限(-chmod)

hadoop fs -chmod 777 /xiaolin/xuan.txt
9)移动文件(-mv)

hadoop fs -mv /xiaolin/xuan.txt /xiaolin/xiaoyin
10)从 HDFS 里合并下载多个文件到本地(-getmerge)

hadoop fs -getmerge /xiaolin/* ./
11)删除文件或文件夹(-rm)

hadoop fs -rm /xiaolin/xiaoyin
12)设置 HDFS 中文件的副本数量(-setrep)

hadoop fs -setrep 5 /xiaolin/xuan.txt
13)查看 HDFS 目录数据量(-du)

Usage:hdfs dfs -du [-s] [-h] URI [URI …]

-s选项将显示文件长度的汇总摘要,而不是单个文件。

-h选项将以“人类可读”的方式格式化文件大小(例如64.0m而不是67108864)
14)创建一个零长度的文件(-touchz)

hdfs dfs -touchz URI [URI …]
15)显示文件所占块数(-stat)

Usage:hdfs dfs -stat URI [URI …]