龙空技术网

2、HDFS操作 - shell客户端

技术直男 210

前言:

今天同学们对“centos rm命令”大概比较讲究,朋友们都需要了解一些“centos rm命令”的相关知识。那么小编也在网络上汇集了一些对于“centos rm命令””的相关知识,希望看官们能喜欢,看官们快快来学习一下吧!

一、语法格式

HDFS是存取数据的分布式文件系统,那么对HDFS的操作,就是文件系统的基本操作,比如文件的创建、修改、删除、修改权限等,文件夹的创建、删除、重命名等。对HDFS的操作命令类似于Linux的shell对文件的操作,如ls、mkdir、rm等。

HDFS Shell CLI支持操作多种文件系统,包括本地文件系统()、分布式文件系统(hdfs://nn:8020)等操作的是什么文件系统取决于URL中的前缀协议。如果没有指定前缀,则将会读取环境变量中的fs.defaultFS属性,以该属性值作为默认文件系统

hdfs dfs -ls #操作本地文件系统

hdfs dfs -ls hdfs://server1:8020/ #操作HDFS分布式文件系统

hdfs dfs -ls / #直接根目录,没有指定协议 将加载读取fs.defaultFS值

hadoop dfs、hdfs dfs、 hadoop fs 三者区别

hadoop dfs 只能操作HDFS文件系统(包括与Local FS间的操作),不过已经Deprecated

hdfs dfs 只能操作HDFS文件系统相关(包括与Local FS间的操作),常用

hadoop fs 可操作任意文件系统,不仅仅是hdfs文件系统,使用范围更广

目前版本来看,官方最终推荐使用的是hadoop fs。当然hdfs dfs在市面上的使用也比较多。

语法格式

[root@server1 ~]# hdfs

Usage: hdfs [OPTIONS] SUBCOMMAND [SUBCOMMAND OPTIONS]

OPTIONS is none or any of:

--buildpaths attempt to add class files from build tree

--config dir Hadoop config directory

--daemon (start|status|stop) operate on a daemon

--debug turn on shell script debug mode

--help usage information

--hostnames list[,of,host,names] hosts to use in worker mode

--hosts filename list of hosts to use in worker mode

--loglevel level set the log4j level for this command

--workers turn on worker mode

SUBCOMMAND is one of:

Admin Commands:

cacheadmin configure the HDFS cache

crypto configure HDFS encryption zones

debug run a Debug Admin to execute HDFS debug commands

dfsadmin run a DFS admin client

dfsrouteradmin manage Router-based federation

ec run a HDFS ErasureCoding CLI

fsck run a DFS filesystem checking utility

haadmin run a DFS HA admin client

jmxget get JMX exported values from NameNode or DataNode.

oev apply the offline edits viewer to an edits file

oiv apply the offline fsimage viewer to an fsimage

oiv_legacy apply the offline fsimage viewer to a legacy fsimage

storagepolicies list/get/set block storage policies

Client Commands:

classpath prints the class path needed to get the hadoop jar and the required libraries

dfs run a filesystem command on the file system

envvars display computed Hadoop environment variables

fetchdt fetch a delegation token from the NameNode

getconf get config values from configuration

groups get the groups which users belong to

lsSnapshottableDir list all snapshottable dirs owned by the current user

snapshotDiff diff two snapshots of a directory or diff the current directory contents with a snapshot

version print the version

Daemon Commands:

balancer run a cluster balancing utility

datanode run a DFS datanode

dfsrouter run the DFS router

diskbalancer Distributes data evenly among disks on a given node

httpfs run HttpFS server, the HDFS HTTP Gateway

journalnode run the DFS journalnode

mover run a utility to move block replicas across storage types

namenode run the DFS namenode

nfs3 run an NFS version 3 gateway

portmap run a portmap service

secondarynamenode run the DFS secondary namenode

zkfc run the ZK Failover Controller daemon

SUBCOMMAND may print help when invoked w/o parameters or with -h.

# 查看HDFS中/parent/child目录下的文件或者文件夹

hdfs dfs -ls /parent/child

#所有HDFS命令都可以通过bin/hdfs脚本执行。

# 查看指定目录下的文件

hdfs dfs -ls hdfs://namenode:host/parent/child

# hdfs-site.xml中的fs.defaultFS中有配置

hdfs dfs -ls /parent/child

二、具体命令示例1、mkdir命令

格式 : hdfs dfs -mkdir [-p]

作用 : 以中的URI作为参数,创建目录。使用-p参数可以递归创建目录

hdfs dfs -mkdir /dir1

hdfs dfs -mkdir /dir2

hdfs dfs -mkdir -p /aaa/bbb/ccc

[alanchan@server1 ~]$ hdfs dfs -mkdir /dir1

[alanchan@server1 ~]$ hdfs dfs -mkdir /dir2

[alanchan@server1 ~]$ hdfs dfs -mkdir -p /aaa/bbb/ccc

[alanchan@server1 ~]$ hadoop fs -ls /

Found 3 items

drwxr-xr-x - alanchan supergroup 0 2022-08-26 13:09 /dir1

drwxr-xr-x - alanchan supergroup 0 2022-08-26 13:09 /dir2

[alanchan@server1 ~]$ hadoop fs -ls /

Found 4 items

drwxr-xr-x - alanchan supergroup 0 2022-08-26 13:17 /aaa

drwxr-xr-x - alanchan supergroup 0 2022-08-26 13:09 /dir1

drwxr-xr-x - alanchan supergroup 0 2022-08-26 13:09 /dir2

[alanchan@server1 ~]$ hadoop fs -ls -R /

drwxr-xr-x - alanchan supergroup 0 2022-08-26 13:17 /aaa

drwxr-xr-x - alanchan supergroup 0 2022-08-26 13:17 /aaa/bbb

drwxr-xr-x - alanchan supergroup 0 2022-08-26 13:17 /aaa/bbb/ccc

drwxr-xr-x - alanchan supergroup 0 2022-08-26 13:09 /dir1

drwxr-xr-x - alanchan supergroup 0 2022-08-26 13:09 /dir2

2、ls命令

格式: hdfs dfs -ls [-R] URI

作用:类似于Linux的ls命令,显示文件列表

hdfs dfs -ls -R /

-R:表示递归展示目录下的内容

[alanchan@server1 ~]$ hadoop fs -ls /

Found 4 items

drwxr-xr-x - alanchan supergroup 0 2022-08-26 13:17 /aaa

drwxr-xr-x - alanchan supergroup 0 2022-08-26 13:09 /dir1

drwxr-xr-x - alanchan supergroup 0 2022-08-26 13:09 /dir2

[alanchan@server1 ~]$ hadoop fs -ls -R /

drwxr-xr-x - alanchan supergroup 0 2022-08-26 13:17 /aaa

drwxr-xr-x - alanchan supergroup 0 2022-08-26 13:17 /aaa/bbb

drwxr-xr-x - alanchan supergroup 0 2022-08-26 13:17 /aaa/bbb/ccc

drwxr-xr-x - alanchan supergroup 0 2022-08-26 13:09 /dir1

drwxr-xr-x - alanchan supergroup 0 2022-08-26 13:09 /dir2

3、put命令

-put参数可以将单个的源文件src或者多个源文件src从本地文件系统拷贝到目标文件系统中(对应的路径)。也可以从标准输入中读取输入,写入目标文件系统中。

语法格式:hadoop fs -put [-f] [-p] …

-f 覆盖目标文件(已存在下)

-p 保留访问和修改时间,所有权和权限。

localsrc 本地文件系统(客户端所在机器)

dst 目标文件系统(HDFS)

[alanchan@server1 sbin]$ hdfs dfs -put /usr/local/bigdata/hadoop-3.1.4/README.txt /dir1

[alanchan@server1 sbin]$ hdfs dfs -ls -R /dir1

-rw-r--r-- 3 alanchan supergroup 1366 2022-08-26 13:43 /dir1/README.txt

4、 rm 命令

删除参数指定的文件和目录,参数可以有多个,删除目录需要加-r参数如果指定-skipTrash选项,那么在回收站可用的情况下,该选项将跳过回收站而直接删除文件;否则,在回收站可用时,在HDFS Shell 中执行此命令,会将文件暂时放到回收站中。

hdfs dfs -rm [-r] [-skipTrash] URI [URI…]

[alanchan@server1 sbin]$ hdfs dfs -ls -R /

drwxr-xr-x - alanchan supergroup 0 2022-08-26 13:17 /aaa

drwxr-xr-x - alanchan supergroup 0 2022-08-26 13:17 /aaa/bbb

drwxr-xr-x - alanchan supergroup 0 2022-08-26 13:17 /aaa/bbb/ccc

drwxr-xr-x - alanchan supergroup 0 2022-08-26 13:43 /dir1

-rw-r--r-- 3 alanchan supergroup 1366 2022-08-26 13:43 /dir1/README.txt

drwxr-xr-x - alanchan supergroup 0 2022-08-26 13:09 /dir2

drwxr-xr-x - alanchan supergroup 0 2022-08-26 12:34 /testhadoopcreate

[alanchan@server1 sbin]$ hdfs dfs -rm /aaa

rm: `/aaa': Is a directory

[alanchan@server1 sbin]$ hdfs dfs -rm -r /aaa

Deleted /aaa

[alanchan@server1 sbin]$ hdfs dfs -ls -R /

drwxr-xr-x - alanchan supergroup 0 2022-08-26 13:43 /dir1

-rw-r--r-- 3 alanchan supergroup 1366 2022-08-26 13:43 /dir1/README.txt

drwxr-xr-x - alanchan supergroup 0 2022-08-26 13:09 /dir2

drwxr-xr-x - alanchan supergroup 0 2022-08-26 12:34 /testhadoopcreate

5、moveFromLocal 命令

和put参数类似,但是源文件localsrc拷贝之后自身被删除

语法格式:hdfs dfs -moveFromLocal

[alanchan@server1 sbin]$ hdfs dfs -moveFromLocal /usr/local/bigdata/hadoop-3.1.4/README.txt /dir2

[alanchan@server1 sbin]$ hdfs dfs -ls -R /

drwxr-xr-x - alanchan supergroup 0 2022-08-26 13:43 /dir1

-rw-r--r-- 3 alanchan supergroup 1366 2022-08-26 13:43 /dir1/README.txt

drwxr-xr-x - alanchan supergroup 0 2022-08-26 13:52 /dir2

-rw-r--r-- 3 alanchan supergroup 1366 2022-08-26 13:52 /dir2/README.txt

drwxr-xr-x - alanchan supergroup 0 2022-08-26 12:34 /testhadoopcreate

[alanchan@server1 sbin]$ ls /usr/local/bigdata/hadoop-3.1.4

bin dfs etc include lib libexec LICENSE.txt logs NOTICE.txt sbin share

6、 -get

将文件拷贝到本地文件系统,可以通过指定-ignorecrc选项拷贝CRC校验失败的文件。-crc选项表示获取文件以及CRC校验文件。

语法格式:

hadoop fs -get [-f] [-p] …

下载文件到本地文件系统指定目录,localdst必须是目录

-f 覆盖目标文件(已存在下)

-p 保留访问和修改时间,所有权和权限。

hadoop fs -getmerge [-nl] [-skip-empty-file]

下载多个文件合并到本地文件系统的一个文件中。

-nl选项表示在每个文件末尾添加换行符

[alanchan@server1 sbin]$ cd /usr/local/bigdata

[alanchan@server1 bigdata]$ ll

drwxr-xr-x 11 alanchan root 4096 8月 26 13:52 hadoop-3.1.4

-rw-r--r-- 1 alanchan root 303134111 8月 23 16:49 hadoop-3.1.4-bin-snappy-CentOS7.tar.gz

[alanchan@server1 bigdata]$ hadoop fs -get /dir1/README.txt /usr/local/bigdata

[alanchan@server1 bigdata]$ ll

总用量 325876

drwxr-xr-x 11 alanchan root 4096 8月 26 13:52 hadoop-3.1.4

-rw-r--r-- 1 alanchan root 303134111 8月 23 16:49 hadoop-3.1.4-bin-snappy-CentOS7.tar.gz

-rw-r--r-- 1 alanchan root 1366 8月 26 14:21 README.txt

7、cat 命令

将参数所指示的文件内容输出到控制台。注意:对于大文件内容读取,慎重。

语法格式:

hdfs dfs -cat URI [uri …]

8、head 命令

显示要输出的文件的开头的1KB数据。

语法格式:

hdfs dfs -head URI

9、tail 命令

显示文件结尾的1kb数据。

语法格式:

hdfs dfs -tail [-f] URI

#与Linux中一样,-f选项表示数据只要有变化也会输出到控制台。

10、 cp拷贝命令

将文件拷贝到目标路径中。如果 为目录的话,可以将多个文件拷贝到该目录下。

语法格式:

hdfs dfs -cp URI [URI …]

命令行选项:

-f 选项将覆盖目标,如果它已经存在

-p 选项将保留文件属性(时间戳、所有权、许可、ACL、XAttr)。

11、appendToFile 命令

追加一个或者多个文件到hdfs指定文件中.也可以从命令行读取输入

语法格式:

hadoop fs -appendToFile …

所有给定本地文件的内容追加到给定dst文件。

dst如果文件不存在,将创建该文件。

如果为-,则输入为从标准输入中读取。

12、 df 命令

df命令用来查看HDFS空闲的空间。

hdfs dfs -df [-h] URI [URI …]

13、du 命令

显示目录中所有文件大小,当只指定一个文件时,显示此文件的大小。

语法格式:

hdfs dfs -du [-s] [-h] [-v] [-x] URI [URI …]

命令选项:

-s:表示显示文件长度的汇总摘要,而不是单个文件的摘要。

-h:选项将以“人类可读”的方式格式化文件大小

-v:选项将列名显示为标题行。

-x:选项将从结果计算中排除快照。

14、mv 命令

将hdfs上的文件从原路径移动到目标路径(移动之后文件删除),该命令不能跨文件系统。

hadoop fs -mv …

移动文件到指定文件夹下

可以使用该命令移动数据,重命名文件的名称

15、setrep 命令

更改文件的副本因子。 如果path是目录,则该命令以递归方式更改以path为根的目录树下所有文件的复制因子。

hadoop fs -setrep [-R] [-w] …

修改指定文件的副本个数。

-R表示递归 修改文件夹下及其所有

-w 客户端是否等待副本修改完毕

16、checksum

返回文件的校验和信息。

17、copyFromLocal

与put命令类似,将本地文件拷贝到HDFS。但put命令可以传多个文件、或者是标准输入(-)。

18、copyToLocal

与get命令类似,但只拷贝到一个本地文件

19、count

计算与指定文件模式匹配的路径下的目录,文件和字节数。 获取配额和使用情况。 具有-count的输出列是:DIR_COUNT,FILE_COUNT,CONTENT_SIZE,PATHNAME

20、find

查找与指定表达式匹配的所有文件,并对它们应用选定的操作。 如果未指定路径,则默认为当前工作目录。 如果未指定表达式,则默认为-print。

21、更多命令

标签: #centos rm命令