Hadoop3教程(三):HDFS文件系统常用命令一览

news/2024/5/20 5:09:44 标签: hdfs, hadoop, 大数据

文章目录

  • 语法格式
  • (44) HDFS的文件系统命令(开发重点)
  • 参考文献

语法格式

hdfs命令的完整形式:

hdfs [options] subcommand [subcommand options]

其中subcommand有三种形式:

  • admin commands
  • client commands:如本节重点要讲的dfs
  • daemon commands

(44) HDFS的文件系统命令(开发重点)

dfs(文件系统命令),这个是HDFS里,日常使用最为频繁的一种命令,用来在HDFS的文件系统上运行各种文件系统命令,如查看文件、删除文件等。

基本语法:

hadoop fs 具体命令
hdfs dfs 具体命令

这俩基本是一样的。

前一个命令据说是可以用于其他文件系统,不止是hdfs文件系统内。

后一个命令是专门针对hdfs分布式文件系统。推荐使用这个吧

据说原先还有个hadoop dfs,目前已经废弃不用了,被hdfs dfs所取代。

在shell里打hdfs dfs,可以查看其帮助命令(可以看到展示的是hadoop fs的):

Usage: hadoop fs [generic options]
        [-appendToFile <localsrc> ... <dst>]
        [-cat [-ignoreCrc] <src> ...]
        [-checksum <src> ...]
        [-chgrp [-R] GROUP PATH...]
        [-chmod [-R] <MODE[,MODE]... | OCTALMODE> PATH...]
        [-chown [-R] [OWNER][:[GROUP]] PATH...]
        [-copyFromLocal [-f] [-p] [-l] [-d] [-t <thread count>] <localsrc> ... <dst>]
        [-copyToLocal [-f] [-p] [-ignoreCrc] [-crc] <src> ... <localdst>]
        [-count [-q] [-h] [-v] [-t [<storage type>]] [-u] [-x] [-e] <path> ...]
        [-cp [-f] [-p | -p[topax]] [-d] <src> ... <dst>]
        [-createSnapshot <snapshotDir> [<snapshotName>]]
        [-deleteSnapshot <snapshotDir> <snapshotName>]
        [-df [-h] [<path> ...]]
        [-du [-s] [-h] [-v] [-x] <path> ...]
        [-expunge]
        [-find <path> ... <expression> ...]
        [-get [-f] [-p] [-ignoreCrc] [-crc] <src> ... <localdst>]
        [-getfacl [-R] <path>]
        [-getfattr [-R] {-n name | -d} [-e en] <path>]
        [-getmerge [-nl] [-skip-empty-file] <src> <localdst>]
        [-help [cmd ...]]
        [-ls [-C] [-d] [-h] [-q] [-R] [-t] [-S] [-r] [-u] [-e] [<path> ...]]
        [-mkdir [-p] <path> ...]
        [-moveFromLocal <localsrc> ... <dst>]
        [-moveToLocal <src> <localdst>]
        [-mv <src> ... <dst>]
        [-put [-f] [-p] [-l] [-d] <localsrc> ... <dst>]
        [-renameSnapshot <snapshotDir> <oldName> <newName>]
        [-rm [-f] [-r|-R] [-skipTrash] [-safely] <src> ...]
        [-rmdir [--ignore-fail-on-non-empty] <dir> ...]
        [-setfacl [-R] [{-b|-k} {-m|-x <acl_spec>} <path>]|[--set <acl_spec> <path>]]
        [-setfattr {-n name [-v value] | -x name} <path>]
        [-setrep [-R] [-w] <rep> <path> ...]
        [-stat [format] <path> ...]
        [-tail [-f] <file>]
        [-test -[defsz] <path>]
        [-text [-ignoreCrc] <src> ...]
        [-touch [-a] [-m] [-t TIMESTAMP ] [-c] <path> ...]
        [-touchz <path> ...]
        [-truncate [-w] <length> <path> ...]
        [-usage [cmd ...]]

Generic options supported are:
-conf <configuration file>        specify an application configuration file
-D <property=value>               define a value for a given property
-fs <file:///|hdfs://namenode:port> specify default filesystem URL to use, overrides 'fs.defaultFS' property from configurations.
-jt <local|resourcemanager:port>  specify a ResourceManager
-files <file1,...>                specify a comma-separated list of files to be copied to the map reduce cluster
-libjars <jar1,...>               specify a comma-separated list of jar files to be included in the classpath
-archives <archive1,...>          specify a comma-separated list of archives to be unarchived on the compute machines

The general command line syntax is:
command [genericOptions] [commandOptions]

下面展示一下常用的:

hdfs dfs -ls <path>	# 常规的ls展示目录信息
hdfs dfs -rm		# 删除文件
hdfs dfs -rmdir		# 删除目录
hdfs dfs -mkdir			# 创建路径
hdfs dfs -cp src> ... <dst>	# 将前面路径的文件拷贝到后面路径
hdfs dfs -mv			# 功能同上,但是是剪切式移动文件
hdfs dfs -count <path>	# 依次展示路径下的目录数、文件数、占用空间大小、路径
hdfs dfs -stat
hdfs dfs -tail		# 可以用于采样展示文本内容,显示一个文件的末尾1KB的数据
hdfs dfs -cat <src>		# 显示文件内容
hdfs dfs -touch		# 路径处生成空白文件,若文件已存在,则修改文件的访问时间
hdfs dfs -touchz	# 路径处生成空白文件,若文件存在,则什么都不发生,不会更改现有文件的时间戳
hdfs dfs -du <path>	# 打印路径下各子目录的空间占用情况,第一列表示实际文件大小,第二列表示实际文件大小 * 备份数
hdfs dfs -du -s <path>	# 直接加和,只显示最终的
hdfs dfs -df <path>		# 显示目录所在磁盘的整体空间占用,包含所有副本
hdfs dfs -setrep 副本数 filepath # 设置HDFS中文件的副本数量。如果设置的副本数超过了节点数,则实际只能有多少节点建多少副本
chgrp、-chmod、-chown # 跟Linux文件系统中的用法一样,修改文件所属权限


-getmerge # 合并下载

hdfs dfs 
# 上传下载类指令

hdfs dfs -appendToFile <localsrc>... <dst>	# 将所有给定的本地文件内容,全部追加到指定的hdfs文件末尾;若hdfs文件不存在则创建;若localstr是-,那么将会从终端stdin读取输入;
hdfs dfs -moveFromLocal <localsrc> ... <dst> # 从本地某个目录剪切到HDFS;
hdfs dfs -copyFromLocal <localsrc> ... <dst> # 从本地拷贝到HDFS
hdfs dfs -put <本地路径> <hdfs路径>	# 本地文件拷贝到hdfs中,作用等同于copyFromLocal,但生产中更常用-put

hdfs dfs -get <hdfs路径> <本地路径>	# hdfs文件下载到本地,生产中更习惯用get,而不是copyToLocal
hdfs dfs -copyToLocal <src> ... <localdst> # 从HDFS拷贝到本地

如果是想看单独一个命令的帮助信息,可以使用以下指令,如:

hdfs dfs -help mv

参考文献

  1. 【尚硅谷大数据Hadoop教程,hadoop3.x搭建到集群调优,百万播放】
  2. hadoop dfs、hadoop fs和hdfs dfs的区别
  3. 周末杂谈:关于Hadoop集群中,其创建文件的touch命令和touchz命令有什么区别?以及在什么样的情况下创建文件使用不同的命令。
  4. Hadoop官方文档-文件系统shell页
  5. HDFS常用命令总结

http://www.niftyadmin.cn/n/5086690.html

相关文章

Vulnhub系列靶机---Raven2

文章目录 Raven2 渗透测试信息收集提权UDF脚本MySQL提权SUID提权 Raven2 渗透测试 信息收集 查看存活主机 arp-scan -l 找到目标主机。 扫描目标主机上的端口、状态、服务类型、版本信息 nmap -A 192.168.160.47目标开放了 22、80、111 端口 访问一下80端口&#xff0c;并…

快速生成美观的二维码:专家级教程

首先&#xff0c;我们需要选择一个适合在线海报制作工具&#xff0c;比如乔拓云。乔拓云是一个非常流行的在线海报制作工具&#xff0c;它提供了大量的模板和编辑工具&#xff0c;让你可以轻松地制作出一张精美的Logo。 接下来&#xff0c;我们需要在乔拓云网站上注册并登录。在…

网工内推 | 运维专场,厂商、软考证书优先,五险一金,节日福利

01 中安网脉 招聘岗位&#xff1a;运维工程师 职责描述&#xff1a; 1、负责驻场单位内网日常运维工作&#xff1b; 2、负责驻场单位网络设备、安全设备、服务器、存储设备、主机等的日常运维工作&#xff0c;按照运维流程要求进行日常运维、巡检、故障处理等运维服务工作。 3…

ETL数据转换方式有哪些

ETL数据转换方式有哪些 ETL&#xff08;Extract&#xff0c; Transform&#xff0c; Load&#xff09;是一种常用的数据处理方式&#xff0c;用于从源系统中提取数据&#xff0c;进行转换&#xff0c;并加载到目标系统中。 数据清洗&#xff08;Data Cleaning&#xff09;&am…

什么是实验室超声波乳化?超声波乳化的工作原理?

乳液是什么&#xff1f;它是两种或多种不相混合的液体的共同体。那么&#xff0c;这些互不相容的液体是如何混合在一起的呢&#xff1f;这就要归功于超声波的神奇力量。超声波乳化棒&#xff0c;就像一个无形的魔法师&#xff0c;将高强度的超声波能量耦合到液体中&#xff0c;…

GEE:基于GLDAS数据集分析土壤湿度的时间序列变化

作者:CSDN @ _养乐多_ 本篇博客将介绍如何使用Google Earth Engine(GEE)进行土壤湿度数据的分析。我们将使用NASA GLDAS(Global Land Data Assimilation System)数据集,其中包括了关于土壤湿度的信息。通过该数据集,我们将了解土壤湿度在特定区域和时间段内的变化,并生…

windows频繁更新问题解决方案

解决方案&#xff1a;将更新策略增加到无穷大 1.windowsr 输入regedit 2.找到&#xff1a;HKEY_LOCAL_MACHINE\SOFTWARE\Microsoft\WindowsUpdate\UX\Settings 3.右键新建DWORD32 4.命名&#xff1a;FlightSettingsMaxPauseDays 5.双击&#xff1a;数值数据改为4321 基数&#…

1.1 向量与线性组合

一、向量的基础知识 两个独立的数字 v 1 v_1 v1​ 和 v 2 v_2 v2​&#xff0c;将它们配对可以产生一个二维向量 v \boldsymbol{v} v&#xff1a; 列向量 v v [ v 1 v 2 ] v 1 v 的第一个分量 v 2 v 的第二个分量 \textbf{列向量}\,\boldsymbol v\kern 10pt\boldsymbol …