HDFS常用命令操作

HDFS(Hadoop Distributed File System)是一种分布式文件系统,它具有高容错的特点,并且可以部署在廉价的通用硬件上,提高吞吐率的数据访问,适合那些需要处理海量数据集的应用程序。它提供了一套特有的、基于Hadoop抽象文件系统的API,支持以流的形式访问文件系统中的数据。本篇主要介绍HDFS的命令基本操作:

HDFS常用命令操作有:

hadoop fs -ls / (查询目录)
hadoop fs -mkdir /test (在根目录下创建一个目录test)
hadoop fs -put ./test.txt /test (将本地的test.txt文件上传到HDFS根目录下的test文件夹中去)
hadoop fs -copyFromLocal ./test.txt /test (同上)
hadoop fs -get /test/test.txt (从HDFS目录中获取文件)
hadoop fs -copyToLocal /test/test.txt (同上)
hadoop fs -cp /test/test.txt /test1 (HDFS内部的复制)
hadoop fs -rm /test1/test.txt (移除)
hadoop fs -mv /test/test.txt /test1 (如果两个目录是相同的,则该命令为重命名文件,否则为移动)
hadoop fs -rm -r /test1 (删除文件夹)
hadoop fs -help ls (查阅帮助,该命令为查看ls命令)
hadoop fs -cat README.txt(查看README.txt文件的内容)

首先确保Hadoop集群环境(可以参考前面的文章)可用,进入shell终端输入一下命令来对HDFS文件进行操作:

查询目录:hadoop fs -ls /

[root@probd01:/root]#hadoop fs -ls /
Found 8 items
drwxr-xr-x   - root supergroup          0 2019-05-08 15:02 /data
drwxr-xr-x   - root supergroup          0 2019-04-18 07:05 /hbase
drwxr-xr-x   - root supergroup          0 2019-04-28 07:23 /import
drwxr-xr-x   - root supergroup          0 2019-04-27 09:25 /demo
drwxr-xr-x   - root supergroup          0 2019-04-09 07:05 /imported
drwxr-xr-x   - root supergroup          0 2019-04-08 14:28 /spark223
drwxrwx---   - root supergroup          0 2019-05-08 15:04 /tmp
drwxr-xr-x   - root supergroup          0 2019-04-08 13:47 /user
drwx-wx-wx   - root supergroup          0 2019-04-08 13:25 /usr

列出来的是本集群的HDFS目录情况,包括权限、所有者、大小和修改时间。

创建目录:hadoop fs -mkdir /目录名

[root@probd01:/root]#hadoop fs -ls /       
Found 9 items
drwxr-xr-x   - root supergroup          0 2019-05-08 15:02 /data
drwxr-xr-x   - root supergroup          0 2019-04-18 07:05 /hbase
drwxr-xr-x   - root supergroup          0 2019-04-28 07:23 /import
drwxr-xr-x   - root supergroup          0 2019-04-27 09:25 /demo
drwxr-xr-x   - root supergroup          0 2019-04-09 07:05 /imported
drwxr-xr-x   - root supergroup          0 2019-04-08 14:28 /spark223
drwxr-xr-x   - root supergroup          0 2019-05-16 07:53 /test
drwxrwx---   - root supergroup          0 2019-05-08 15:04 /tmp
drwxr-xr-x   - root supergroup          0 2019-04-08 13:47 /user
drwx-wx-wx   - root supergroup          0 2019-04-08 13:25 /usr

上传文件到HDFS目录下:hadoop fs -put 本地文件路径 /HDFS目录 或者 hadoop fs -copyFromLocal 本地文件路径 /HDFS目录
首先我们用vim编写一个叫test.txt的文件,然后上传到HDFS中的test目录下。

[root@probd01:/root]#vim test.txt

hello HDFS
~                                                                                          
~                                                                                                                                                                           
"test.txt" [New] 2L, 12C written                                         
[root@probd01:/root]#
[root@probd01:/root]#hadoop fs -put ./test.txt /test
[root@probd01:/root]#hadoop fs -ls /test            
Found 1 items
-rw-r--r--   3 root supergroup         12 2019-05-16 08:02 /test/test.txt
[root@probd01:/root]#vim test1.txt
hello HDFS
~                                                                                          
~                                                                                                                                                                       
"test1.txt" [New] 1L, 11C written                                        
[root@probd01:/root]#
[root@probd01:/root]#hadoop fs -copyFromLocal test1.txt /test
[root@probd01:/root]#hadoop fs -ls /test
Found 2 items
-rw-r--r--   3 root supergroup         12 2019-05-16 08:02 /test/test.txt
-rw-r--r--   3 root supergroup         11 2019-05-16 08:09 /test/test1.txt

从HDFS中获取文件:hadoop fs -get /目录/文件名 或者 hadoop fs -copyToLocal /目录/文件名

[root@probd01:/root]#cd mytest/
[root@probd01:/root/mytest]#ls
[root@probd01:/root/mytest]#hadoop fs -get /test/test1.txt
[root@probd01:/root/mytest]#ls
test1.txt
[root@probd01:/root/mytest]#cat test1.txt 
hello HDFS
[root@probd01:/root/mytest]#hadoop fs -copyToLocal /test/test.txt   
[root@probd01:/root/mytest]#ls
test1.txt  test.txt
[root@probd01:/root/mytest]#cat test.txt

hello HDFS

HDFS内部文件的复制: hadoop fs -cp /目录/文件名 /目录

[root@probd01:/root/mytest]#hadoop fs -cp /test/test.txt /test1
[root@probd01:/root/mytest]#hadoop fs -ls /test1
-rw-r--r--   3 root supergroup         12 2019-05-16 08:24 /test1

HDFS文件的移除:hadoop fs -rm /目录/文件名

[root@probd01:/root/mytest]#hadoop fs -rm /test/test1.txt
19/05/16 08:26:39 INFO fs.TrashPolicyDefault: Namenode trash configuration: Deletion interval = 1440 minutes, Emptier interval = 0 minutes.
Moved: 'hdfs://probd/test/test1.txt' to trash at: hdfs://probd/user/root/.Trash/Current
[root@probd01:/root/mytest]#hadoop fs -ls /test      
Found 1 items
-rw-r--r--   3 root supergroup         12 2019-05-16 08:02 /test/test.txt

可以看到在原来的目录里面已经成功将文件移除,但是这里出现了一个提示信息,这里信息需要注意一下,在linux系统里,我们知道没有回收站的概念,所以rm -rf导致的结果是非常严重的。然而在hadoop或者说hdfs里面,有trash相关的概念,可以使得数据被误删以后,还可以找回来。从上面我们可以看到,删除的文件只是被移动到了"/user/root/.Trash/Current"中,我们进入里面看到底是不是存在:

[root@probd01:/root/mytest]#hadoop fs -ls /user/root/.Trash/Current
Found 1 items
drwx------   - root supergroup          0 2019-05-16 08:26 /user/root/.Trash/Current/test
[root@probd01:/root/mytest]#hadoop fs -ls /user/root/.Trash/Current/test
Found 1 items
-rw-r--r--   3 root supergroup         11 2019-05-16 08:09 /user/root/.Trash/Current/test/test1.txt

是的,的确存在,而且保存的还是文件之前的整个路径,以便在恢复的时候能够回到原来的位置。
我们回过头看之前的提示信息,还有一个Deletion interval = 1440 minutes, Emptier interval = 0 minutes,这个是什么东西?
原来在hadoop里有一个trash选项设置,这个选项默认是关闭的。所以如果要生效,需要提前将trash选项打开。修改conf里的core-site.xml即可。我们集群的相关配置如下:

<!--Enabling Trash-->
    <property>
        <name>fs.trash.interval</name>
        <value>1440</value>
    </property>
    <property>
        <name>fs.trash.checkpoint.interval</name>
        <value>1440</value>
    </property>

fs.trash.interval是在指在这个回收周期之内,文件实际上是被移动到trash的这个目录下面,而不是马上把数据删除掉。等到回收周期真正到了以后,hdfs才会将数据真正删除。默认的单位是分钟,1440分钟=60*24,刚好是一天。
fs.trash.checkpoint.interval则是指垃圾回收的检查间隔,应该是小于或者等于fs.trash.interval。

移动或重命名文件:hadoop fs -mv /目录/文件名 /目录
如果两个目录是相同的,则该命令为重命名文件,否则为移动。
重命名:

[root@probd01:/root/mytest]#hadoop fs -mv /test/test.txt /test/test2.txt
[root@probd01:/root/mytest]#hadoop fs -ls /test
Found 1 items
-rw-r--r--   3 root supergroup         12 2019-05-16 08:02 /test/test2.txt

移动:

[root@probd01:/root/mytest]#hadoop fs -mv /test/test2.txt /demo
[root@probd01:/root/mytest]#hadoop fs -ls /demo
Found 1 items
-rw-r--r--   3 root supergroup         12 2019-05-16 08:02 /demo/test2.txt
[root@probd01:/root/mytest]#hadoop fs -ls /test
[root@probd01:/root/mytest]#

查看文件内容:hadoop fs -cat 文件

[root@probd01:/root/mytest]#hadoop fs -cat /demo/test2.txt

hello HDFS

查阅帮助:hadoop fs -help 命令

[root@probd01:/root/mytest]#hadoop fs -help ls
-ls [-d] [-h] [-R] [<path> ...] :
  List the contents that match the specified file pattern. If path is not
  specified, the contents of /user/<currentUser> will be listed. Directory entries
  are of the form:
        permissions - userId groupId sizeOfDirectory(in bytes)
  modificationDate(yyyy-MM-dd HH:mm) directoryName
  
  and file entries are of the form:
        permissions numberOfReplicas userId groupId sizeOfFile(in bytes)
  modificationDate(yyyy-MM-dd HH:mm) fileName
                                                                                 
  -d  Directories are listed as plain files.                                     
  -h  Formats the sizes of files in a human-readable fashion rather than a number
      of bytes.                                                                  
  -R  Recursively list the contents of directories.

删除文件夹:hadoop fs -rm -r /目录

[root@probd01:/root/mytest]#hadoop fs -rm -r /test
19/05/16 11:30:16 INFO fs.TrashPolicyDefault: Namenode trash configuration: Deletion interval = 1440 minutes, Emptier interval = 0 minutes.
Moved: 'hdfs://probd/test' to trash at: hdfs://probd/user/root/.Trash/Current

还是和上面一样,删除的文件夹被移动到了/user/root/.Trash/Current中,以便以后需要的时候能够恢复。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 194,319评论 5 459
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 81,801评论 2 371
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 141,567评论 0 319
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 52,156评论 1 263
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 61,019评论 4 355
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 46,090评论 1 272
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 36,500评论 3 381
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 35,192评论 0 253
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 39,474评论 1 290
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 34,566评论 2 309
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 36,338评论 1 326
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 32,212评论 3 312
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 37,572评论 3 298
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 28,890评论 0 17
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,169评论 1 250
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 41,478评论 2 341
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 40,661评论 2 335

推荐阅读更多精彩内容

  • 首先,我们在使用前先看看HDFS是什麽?这将有助于我们是以后的运维使用和故障排除思路的获得。 HDFS采用mast...
    W_Bousquet阅读 4,127评论 0 2
  • 翻译: http://hadoop.apache.org/docs/stable/hadoop-project-d...
    金刚_30bf阅读 3,197评论 1 5
  • HDFS入门 hadoop架构 Hadoop 1.0中的资源管理方案 Hadoop 1.0指的是版本为Apache...
    依天立业阅读 1,035评论 0 1
  • 总结一下过去的一周。真是非常忙碌的一周。 发生了一些没有预料过的事,其中之一就是因为小组长突然休假,被告知要在第二...
    Tsuya阅读 218评论 0 0
  • 当时光把你 也锁定在 贵州 我的心 條地 亲了一下 在红果 对那条浅浅的水 湾湾的路而言 忽然延伸了的 是概念 或...
    江城妖怪阅读 188评论 3 1