• Hadoop之HDFS使用命令(常用)


    本篇仅记载部分常用命令

    若无所需命令可查看官方网站Apache Hadoop 3.3.6 – Overview

    :一切命令仅在启动HDFS集群后执行,否则会报错

    注:仅在hadoop用户下操作

            在Linux中超级用户是:root

            但HDFS的超级用户是:启动namenode的用户,及本篇文          章的hadoop用户

    如用root用户执行hadoop命令会报错

    HDFS操作命令,Hadoop提供了两套

    hadoop命令(老版)

    hadoop fs [generic options]

    hdfs命令 (新版)

    hdfs dfs [generic options]

    协议头区分

    Linux

    file:///

    HDFS

    hdfs://namenode:port/

    例:

    1. Linux:file:///usr/local/hello.txt
    2. HDFS: hdfs://node1:8020/usr/local/hello.txt
    3. # 注:协议头file:///或hdfs://node1:8020/可以省略
    4. # 除非明确要写或者不写有BUG,否则一般不用写

    HDFS集群启停命令

    一键启停

    1. # 一键启动HDFS集群
    2. start-dfs.sh
    3. # 一键停止HDFS集群
    4. stop-dfs.sh

    单进程启停

    注:仅控制所在机器的进程的启停

    1. hadoop-daemon.sh (start|status|stop) (namenode|secondarynamenode|datanode)
    2. hdfs --daemon (start|status|stop) (namenode|secondarynamenode|datanode)
    3. # start 启动 status 查看状态 stop 停止

    例:jps命令是查看当前启动的集群,目前是都启动了

    利用hadoop-daemon.sh stop datanode命令将datanode进程给停止了

    注:warning是表明hadoop-daemon.sh这个命令过时了,推荐用hdfs --daemon

    但不影响使用

    创建文件夹

    1. hadoop fs -mkdir [-p] ...
    2. hdfs dfs -mkdir [-p] ...
    3. # path 为待创建的目录
    4. # -p 沿着路经创建父目录

     例:创建/huan/haha文件夹

    注:hadoop fs -ls / 查看hadhdfs的hdfs根目录下的内容

           hadoop fs -ls /huan 查看hadhdfs的hdfs的huan目录下的内容

    查看指定目录下内容

    1. hadoop fs -ls [-h] [-R] [ ...]
    2. hdfs dfs -ls [-h] [-R] [ ...]
    3. # path 指定目录路径
    4. # -h 人性化显示文件size
    5. # -R 递归查看指定目录及其子目录

     上传文件到HDFS指定目录下(从Linux--->HDFS)

    1. hadoop fs -put [-f] [-p] ...
    2. hdfs dfs -put [-f] [-p] ...
    3. # -f 覆盖目标文件(已存在的)
    4. # -p 保留访问和修改时间,所有权和权限
    5. # localsrc 本地文件系统(客户端所在机器)
    6. # dst 目标文件系统(HDFS)

    例:将Liunx目录下的test.txt上传到hdfs根目录下

    查看HDFS文件内容

    1. hadoop fs -cat ...
    2. hdfs dfs -cat ...

    读取大文件可以使用管道符配合more

    1. hadoop fs -cat | more
    2. hdfs dfs -cat | more
    3. # 按空格可翻页查看

    例:查看text.txt文件中的内容

     下载HDFS文件(从HDFS--->Linux)

    1. hadoop fs -get [-f] [-p] ...
    2. hdfs dfs -get [-f] [-p] ...
    3. # localdst 必修是目录
    4. # -f 覆盖目标文件 (已存在)
    5. # -p 保留访问和修改时间,所有权和权限

    例:将HDFS的huan下载到Linux

     

     

    拷贝HDFS文件(HDFS--->HDFS)

    注:可将复制的文件改名

    1. hadoop fs -cp [-f] ...
    2. hdfs dfs -cp [-f] ...
    3. # -f 覆盖目标文件(已存在)

    例:将HDFS下的test.txt文件复制到HDFS下的huan目录下

    例:将test,txt复制到huan目录下改名为ad.txt

    追加数据到HDFS文件夹中(Linux-->HDFS)

    1. hadoop fs -appendToFile ...
    2. hdfs dfs -appendToFile ...
    3. # 将所有给定本地文件的内容追加到给定dst文件
    4. # dst如果文件不存在,将创建该文件

    例:创建app.txt文件,将其添加到HDFS的test.txt文件中

    HDFS数据移动操作

    1. hadoop fs -mv ...
    2. hdfs dfs -mv ...
    3. # 移动文件到指定文件夹下,可重命名文件名称

    例:将HDFS下的test.txt移动到HDFS下的huan目录下并改名为qwe.txt

     

    HDFS数据删除操作

    1. hadoop fs -rm -r [-skipTrash] URI [URI ...]
    2. hdfs dfs -rm -r [-skipTrash] URI [URI ...]
    3. # 删除指定路径的文件或文件夹
    4. # -skipTrash 跳过回收站,直接删除

    注: 1440代表在回收站的时间为一天,120表示俩小时检查一次回收站,将到时间的清除 

            回收站在哪个机器配则在哪个机器生效

    例:将huan目录下的qwe.txt删除

    HDFS中修改所属用户和组

    1. hadoop fs -chown [-R] root:root /xxx.txt
    2. hdfs dfs -chown [-R] root:root /xxx.txt

    例:将huan目录下的ad.txt改为root用户

     

    HDFS修改权限

    1. hadoop fs -chmod [-R] 777 /xxx.txt
    2. hdfs dfs -chmod [-R] 777 /xxx.txt

    例:将huan目录下的text.txt文件权限修改为777 

     

    HDFS WEB UI权限修改

  • 相关阅读:
    Java线程池中哪些事??
    Day 45 | 70. 进阶爬楼梯 & 322. 零钱兑换 & 279.完全平方数
    资深测试面试-参考一下
    AWTK 表格视图的实现原理和用法
    包装类和认识泛型
    [附源码]计算机毕业设计JAVA高校知识产权管理系统论文2022
    【pyqt5界面化工具开发-14】初始牛刀-登录工具
    防孤岛保护装置在光伏行业的应用
    【日常总结】java JSON 转 实体类 (含多层嵌套)
    (附源码)计算机毕业设计SSM基于技术的高校学生勤工俭学管理系统的设计与开发
  • 原文地址:https://blog.csdn.net/m0_68319844/article/details/132231812