• Hadoop中HDFS的API操作、客户端环境准备、配置HADOOP_HOME环境变量


    7.HDFS的API操作

    7.1客户端环境准备

    7.1.1下载下面的Windows依赖文件夹,拷贝hadoop-3.1.0到非中文路径(比如d:\)

    链接:https://pan.baidu.com/s/1-B2iyb-l0poGTgIZRj24VA?pwd=8h77
    提取码:8h77

    7.1.2配置HADOOP_HOME环境变量

    在这里插入图片描述

    7.1.3配置Path环境变量

    注意:如果环境变量不起作用,可以重启电脑试试。

    在这里插入图片描述

    验证Hadoop环境变量是否正常。双击winutils.exe,如果报如下错误。说明缺少微软运行库(正版系统往往有这个问题)。
    这个是对应的资料包微软运行库安装包双击安装即可。
    链接:https://pan.baidu.com/s/152Z3eodwLnZsKshKhNmcxg?pwd=ibfg
    提取码:ibfg

    在这里插入图片描述

    7.1.4在IDEA中创建一个Maven工程HdfsClientDemo,并导入相应的依赖坐标+日志添加

    在这里插入图片描述

    在这里插入图片描述

    点next

    在这里插入图片描述

    点finish

    <dependencies>
        <dependency>
            <groupId>org.apache.hadoop</groupId>
            <artifactId>hadoop-client</artifactId>
            <version>3.1.3</version>
        </dependency>
        <dependency>
            <groupId>junit</groupId>
            <artifactId>junit</artifactId>
            <version>4.12</version>
        </dependency>
        <dependency>
            <groupId>org.slf4j</groupId>
            <artifactId>slf4j-log4j12</artifactId>
            <version>1.7.30</version>
            </dependency>
    </dependencies>
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17

    在这里插入图片描述

    如果爆红的话,等他加载一会,要是右下角没有加载可以重启下idea

    在项目的src/main/resources目录下,新建一个文件,命名为“log4j.properties”,在文件中填入

    在这里插入图片描述

    log4j.rootLogger=INFO, stdout  
    log4j.appender.stdout=org.apache.log4j.ConsoleAppender  
    log4j.appender.stdout.layout=org.apache.log4j.PatternLayout  
    log4j.appender.stdout.layout.ConversionPattern=%d %p [%c] - %m%n  
    log4j.appender.logfile=org.apache.log4j.FileAppender  
    log4j.appender.logfile.File=target/spring.log  
    log4j.appender.logfile.layout=org.apache.log4j.PatternLayout  
    log4j.appender.logfile.layout.ConversionPattern=%d %p [%c] - %m%n
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8

    在这里插入图片描述

    7.1.5创建包名:com.summer.hdfs

    在这里插入图片描述

    7.1.6创建HdfsClient类

    在这里插入图片描述

    package com.summer.hdfs;
    
    import org.apache.hadoop.conf.Configuration;
    import org.apache.hadoop.fs.FileSystem;
    import org.apache.hadoop.fs.Path;
    import org.junit.Test;
    
    import java.io.IOException;
    import java.net.URI;
    import java.net.URISyntaxException;
    
    /**
     * @author Redamancy
     * @create 2022-08-15 17:59
     */
    public class HdfsClient {
    
        @Test
        public void testMkdir() throws URISyntaxException, IOException, InterruptedException {
            //连接的集群nn地址
            URI uri = new URI("hdfs://hadoop102:8020");
            //创建一个配置文件
            Configuration configuration = new Configuration();
            //用户
            String user = "summer";
            //获取到了客户端对象
            FileSystem fs = FileSystem.get(uri, configuration,user);
            //创建一个文件夹
            fs.mkdirs(new Path("/xiyou/huaguoshan"));
            //关闭资源
            fs.close();
        }
    }
    
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    • 30
    • 31
    • 32
    • 33
    • 34

    在这里插入图片描述

    在这里插入图片描述

    在这里插入图片描述

    7.1.6.1封装代码:

    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述

    package com.summer.hdfs;
    
    import org.apache.hadoop.conf.Configuration;
    import org.apache.hadoop.fs.FileSystem;
    import org.apache.hadoop.fs.Path;
    import org.junit.After;
    import org.junit.Before;
    import org.junit.Test;
    
    import java.io.IOException;
    import java.net.URI;
    import java.net.URISyntaxException;
    
    /**
     * @author Redamancy
     * @create 2022-08-15 17:59
     */
    
    
    public class HdfsClient {
        private FileSystem fs;
        @Before
        public void init() throws URISyntaxException, IOException, InterruptedException {
            //连接的集群nn地址
            URI uri = new URI("hdfs://hadoop102:8020");
            //创建一个配置文件
            Configuration configuration = new Configuration();
            //用户
            String user = "summer";
            //获取到了客户端对象
            fs = FileSystem.get(uri, configuration,user);
        }
        @After
        public void close() throws IOException {
            //关闭资源
            fs.close();
        }
    
        @Test
        public void testMkdir() throws URISyntaxException, IOException, InterruptedException {
    
            //创建一个文件夹
            fs.mkdirs(new Path("/xiyou/huaguoshan1"));
    
        }
    }
    
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    • 30
    • 31
    • 32
    • 33
    • 34
    • 35
    • 36
    • 37
    • 38
    • 39
    • 40
    • 41
    • 42
    • 43
    • 44
    • 45
    • 46
    • 47

    7.1.7执行程序

    客户端去操作HDFS时,是有一个用户身份的。默认情况下,HDFS客户端API会从采用Windows默认用户访问HDFS,会报权限异常错误。所以在访问HDFS时,一定要配置用户。

    在这里插入图片描述

    package com.summer.hdfs;
    
    import org.apache.hadoop.conf.Configuration;
    import org.apache.hadoop.fs.FileSystem;
    import org.apache.hadoop.fs.Path;
    import org.junit.After;
    import org.junit.Before;
    import org.junit.Test;
    
    import java.io.IOException;
    import java.net.URI;
    import java.net.URISyntaxException;
    
    /**
     * @author Redamancy
     * @create 2022-08-15 17:59
     */
    
    
    public class HdfsClient {
        private FileSystem fs;
        @Before
        public void init() throws URISyntaxException, IOException, InterruptedException {
            //连接的集群nn地址
            URI uri = new URI("hdfs://hadoop102:8020");
            //创建一个配置文件
            Configuration configuration = new Configuration();
            //获取到了客户端对象
            fs = FileSystem.get(uri, configuration);
        }
        @After
        public void close() throws IOException {
            //关闭资源
            fs.close();
        }
    
        @Test
        public void testMkdir() throws URISyntaxException, IOException, InterruptedException {
    
            //创建一个文件夹
            fs.mkdirs(new Path("/xiyou/huaguoshan1"));
    
        }
    }
    
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    • 30
    • 31
    • 32
    • 33
    • 34
    • 35
    • 36
    • 37
    • 38
    • 39
    • 40
    • 41
    • 42
    • 43
    • 44
    • 45
    org.apache.hadoop.security.AccessControlException: Permission denied: user=73631, access=WRITE, inode="/xiyou":summer:supergroup:drwxr-xr-x
    
    • 1
  • 相关阅读:
    Python基础之网络编程:2、OSI协议之七层协议
    jsbarcode生成条码
    Kubernetes容器生命周期 —— 钩子函数详解(postStart、preStop)
    DockerCompose和Docker镜像仓库
    【CC3200AI 实验教程11】疯壳·AI语音人脸识别(会议记录仪/人脸打卡机)-AI语音系统架构
    P4396 [AHOI2013]作业(莫队+值域分块)
    最小均方算法(lsm)-python代码实现
    Java笔记(九)
    Mysql进阶优化篇01——四万字详解数据库性能分析工具(深入、全面、详细,收藏备用)
    【ML特征工程】第 2 章 :简单数字的花式技巧
  • 原文地址:https://blog.csdn.net/Redamancy06/article/details/126276423