• 【实战】Hadoop安装01-伪分布式-Pseudo


    Hadoop安装-伪分布式-Pseudo

    〇、所需资料

    一、前置环境安装

    1、包含内容

    (1)安装

    虚拟机安装、系统安装

    (2)配置

    ip、host、主机名配置

    关闭防火墙及selinux

    SSH免密登录

    (2)基础环境安装

    安装jdk

    安装ntpd开启时钟同步

    2、参考地址

    https://www.cnblogs.com/liujinhui/p/16838546.html

    二、Hadoop安装配置

    1、解压与环境变量配置

    (1)目录介绍

    sbin目录:服务的启动脚本

    bin目录:功能模块下的一些命令

    lib:所需jar包

    (2)环境变量配置

    vi /etc/profile

    增加:hadoop的bin和sbin目录

    source /etc/profile使配置文件生效

    2、hadoop-env.sh:配置jdk

    export JAVA_HOME=/usr/java/default

    3、core-site.xml:配置NN

    1. <configuration>
    2. <property>
    3. <name>fs.defaultFSname>
    4. <value>hdfs://hadoop01:9000value>
    5. property>
    6. <property>
    7. <name>hadoop.tmp.dirname>
    8. <value>/usr/local/data/hadoopvalue>
    9. property>
    10. configuration>

    4、hdfs-site.xml:配置SNN和DN

    1. <configuration>
    2. <property>
    3. <name>dfs.replicationname>
    4. <value>1value>
    5. property>
    6. <property>
    7. <name>dfs.namenode.name.dirname>
    8. <value>/usr/local/data/hadoop/dfs/namevalue>
    9. property>
    10. <property>
    11. <name>dfs.datanode.data.dirname>
    12. <value>/usr/local/data/hadoop/dfs/datavalue>
    13. property>
    14. <property>
    15. <name>dfs.replicationname>
    16. <value>1value>
    17. property>
    18. <property>
    19. <name>dfs.namenode.secondary.http-addressname>
    20. <value>hadoop01:50090value>
    21. property>
    22. <property>
    23. <name>dfs.namenode.checkpoint.dirname>
    24. <value>/var/bigdata/hadoop/local/dfs/secondaryvalue>
    25. property>
    26. configuration>

    5、slaves:配置DN节点位置

    hadoop01

    三、启动及验证

    1、格式化NN

    bin/hdfs namenode -format

    2、验证NN对应位置

    /usr/local/data/hadoop/dfs/name/xxx

    3、HDFS启动与验证

    sbin/start-dfs.sh

    4、页面及生成文件验证

    (1)页面验证

    修改Windows的地址:C:\Windows\System32/drivers\etc\hosts

    增加ip和主机的映射关系

    192.168.40.101 hadoop01

    四、使用

    1、命令介绍

    hdfs dfs【得到支持的命令】

    2、创建目录

    创建目录:hdfs dfs -mkdir abc(操作的是NN的元数据)

    通常会创建:hdfs dfs -mkdir -p /usr/root 【点右上角的go!进行刷新】【对比linux家目录home,此处为user】【-p表示递归创建】

    3、上传文件

    上传数据:hdfs dfs -put a.txt /usr/root【点go刷新】

    上传过程显示:COPYING

    4、查看DN文件所在位置

    /usr/local/data/hadoop/dfs/data/xxx

    5、上传时附加配置

    按字节切割:block.size【hdfs-site.xml】

    上传时,指定块大小1m,验证如何切割

    hdfs dfs -D dfs.blocksize=1024*1024(1048576=1m) -put data.txt

  • 相关阅读:
    【推荐系统学习】推荐系统架构
    【PostgreSQL PGCE-091题目解析14】PostgreSQL中使用CONCURRENTLY选项创建索引时,允许增删改数据表。
    利用python爬取上证指数股吧评论并保存到mongodb数据库
    微信公众号的服务器后台
    conda配置虚拟环境相关记录
    分布式是什么?
    Javascript笔记 rest VS spread
    论文阅读《2022ICLR:Are Message Passing Neural Networks Really Helpful for Knowledge Graph Completion? 》
    ChatGPT 从零到一打造私人智能英语学习助手
    Vue2.x 实例配置选项(全网最全)
  • 原文地址:https://blog.csdn.net/USTSD/article/details/127592111