• 大数据组件-Flume集群环境的启动与验证


    🥇🥇【大数据学习记录篇】-持续更新中~🥇🥇


    个人主页beixi@
    本文章收录于专栏(点击传送):【大数据学习】

    💓💓持续更新中,感谢各位前辈朋友们支持学习~💓💓

    上一篇文章写到了Flume集群环境的安装,这篇文章接着上篇文章延伸Flume集群环境的启动与验证,如果Flume集群环境没有搭建的小伙伴们可以参考我上一篇文章:大数据组件-Flume集群环境搭建
    在这里插入图片描述

    1.环境介绍

    本次用到的环境有:
    Oracle Linux 7.4,三台虚拟机,分别为master,slave1,slave2
    JDK1.8.0_144
    Hadoop2.7.4集群环境
    Flume1.6.0

    2.Flume集群环境的启动与验证

    1.在master机上启动flume

    /opt/flume/bin/flume-ng agent -n a1 -c conf -f /opt/flume/conf/master.conf -Dflume.root.logger=INFO,console &
    
    • 1

    在这里插入图片描述

    在这里插入图片描述

    2.切换slave1,启动slave1上的flume

    /opt/flume/bin/flume-ng agent -n a1 -c conf -f /opt/flume/conf/slave.conf -Dflume.root.logger=INFO,console &
    
    • 1

    在这里插入图片描述
    在这里插入图片描述

    3.切换至slave2,启动slave2上的flume

    /opt/flume/bin/flume-ng agent -n a1 -c conf -f /opt/flume/conf/slave.conf -Dflume.root.logger=INFO,console &
    
    • 1

    在这里插入图片描述
    在这里插入图片描述

    4.切换至”从节点1,双击桌面上的“Xfce终端”图标重新打开一个命令窗口。
    5.新建立文件slave1.txt,输入如下内容,拷贝至flume的logs目录。

    vi slave1.txt
    
    • 1

    在这里插入图片描述

    I'm slave1
    
    • 1

    在这里插入图片描述

    6.按键Esc,按键”:wq!”保存退出。
    7.拷贝文件slave1.txt至flume的logs目录。

    cp slave1.txt /root/flume/logs
    
    • 1

    在这里插入图片描述

    8.切换至”主节点“,查看master机的启动命令窗口,会看到写入描述。
    在这里插入图片描述

    9.在“主节点”,双击桌面上的“Xfce终端”图标重新打开一个命令窗口。
    在这里插入图片描述

    10.在“主节点”新打开一个命令窗口中查看HDFS日志上传情况列表。

    hadoop dfs -lsr /flume
    
    • 1

    在这里插入图片描述

    11.查看HDFS列表中日志的内容,即上一步截图中红框中的文件内容。注意:这个日志文件每次上传名会不一样,本次查询文件名为上图红框所示。

    hadoop dfs -cat /flume/events/root/events-.1553582353270
    
    • 1

    在这里插入图片描述

    12.切换至”从节点2“,双击桌面上的“Xfce终端”图标重新打开一个命令窗口。
    13.新建立文件slave2.txt,输入如下内容,拷贝至flume的logs目录。

    vi slave2.txt
    
    • 1

    在这里插入图片描述

    I'm slave2
    
    • 1

    在这里插入图片描述

    14.按键Esc,按键”:wq!”保存退出。
    15.拷贝文件slave2.txt至flume的logs目录。
    在这里插入图片描述

    cp slave2.txt /root/flume/logs
    
    • 1

    16.切换至”主节点“,查看master机的启动命令窗口,会看到写入描述,此时表示新内容写入HDFS完成,然后可查看HDFS里新加的内容。
    在这里插入图片描述

    17.在“主节点”,双击桌面上的“Xfce终端”图标重新打开一个命令窗口。
    在这里插入图片描述

    18.在“主节点”新打开一个命令窗口中查看HDFS日志上传情况列表。

    hadoop dfs -lsr /flume
    
    • 1

    在这里插入图片描述

    19.查看HDFS日志上传列表中日志的内容,即上一步截图中红框中的文件内容。注意:这个日志文件每次上传名会不一样,本次查询文件名为上图红框所示。

    hadoop dfs -cat /flume/events/root/events-.1553583628068
    
    • 1

    在这里插入图片描述
    至此,Flume集群环境的启动与验证就到此结束了,如果本篇文章对你有帮助记得点赞收藏+关注~

  • 相关阅读:
    yolov7训练自己的数据集及报错处理
    面试题:有了 for 循环 为什么还要 forEach ?
    MYSQL的高阶语句
    闲话Python编程-集合set
    网站服务器出现404情况
    【黄啊码】什么是php-fpm?
    Word控件Spire.Doc 【页面设置】教程(11) ;如何在 C# 中设置 Word 文档的页面大小
    【JavaWeb】-- Servlet获取网页数据并传入到数据库
    Centos安装Thrift步骤以及实例
    王道数据结构——栈在括号匹配中的应用
  • 原文地址:https://blog.csdn.net/beixige/article/details/132641111