• 【hadoop】hadoop 热点问题(问题导引学习)|为什么要用hadoop?


    目录

    一、HDFS简介

    二、HDFS工作原理

    为什么要用hadoop?


    一、HDFS简介

    一类是NameNode,又叫"元数据节点";另一类是DataNode,又叫"数据节点"。

    这两类节点分别承担Master和Worker具体任务的执行节点。总的设计思想:分而治之——将大文件、大批量文件,分布式存放在大量独立的服务器上,以便于采取分而治之的方式对海量数据进行运算分析。

    HDFS是一个主/从(Mater/Slave)体系结构,从最终用户的角度来看,它就像传统的文件系统一样,可以通过目录路径对文件执行CRUD(Create、Read、Update和Delete)操作。但由于分布式存储的性质,HDFS集群拥有一个NameNode和一些DataNode。NameNode管理文件系统的元数据,DataNode存储实际的数据。客户端通过同NameNode和DataNodes的交互访问文件系统。客户端联系NameNode以获取文件的元数据,而真正的文件I/O操作是直接和DataNode进行交互的。
    HDFS一般是用来“一次写入,多次读取”,不适合做实时交互性很强的事情,不适合存储大量小文件(当然,如果你偏要存大量小文件的话本文末尾会有解决方案).

    文章出处:HDFS基本原理及数据存取实战_朱培的博客-CSDN博客_hdfs的基本原理

    二、HDFS工作原理

    2.1基本原理
    1 分布式文件系统,它所管理的文件是被切块存储在若干台datanode服务器上.

    2 hdfs提供了一个统一的目录树来定位hdfs中的文件,客户端访问文件时只要指定目录树的路径即可,不用关心文件的具体物理位置.

    3 每一个文件的每一个切块,在hdfs集群中都可以保存多个备份(默认3份),在hdfs-site.xml中,dfs.replication的value的数量就是备份的数量.

    4 hdfs中有一个关键进程服务进程:namenode,它维护了一个hdfs的目录树及hdfs目录结构与文件真实存储位置的映射关系(元数据).而datanode服务进程专门负责接收和管理"文件块"-block.默认大小为128M(可配置),(dfs.blocksize).(老版本的hadoop的默认block是64M的)

    为什么要用hadoop?

    1、为什么不用 [数据库]+[更多的磁盘] 来做大规模的批量分析而用map reduce?

    1、寻址时间的提高速度远远慢于传输速率的提高

    2、更新一小部分数据时传统数据库效果好(B树数据库),更新大部分数据时,没有MapRecude效率高。

    3、RDBMS 适合点查询和更新,MapReduce适合处理那些需要分析整个数据集的问题(批处理)。

    4、MapReduce适合一次写入多次读取。

    5、RDBMS 操作的数据是结构化的,MapReduce对半结构化/非结构化的数据(纯文本/图片等)非常有效。

  • 相关阅读:
    第1章Python语言基础-1.1输入与输出
    基于深度学习的问答系统
    今天,该让 python 上个热门
    对比表:阿里云轻量应用服务器和服务器性能差异
    基于SpringBoot的点餐系统
    使用Python的Turtle库绘制一棵随风飘落叶子的树
    CMake引入三方库
    .NET依赖注入之一个接口多个实现
    存储中的爱情:cookie、本地存储、会话存储
    君正X2100 使用SPI NOR Flash
  • 原文地址:https://blog.csdn.net/bandaoyu/article/details/88730440