Apache Doris 是一个基于 MPP 架构的高性能、实时的分析型数据库,以极速易用的特点被人们所熟知,仅需亚秒级响应时间即可返回海量数据下的查询结果,不仅可以支持高并发的点查询场景,也能支持高吞吐的复杂分析场景。基于此,Apache Doris 能够较好的满足报表分析、即席查询、统一数仓构建、数据湖联邦查询加速等使用场景,用户可以在此之上构建用户行为分析、AB 实验平台、日志检索分析、用户画像分析、订单分析等应用。
Apache Doris 由百度大数据部研发(之前叫百度 Palo , 2018 年贡献到 Apache 社区后,更名为 Doris ),在百度内部,有超过 200 个产品线在使用,部署机器超过 1000 台,单一业务最大可达到上百 TB 。Apache Doris 是一个现代化的 MPP ( Massively Parallel Processing ,即大规模并行处理)分析型数据库产品。仅需亚秒级响应时间即可获得查询结果,有效地支持实时数据分析。Apache Doris 的分布式架构非常简洁,易于运维,并且可以支持 10PB 以上的超大数据集。Apache Doris 可以满足多种数据分析需求,例如固定历史报表,实时数据分析,交互式数据分析和探索式数据分析等。
如下图所示,数据源经过各种数据集成和加工处理后,通常会入库到实时数仓 Doris 和离线湖仓(Hive, Iceberg, Hudi 中),Apache Doris 被广泛应用在以下场景中。

报表分析
即席查询(Ad-hoc Query):面向分析师的自助分析,查询模式不固定,要求较高的吞吐。小米公司基于 Doris 构建了增长分析平台(Growing Analytics,GA),利用用户行为数据对业务进行增长分析,平均查询延时 10s,95 分位的查询延时 30s 以内,每天的 SQL 查询量为数万条。
统一数仓构建 :一个平台满足统一的数据仓库建设需求,简化繁琐的大数据软件栈。海底捞基于 Doris 构建的统一数仓,替换了原来由 Spark、Hive、Kudu、Hbase、Phoenix 组成的旧架构,架构大大简化。
数据湖联邦查询:通过外表的方式联邦分析位于 Hive、Iceberg、Hudi 中的数据,在避免数据拷贝的前提下,查询性能大幅提升。
Doris整体架构如下图所示,Doris 架构非常简单,只有两类进程
Frontend(FE),主要负责用户请求的接入、查询解析规划、元数据的管理、节点管理相关工作。
Backend(BE),主要负责数据存储、查询计划的执行。
这两类进程都是可以横向扩展的,单集群可以支持到数百台机器,数十 PB 的存储容量。并且这两类进程通过一致性协议来保证服务的高可用和数据的高可靠。这种高度集成的架构设计极大的降低了一款分布式系统的运维成本。

https://doris.incubator.apache.org/zh-CN/docs/dev/get-starting/

- #!/bin/bash
- #1. 判断参数个数
- if [ $# -lt 1 ]
- then
- echo Not Enough Arguement!
- exit;
- fi
- #2. 遍历集群所有机器
- for host in master node1 node2
- do
- echo ==================== $host ====================
- #3. 遍历所有目录,挨个发送
- for file in $@
- do
- #4 判断文件是否存在
- if [ -e $file ]
- then
- #5. 获取父目录
- pdir=$(cd -P $(dirname $file); pwd)
- #6. 获取当前文件的名称
- fname=$(basename $file)
- ssh $host "mkdir -p $pdir"
- rsync -av $pdir/$fname $host:$pdir
- else
- echo $file does not exists!
- fi
- done
- done
创建对应的目录并且分发
./xsync doris/

Linux_关闭swap分区_昙花逐月的博客-CSDN博客_关闭swap
Linux交换分区会给Doris带来很严重的性能问题,需要在安装之前禁用交换分区。
- vi /etc/security/limits.conf
- * soft nofile 65536
- * hard nofile 65536
- * soft nproc 131072
- * hard nproc 131072
Doris 的元数据要求时间精度要小于5000ms,所以所有集群所有机器要进行时钟同步,避免因为时钟问题引发的元数据不一致导致服务出现异常。
这里我们推荐使用ext4文件系统,在安装操作系统的时候,请选择ext4文件系统。
详细注意事项看这里

下载编译包
- 链接:https://pan.baidu.com/s/1u3ZovCETHz9IMw_v0bpvrQ
- 提取码:yyds
- --来自百度网盘超级会员V4的分享

解压
tar -zxvf apache-doris-1.1.0-bin-x86-jdk8.tar.gz
修改环境变量
配置DORIS_HOME

修改环境配置文件
sudo vi /etc/profile.d/my.sh
- #DORIS_HOME
- export DORIS_HOME=/home/bigdata/doris/apache-doris-1.1.0-bin-x86-jdk8
- export PATH=$PATH:$DORIS_HOME/bin
source /etc/profile.d/my.sh
分发配置文件
sudo ./xsync /etc/profile.d/my.sh
修改FE配置文件
mkdir /home/bigdata/doris/apache-doris-1.1.0-bin-x86-jdk8/doris-meta
- #配置文件中指定元数据路径:
- meta_dir = /home/bigdata/doris/apache-doris-1.1.0-bin-x86-jdk8/doris-meta
- #修改绑定 ip(每台机器修改成自己的 ip)
- priority_networks = 192.168.8.101/24
启动
/home/bigdata/doris/apache-doris-1.1.0-bin-x86-jdk8/fe/bin/start_fe.sh --daemon
启动可能错误 (在启动 FE 时,报事务错误 20 问题,状态为 UNKNOWN)
exit.com.sleepycat.je.rep.ReplicaWriteException: (JE 18.3.12) Problem closing transaction 20. The current state is:UNKNOWN
问题原因
硬盘空间不足,需更多空间
解决方案
释放硬盘空间或者挂载新硬盘
访问地址
http://master:8030/login

默认用户root 密码为空
分发Doris
./xsync /home/bigdata/doris/apache-doris-1.1.0-bin-x86-jdk8/
创建BE存储目录(根据自身情况操作,每一个BE节点都要配置,好处就是可以分开多磁盘存储数据)
mkdir storage1 storage2

修改BE配置文件
- vim /home/bigdata/doris/apache-doris-1.1.0-bin-x86-jdk8/be/conf
- #配置文件中指定数据存放路径:
- storage_root_path = /home/bigdata/doris/apache-doris-1.1.0-bin-x86-jdk8/be/storage1;/home/bigdata/doris/apache-doris-1.1.0-bin-x86-jdk8/be/doris-storage2 #修改绑定 ip(每台机器修改成自己的 ip)
- priority_networks = 192.168.66.10/24
- storage_root_path=/home/disk1/doris.HDD,50;/home/disk2/doris.SSD,
- 10;/home/disk2/doris
- sudo rpm -qa|grep mariadb
- #如果存在,先卸载
- sudo rpm -e --nodeps mariadb mariadb-libs mariadb-server
链接:https://pan.baidu.com/s/1hxBhoH6W6XX1fFcmISeFRg
提取码:yyds
--来自百度网盘超级会员V4的分享
安装
sudo rpm -ivh *.rpm
连接Doris (FE)
mysql -h master -P 9030 -uroot
修改登录密码
SET PASSWORD FOR 'root' = PASSWORD('000000');
退出重新登录
mysql -h master -P 9030 -uroot -p

ALTER SYSTEM ADD BACKEND "master:9050";
查看BE状态
SHOW PROC '/backends';
启动BE(master|根据自己的机器来节点)
/home/bigdata/doris/apache-doris-1.1.0-bin-x86-jdk8/be/bin/start_be.sh --daemon
添加BE成功以后Navicat工具才能够连接FE(所以前面用的是命令行)
启动其他机器加入FE
- ALTER SYSTEM ADD BACKEND "node1:9050";
- ALTER SYSTEM ADD BACKEND "node2:9050";
查看BE状态

在node1,和node2执行启动BE
/home/bigdata/doris/apache-doris-1.1.0-bin-x86-jdk8/be/bin/start_be.sh --daemon
看到下图说明加入成功

Broker 以插件的形式,独立于 Doris 部署。如果需要从第三方存储系统导入数据,需要部署相应的 Broker ,默认提供了读取 HDFS 、百度云 BOS 及 Amazon S3 的 fs_broker 。fs_broker 是无状态的,建议每一个 FE 和 BE 节点都部署一个 Broker 。
启动Broke
/home/bigdata/doris/apache-doris-1.1.0-bin-x86-jdk8/apache_hdfs_broker/bin/start_broker.sh --daemon
添加 Broker
ALTER SYSTEM ADD BROKER broker_name "master:8000","node1:8000","node2:8000";
查询Broke状态
SHOW PROC "/brokers";

查看FE
SHOW PROC '/frontends';

- ALTER SYSTEM ADD FOLLOWER "node1:9010";
- ALTER SYSTEM ADD OBSERVER "node2:9010";

配置及启动 Follower 和 Observer
第一次启动时,启动命令需要添加参--helper leader 主机: edit_log_port:
由于开始启动FE以后我们分发包到了node1,和node2,所以两台机器都要做下面的操作
删除doris-meta里面的数据

meta_dir = /home/bigdata/doris/apache-doris-1.1.0-bin-x86-jdk8/doris-meta
修改ip
priority_networks = 192.168.66.20/24
分别启动(node1,node2)FE,第一次启动需要添加--helper,后面启动就不用了
/home/bigdata/doris/apache-doris-1.1.0-bin-x86-jdk8/fe/bin/start_fe.sh --helper master:9010 --daemon
查看是否添加成功
SHOW PROC '/frontends';
有一个小错误(时间问题,如果FE的follower的时间和master相差5秒就不能够加入)

node1执行时间同步
- systemctl stop ntpd
- sudo ntpdate 120.24.81.91
中途出现错误重新启动就能解决问题
ALTER SYSTEM DROP FOLLOWER[OBSERVER] "fe_host:edit_log_port";
ALTER SYSTEM DECOMMISSION BACKEND "be_host:be_heartbeat_service_port";

- ALTER SYSTEM ADD BROKER broker_name "broker_host:broker_ipc_port";
- ALTER SYSTEM DROP BROKER broker_name "broker_host:broker_ipc_port";
- ALTER SYSTEM DROP ALL BROKER broker_name;
- #!/bin/bash
-
- case $1 in
- "start"){
- for i in master node1 node2
- do
- echo " --------启动 $i FE-------"
- ssh $i "/home/bigdata/doris/apache-doris-1.1.0-bin-x86-jdk8/fe/bin/start_fe.sh --daemon"
- done
-
- for i in master node1 node2
- do
- echo " --------启动 $i BE-------"
- ssh $i "/home/bigdata/doris/apache-doris-1.1.0-bin-x86-jdk8/be/bin/start_be.sh --daemon"
- done
-
- for i in master node1 node2
- do
- echo " --------启动 $i Broke-------"
- ssh $i "/home/bigdata/doris/apache-doris-1.1.0-bin-x86-jdk8/apache_hdfs_broker/bin/start_broker.sh --daemon"
- done
- };;
- "stop"){
- for i in master node1 node2
- do
- echo " --------启动 $i Broke-------"
- ssh $i "/home/bigdata/doris/apache-doris-1.1.0-bin-x86-jdk8/apache_hdfs_broker/bin/stop_broker.sh --daemon"
- done
-
- for i in master node1 node2
- do
- echo " --------启动 $i BE-------"
- ssh $i "/home/bigdata/doris/apache-doris-1.1.0-bin-x86-jdk8/be/bin/stop_be.sh --daemon"
- done
-
- for i in master node1 node2
- do
- echo " --------启动 $i FE-------"
- ssh $i "/home/bigdata/doris/apache-doris-1.1.0-bin-x86-jdk8/fe/bin/stop_fe.sh --daemon"
- done
-
- };;
- esac
- SHOW PROC '/frontends';
-
- SHOW PROC '/backends';
-
- SHOW PROC "/brokers";
- #!/bin/bash
- case $1 in
- "start"){
- for i in master
- do
- echo " --------启动 $i fe-------"
- ssh $i "/home/bigdata/module/apache-doris-fe-1.2.0-bin-x86_64/bin/start_fe.sh --daemon"
- done
-
- for i in master node1 node2
- do
- echo " --------启动 $i be-------"
- ssh $i "/home/bigdata/module/apache-doris-be-1.2.0-bin-x86_64/bin/start_be.sh --daemon"
- done
- };;
- "stop"){
- for i in master node1 node2
- do
- echo " --------关闭 $i be-------"
- ssh $i "/home/bigdata/module/apache-doris-be-1.2.0-bin-x86_64/bin/stop_be.sh"
- done
- for i in master
- do
- echo " --------关闭 $i fe-------"
- ssh $i "/home/bigdata/module/apache-doris-fe-1.2.0-bin-x86_64/bin/stop_fe.sh"
- done
- };;
- esac
-
-
- #连接doris
- ./mysql -h ip -P 9030 -uroot
-
- #启动以后添加到fe里面
- ALTER SYSTEM ADD BACKEND "beip:9050";
- ALTER SYSTEM ADD BACKEND "beip:9050";
- ALTER SYSTEM ADD BACKEND "beip:9050";
-
- #启动对应的be(就是上面加的节点依次启动)
- /home/bigdata/module/apache-doris-be-1.2.0-bin-x86_64/bin/start_be.sh --daemon
-
- #查看是否健康启动
- show proc '/backends'
-
- #注意事项,不然1.20启动不了
- 也可以在 `start_be.sh` 启动脚本第一行添加 `export JAVA_HOME=your_java_home_path` 来添加环境变量
- 还要把对应的udf包分配到be下的lib下面
-
- #安装步骤
- 1.修改fe的元数据路径。
- 2.修改be的存储路径。
- 3.分别修改fe和be的绑定ip。