目录
原文大佬的这篇首汽约车实时数仓实践有借鉴意义,这里摘抄下来用作学习和知识沉淀。
首汽约车(以下简称“首约”)是首汽集团打造的网约车出行平台。多样的用户人群、丰富的服务场景、持续升级的智能出行技术,带来业务分析需求的持续增加,分析需求复杂度的持续增加,构建一个强大统一的基础数据层势在必行。
2016 年到2021年期间,基于 Hadoop、Spark、Presto 等组件,首约构建了集离线实时并行的 Lambda技术架构的大数据平台。离线计算基于Hadoop+SparkSQL 进行数仓建设,实时计算基于 Kafka+Spark Streaming 开发实时数据特征,数据落地到 MongoDB、MySQL、Redis等数据库,然后通过PrestoDB+Tableau Server 提供可视化的自助分析和交互式报表服务。

但随着数据累积和数据量的增长,加之精细化的管理运营需求,当前架构日渐吃力,业务上呈现出以下痛点:
1. 多维分析受限:从 2019 年到 2022 年初,业务数据量日增长近 10 倍,数据不断积累,分析维度不断细化,数据分析所涉及的维度越来越多。BI 层基于 Tableau Server 的多维分析报表,更新和查询效率都在变差,维度多的报表每天光刷新就需要几小时。而且基于 PrestoDB 实现的自助 SQL 查询平台并发性能较低,导致出现用户排队等待的情况,对业务方的工作效率产生了影响。
选型过程中,我们针对 StarRocks、ClickHouse、TiDB 做了一些调研和对比:
| 功能 | StarRocks | ClickHouse | TiDB、TiFlash |
| 标准 SQL | 支持标准 SQL,兼容 MySQL 协议 | 不完全支持 | 支持标准 SQL,兼容 MySQL 协议 |
| 分布式Join | 支持 | 几乎不支持分布式Join,推荐大宽表 | 支持 |
| 高并发查询 | 全面向量化引擎,提高并发查询量 | 不支持高并发,官方推荐 QPS为100 | 支持 |
| 运维 | 标准版:支持自动扩容、故障恢复,需要自己实现自动化部署,扩缩容节点、升级等,有一定开发工作 企业版:管理界面,提供集群 DashBoard、SQL Profile、监控报警等功能 | 依赖 Apache Zookeeper,运维成本 | 运维方便 |
| 社区 | 开源活跃度高,社区论坛回复快 | 开源社区发展多年,但中文社区支持较少 | 开源社区积极良好 |
| 性能 | 读写性能好 | 单机性能强悍 读性能比 StarRocks 差一些; 写性能好 | 轻量级分析良好,数据量大时性能不如 StarRocks; 写性能受限于 TiKV,一般 |
| 场景 | 纯分析场景 | 纯分析场景 | 使用HTAP 场景 |
| 其他 | 生态组件丰富 | 稳定性高 |
TiDB 适用在一些轻量级的分析场景,但对于一些数据量大、复杂查询的性能不尽人意。所以我们主要在 ClickHouse 和 StarRocks 中做选择:
在AP(分析)业务中,不同于以点查为主的TP(事务)业务 ,事实表和维度表的关联操作不可避免。但在一些灵活度要求较高的场景,比如订单的状态需要频繁改变,或者说业务人员的自助BI分析,宽表往往无法满足我们的需求,我们还需要使用更为灵活的星型或者雪花模型进行建模。
ClickHouse虽然提供了Join的的语义,但使用上对大宽表关联的能力支撑较弱,复杂的关联查询经常会引起 OOM,所以如果使用了ClickHouse,需要再ETL的过程中就将事实表与维度表打平成宽表。而StarRocks提供了Shuffle Join,Colocate Join,Broadcast Join、Bucket Shuffle Join 等多种Join模式,对于提升联表查询场景性能有着非常大的优势。
通过以上产品能力上的初步对比,我们已经比较倾向于选择 StarRocks。从使用和未来规划角度,我们继续对 StarRocks 进行了评估,双方在以下几方面具有很好的契合度:
StarRocks 把复杂的分析架构变得简单而统一


目前主要是用StarRocks存储大量明细数据,利用时效性高的特点,替换了原有大数据架构分析层中依赖的MongDB、MySQL、Redis 等数据库,从而避免了数据指标的重复开发,极大减少了快速变化业务下的复杂开发工作。未来,计划利用StarRocks强大的物化视图,多种数据Load方式、外表能力、全面完成Presto的替换,进一步提升大数据的Ad-Hoc(数据探索)性能。
随着数据的增长速度越来越快,精细化运营的诉求不断增加,传统的T+1离线数仓构建模式,很难满足业务运营的增长需求。越早洞察数据,越早拿到分析指标结果,才能帮助业务把握先机。数仓时效性由此逐渐从天级提高到小时级,分钟级乃至秒级。
于是,我们采用了StarRocks构建了实时数仓:

引入StarRocks 之后,我们已经对订单分析、司机分析、风控分析、算法策略等场景的数据生产过程进行了改造:

引入StarRocks后,我们将kafka的数据通过Flink CDC的方式写入到ODS层,之后利用SQL 以微批的方式构建DWD和DWS层,对于实时性高的数据,则通过Spark Streaming/Flink后,再利用StarRocks提供的Connector写入到DWS层,最终指标的计算直接通过SQL查询DWS层即可完成。这不仅使得风控预警更加及时,也对风控指标的快速调整提供了重要支撑,当维度变化或增加新需求时,工作量从5天缩短到2-3天即可完成。
基于StarRocks搭建实时数仓的过程中,我们也遇到了一些问题,和StarRocks沟通找到的解决和优化方案如下:
总体来说,StarRocks 拥有优秀的功能和性能,迭代快速,社区活跃,服务体系良好,能够很好支撑首约大数据部门未来的规划。下一步我们将从以下几方面继续推进:
未来,我们也更加期待 StarRocks 后续版本更加强大的功能特性:
参考文章: