• 让工程师拥有一台“超级”计算机——字节跳动客户端编译加速方案


    我们有一个梦想,让每一名研发工程师拥有一台“超级”计算机。 

    作者:字节跳动终端技术——孙雄

    大型工程的效率瓶颈

    近年来,基于Devops流水线的研发流程,逐渐成为软件研发的行业标准。流水线的运行效率,决定了团队的研发效能。对大型项目来说,编译构建往往是流水线中耗时占比的大头。有些工程的编译时长超过30分钟,甚至达到几个小时。这样的性能,是非常糟糕的。

    字节iOS大型项目的构建时长,大多控制在5分钟以内。这主要得益于内部的编译加速解决方案,它集分布式编译和分布式缓存为一体,本文将详细介绍它的工作原理。不过在这之前,我们先来分析一下大型项目的编译瓶颈和解决思路。

    先说结论,机器性能不足和重复作业,是影响工程编译效率的两个最大因素,对此,可以采取分布式编译+编译缓存的方式,提升整体的性能。

    分布式编译

    工程的编译,往往可以拆解为可并行的编译子任务。以C系列语言(CC++ObjC)为例,项目中往往存在上千甚至上万的源代码文件(以 .c , .cc 或 .m 作为扩展名的文件),每个编译子任务将源代码文件编译为目标文件(以 .o 作为扩展名的文件),再整体链接成最终的可执行文件。

    这些编译子任务可以并行执行,如下图所示:

    image.png

    CPU的数量,决定了编译的并行度上限。个人电脑(PC)的CPU核心数通常在4~12之间,专用服务器可以达到24~96,但对于动辄上万文件的大型工程,CPU的数量还是显得不足。这时候,利用分布式编译的技术,可以得到一台“超级计算机”。

    编译缓存

    大型工程全量编译,需要处理几千甚至几万个编译子任务。但大多数子任务,之前已经编译过,如果我们能通过某种方式,直接获取编译产物,就可以大大节省时间。

    建立一个中央仓库,存储编译子任务的产物,这些产物可以通过“任务摘要”来索引。这样每次遇到一个新任务,我们首先向中央仓库查询摘要,如果查询成功,直接下载编译产物,就省去了重复编译的动作。

    上面提到的分布式编译和编译缓存,是提升大型项目编译效率的两大法宝,本文主要介绍字节跳动的分布式编译解决方案。

    “超级”计算机

    借助云计算,我们可以以组装的方式,得到一台“超级”计算机,如下图所示:

    image.png

    这台“超级”计算机,由一台中心节点和若干台工作节点组成。中心节点负责生成和调度编译子任务,依照它们的执行顺序,将任务发送给空闲的工作节点来执行。这样整个系统的并行处理能力,取决于所有工作节点的CPU之和,性能比单机高出数倍,甚至数十倍。

    像这样把任务分发给工作节点的方案,又称为分布式编译。分布式编译并不是新鲜的概念,2008年开源的distcc工具就提供了分布式编译的解决方案。Google在2017年提出的Remote Execution API,又从协议的角度规范了分布式编译和编译缓存的实现方式。

    我们先看一下分布式编译的核心思路。

    核心思路

    核心思路很简单,本地计算出编译命令需要读的文件,把文件列表和编译命令,发给远端机器,执行编译命令。编译结束后,再请求拉取编译产物。

    image.png

    其中,如何找到所需文件是关键。

    背景知识——预处理

    在介绍我们的做法之前,需要先补充一些编译原理相关的背景知识。

    待编译的源文件,可以通过#include xx.h和 #import xx.h的方式,声明对某头文件的依赖。

    编译器处理编译命令的第一阶段叫做“预处理”,该阶段的一个重要工作是头文件展开。假设入口文件main.m 中有一行为#import Car.h,编译器会遍历所有搜索路径,找到Car.h文件,并读取该文件内容,替换掉main.m中的#import Car.h行。其中搜索路径由编译命令中的 -I-isystem 等参数给出

    接下来,如果 Car.h 文件中有 #import 语句,编译器会重复上述动作,找到依赖的文件,读取内容,进行替换,直到把所有的 #import 语句全部展开。

    因此,假设我们模拟预处理的过程,找到所有依赖的头文件,就可以将该任务发送到远端执行。

    image.png

    重要引擎

    由上述编译原理可知,依赖分析是实现分布式的前提。不仅如此,依赖分析也是性能的决定因素。

    由于依赖分析只能在本地进行,计算资源是有限的。依赖分析的性能,决定了任务分发是否流畅,如果依赖分析过慢,会导致大量工作节点限制,任务分发出现瓶颈。

    可以把依赖分析,理解为分布式编译的重要引擎。

    依赖分析的实现并不复杂,编译器本身就提供了相关参数,以clang为例。-M 可以获取完整的编译依赖,而 -MM 则可以得到用户定义的依赖,相关参数解析如下:

    -M,--dependencies

    Like -MD, but also implies -E and writes to stdout by default

    -MD,--write-dependencies

    Write a depfile containing user and system headers

    -MM,--user-dependencies

    Like -MMD, but also implies -E and writes to stdout by default

    -MMD,--write-user-dependencies

    Write a depfile containing user headers

    开源框架recc 直接使用了编译器能力。

    这种方法的好处是开发简单,并且足够安全,但性能存在瓶颈。我们早期以头条项目测试的时候,通过编译器获取依赖,平均耗时在200毫秒左右。而单个文件的编译时长,大多在500毫秒~3000毫秒的区间内。依赖分析耗时占比太高,导致任务分发效率不够理想。

    依赖分析时间过长,一方面由于编译器命令由独立进程执行,不同的编译任务之间无法复用缓存。另一方面,编译器的 -M 参数隐含了参数 -E,后者代表“预处理”,预处理阶段除了依赖分析,还做了不少其它工作,这部分工作我们可以优化掉。

    Google的 goma 采用了自研的依赖分析模块,并且在Chromium和Android这两个大型项目上取得了非常好的结果。它在实现依赖分析的时候,借助常驻进程的架构优势,运用了大量缓存,索引等技巧,提高了中间数据的复用率。

    在使用 goma加速内部iOS的项目的过程中,我们发现当编译任务依赖的Framework过多,或者依赖的hmap文件过大的情况下,性能会受到较大影响,于是,我们针对大型iOS项目的特点,在goma基础上进行了优化,最终可以以平均50ms的速度,完成编译任务依赖解析。

    接下来,让我们一起看看goma在设计时运用了哪些技巧,以及我们针对iOS项目做了哪些优化。由于篇幅有限,本文只介绍比较有代表性的部分。

    快速依赖分析

    goma采用了依赖缓存和依赖分析结合的方案,如果之前在工作目录下进行过编译,下次使用时,可以直接使用依赖缓存,只有在缓存不命中的情况下,才进行依赖分析。

    image.png

    依赖缓存

    依赖缓存的核心原理是:检查相同编译参数对应的,上一次的依赖,如果依赖的文件都没变,即复用依赖关系。

    其流程如下图所示:

    image.png

    有人可能会有疑问,为什么可以检查上一次的依赖?如果这次引入了列表外的新文件,岂不是无法判断文件是否改变吗。

    其实不然,引入新文件的前提是加入了新的#import 指令,它必然导致旧依赖列表中的某个文件发生改变,因此这种做法是相对安全的。

    命中依赖缓存的话,可以在5毫秒以内得到编译命令的依赖文件列表,这是一个很理想的性能。

    不过在实践中经常发现,即使文件修改了,依赖关系也大多是不变的,例如修改变量的值或增加一个类成员。如果我们能抓住这个特性,就可以大大增加缓存命中率。

    忽略无关行

    有些代码修改影响依赖,有些则不会,如果我们只考虑影响依赖的改动,就可以排除掉大量干扰因素。下面是两个例子,展示了有效改动和无效改动的区别。

    • 有效改动(导致依赖分析缓存失效)
    - #include <foo.h>
    + #include <bar.h>
    
    
    • 无效改动 (不影响依赖分析缓存)
    - int a = 2;
    + int a = 3;
    
    

    除了前文提及的#include 和 #import ,还有如下语句可能造成缓存失效:#if#else#define#ifdef#ifndef#include_next

    它们的共性是以# 开头,在预处理阶段会被编译器解析。这些指令统称为Directive,因此,我们只需缓存文件的Directive列表,当文件内容发生改变时,重新获取Direcitive列表,并和之前缓存的内容对比,如果列表不变,就可以认为该文件的改动不影响依赖关系。

    依赖分析

    深度优先分析

    如果没命中依赖缓存或者关闭了该功能,就会进入依赖分析的阶段。

    依赖分析采用深度优先搜索的算法,找到代码中所有的 #include 和 #import 对应的文件。需要注意的是,#if#else这样的条件宏,也需要在预处理阶段解析。

    深度优先采用文件栈 + 行指针的方式实现,如图所示:

    image.png

    图中紫色部分是一个文件栈,栈中每一个元素都存放了文件相关的信息。每一个文件都对应一个Directive(预处理指令)列表,并维护一个指针,指向当前的Directive

    流程开始阶段,入口文件进栈,随后遍历入口文件的所有Directive,当读到 #include 或 #import 相关的 Directive 时,搜索依赖文件,并入栈。

    此时,虽然入口文件还没有解析完,但按照规则应该优先解析新入栈的文件,所以需要通过指针维护入口文件当前读到的行号,以保证下次回到入口文件时,可以继续向下解析。

    优化技巧

    依赖分析的过程中,存在大量重复的操作,可以通过很多小技巧来优化这个过程。本文将介绍两个比较典型的小技巧。

    倒排索引

    依赖分析中最常见的操作在一堆备选目录中,找到对应名称的文件。

    假设我们需要找到#import <A/A.h>语句中提到的A.h文件。命令行中有10个-I参数,分别指向10个不同的目录-Ifoo, -Ibar, ...,最朴素的方法是依次遍历这10个目录,拼接路径,尝试找到A.h文件。

    这种方法当然可行,但是效率较低。对于大型项目,仅一条编译命令就可能涉及超过5000条#import语句,和超过50个头文件搜索路径。这意味着至少5000*50=25万次文件系统查找,时间开销非常大。

    建立倒排索引,可以大大加快这个过程。其思路是预先遍历待搜索目录(directory),找到目录下的文件和子目录(统称entry),然后建立entry指向directory的倒排索引, 如下图所示:

    image.png

    回到上面的问题,当我们搜索#import <A/A.h>时,首先需要找到foobartaz三个目录里,哪个含有A子目录,根据倒排索引,可以快速定位到bar目录,而不需要从头开始遍历。

    值得注意的是,objc工程普遍采用HeaderMap技术(即Xcode自动生成的.hmap文件),提升编译时查找头文件的效率。HeaderMap本质上也是一种索引表,它建立了 Directive -> Path 的直接映射关系。我们在建倒排索引的时候,需要解析.hmap中的内容,并合并到倒排索引中。

    跨任务缓存(针对iOS项目的优化)

    不同的编译任务,可能存在相同的依赖文件。例如foo.mbar.m可能都依赖了common.h文件,编译foo.m的时候已经找到了common.h, 编译bar.m的时候,是否不需要再找一次了呢?

    很遗憾,大多数情况需要重新查找,因为不同命令的查找条件往往不一样。影响查找条件的参数有很多,例如-I-isystem 影响头文件搜索路径,-F 影响Framework搜索路径。

    不过,iOS项目往往可以复用之前的查找结果。

    iOS项目通常采用Xcode + CocoaPods的研发模式,针对同一个Pod内源文件的编译命令,头文件搜索路径基本是一致的。利用这个特性,我们提供了跨任务的缓存加速方案。

    我们对搜索路径列表整体做了一层hash,当两个命令的搜索路径相同时,对同名Directive的搜索结果一定相同。方案如下所示:

    1. 在对单条命令进行依赖解析之前,先提取搜索路径的特征值。

    image.png


    2. 寻找头文件时,先查询缓存,如果查不到,在找到头文件后,将结果缓存。

    image.png

    举一个具体的例子:

    编译任务1:clang`` -c ``foo.m`` -IFoo -IBar -FCar

    编译任务2:clang`` -c ``bar.m`` -IFoo -IBar -FCar

    foo.m 和 bar.m 均包含行:#import common.h

    假设编译任务1先执行,我们的做法应该是:

    1. 提取搜索目录列表为:-IFoo -IBar -FCar
    2. 使用SHA-256算法计算摘要,对应的搜索摘要为:598cf1e...(仅展示前8位)
    3. 进行依赖分析,读到foo.m依赖common.h的部分,遍历搜索目录,找到common.h的位置,假设在目录Bar下面。
    4. 写缓存,缓存用哈希表实现,key为<598cf1e..., common.h>,value为Bar
    5. 执行编译任务2,再次遇到寻找common.h的请求。
    6. 直接从缓存中查到common.hBar目录下

    索引缓存(针对iOS项目的优化)

    建索引可以减少遍历目录寻找头文件的次数,是非常有效的优化方案。但是当头文件搜索目录过多,或者hmap过大时,建索引本身也需要几十毫秒的时间,对于性能要求十分严苛的依赖解析来说,这个时间还是略长。

    所以我们想到,对索引本身是否可以做缓存呢?

    按照跨任务缓存的思路,索引本身也是可以缓存的,只要两个任务的头文件搜索路径,以及hmap中的索引内容都一直,它们就可以共用一套索引。

    具体的方案和跨任务缓存类似,本文就不详细展开了。通过对索引的缓存,我们将依赖分析的速度又提升了20毫秒左右。

    总结

    分布式编译和编译缓存是提升大型项目编译效率的两大法宝。本文主要介绍了字节跳动的分布式编译解决方案。

    该方案核心部分采用了开源框架goma的代码,并在此基础上,针对iOS项目的特性,做了一定的优化。

    分布式编译的核心思想是空间换时间,引入额外的机器,提升单次编译的CPU数量。分布式编译的效果,取决于中心节点分发任务的速度,任务的分发又取决于依赖的解析效率。

    传统方案利用编译器的预处理来解析依赖,方法可行,但由于每次解析都要单独fork进程,数据难以复用,存在性能瓶颈。我们采用了开源框架goma的代码,并在此基础上,针对iOS项目的特性,做了一定的优化。

    本文介绍了依赖解析的四种技巧,分别从消除噪音,索引,缓存三个角度进行了优化。编译优化的道路,任重而道远。感谢goma团队,提供了许多优秀的设计思路和技巧,我们也会在此方向持续研究,尽可能的把思路分享给大家。
     

    # 关于字节终端技术团队

    字节跳动终端技术团队(Client Infrastructure)是大前端基础技术的全球化研发团队(分别在北京、上海、杭州、深圳、广州、新加坡和美国山景城设有研发团队),负责整个字节跳动的大前端基础设施建设,提升公司全产品线的性能、稳定性和工程效率;支持的产品包括但不限于抖音、今日头条、西瓜视频、飞书、番茄小说等,在移动端、Web、Desktop等各终端都有深入研究。

    就是现在!客户端/前端/服务端/端智能算法/测试开发 面向全球范围招聘!一起来用技术改变世界,感兴趣请联系bits-dev-better@bytedance.com。邮件主题:简历-姓名-求职意向-期望城市-电话。


    MARS- TALK 04 期来啦!

    2月24日晚 MARS TALK 直播间,我们邀请了火山引擎 APMPlus 和美篇的研发工程师,在线为大家分享「APMPlus 基于 Hprof 文件的 Java OOM 归因方案」及「美篇基于MARS-APMPlus 性能监控工具的优化实践」等技术干货。现在报名加入活动群 还有机会获得最新版VR一体机——Pico Neo3哦!

    ⏰  直播时间:2月24日(周四) 20:00-21:30

    💡  活动形式:线上直播

    🙋  报名方式:扫码进群报名

    作为开年首期MARS TALK,本次我们为大家准备了丰厚的奖品。除了Pico Neo3之外,还有罗技M720蓝牙鼠标、筋膜枪及字节周边礼品等你来拿。千万不要错过哟!

    👉  点击这里,了解APMPlus

  • 相关阅读:
    计算机毕业设计Java山西工艺美术馆(源码+系统+mysql数据库+lw文档)
    Unreal Engine(虚幻引擎)渲染 – 正确使用方法
    Ubuntu 20.04 for MacBook with T2 (Kernel 5.15, 5.16 & 5.17)
    c++文件读写
    vue3使用less与scss
    【C语言】Debian安装并编译内核源码
    LeetCode 1470. 重新排列数组:考研扣两分的做法
    文件传输客户端 SecureFX mac中文版支持多种协议
    PDF文件超出上传大小?三分钟学会PDF压缩
    【SimpleFunction系列二.2】SpringBoot注解整合Redisson分布式锁
  • 原文地址:https://www.cnblogs.com/ClientInfra/p/15906725.html