• Chromium Command Buffer原理解析


    Command Buffer 是支撑 Chromium 多进程硬件加速渲染的核心技术之一。它基于 OpenGLES2.0 定义了一套序列化协议,这套协议规定了所有 OpenGLES2.0 命令的序列化格式,使得应用对 OpenGL 的调用可以被缓存并传输到其他的进程中去执行(GPU进程),从而实现多个进程配合的渲染机制。

    1. Command Buffer 命令的序列化

    在 CommandBuffer 中共有三类命令,一类是直接对接OpenGLES的命令。例如下面的GL命令:

     

     他们的序列化格式定义为:

    可以看到序列化的方式并不复杂,每个命令都有个 CommandId 和 header。header 占用 32 位,高 21 位表示当前命令的长度,低 11 位表示命令的 Id。其他字段表示命令的参数。

    第二类命令是 CommandBuffer 自己需要用到的,这类命令称为公共命令(common command,Id<256),比如下面这两个:

    这两个命令一个用于创建Bucket,一个用于向Bucket中放数据(关于Bucket后面会讲到)。他们都不是 OpenGL 定义的命令,是 CommandBuffer 为了自己的某种用途而添加的命令。

    最后一种命令如下:

     可以看到 CommandBuffer 针对 glShaderSource 命令定义了不同的序列化格式,没有一种是按照原本的参数来定义的,这主要是因为 glShaderSource 命令可能会传输比较大的数据(第3个参数),如果直接把数据通过 IPC 传输可能会比较低效,因此方法1将数据存放在了共享内存,然后在命令中保留了对共享内存的引用,方法2是将数据保存在 Bucket,然后在命令中引用了 Bucket。这种处理方式主要是针对那些需要传输大批量数据的GL命令。

    2. Command Buffer 命令的自动生成

    Command Buffer 提供了三种 GL Context,分别时 GLES Context,Raster Context,WebGPU Context,它们用于不同的目的。GLES Context 用于常规的绘制,Raster Context 用于 Raster,WebGPU Context 用于 WebGPU。

    在 gpu/command_buffer/gles2_cmd_buffer_functions.txt 文件中定义了 GLES Context 使用到的 GL 命令,包括 150 多个 OpenGLES2.0 命令,以及由 19 个扩展提供的 230 多个扩展命令,在编译过程中 gpu/command_buffer/build_gles2_cmd_buffer.py 脚本会读取该文件并生成相应的 *_autogen.* 文件。

    在 gpu/command_buffer/raster_cmd_buffer_functions.txt 文件中定义了 Raster Context 使用到的 30 多个 GL 命令,它被 gpu/command_buffer/build_raster_cmd_buffer.py 脚本使用来生成相应的 *_autogen.* 文件。

    用于 WebGPU Context 的命令定义在 gpu/command_buffer/webgpu_cmd_buffer_functions.txt 中,被脚本 gpu/command_buffer/build_webgpu_cmd_buffer.py 用来生成相关代码。

    Command Buffer 通过这些自动生成的代码包装了所有的 GL 调用,然后将这些调用序列化后发送到 GPU 进程去执行。

    3. Command Buffer 的架构设计

    前面已经提到,Command Buffer 主要是为了解决多进程的渲染问题,因此它在设计上分两个端,分别是 client 端和 service 端。下图反映了 Chromium 中各种进程和 Command Buffer 中两个端的对应关系:

     

    可以看到,Browser和Render进程都是 client 端, GPU 进程是 service 端。client 端负责调用 GL 命令来产生绘制操作,但是这些GL命令并不会真正执行而是被序列化为 Command Buffer 命令,然后通过 IPC 传输到 GPU 进程,GPU 进程负责反序列化 Command Buffer 命令并最终执行 GL 调用。

    在 Chromium 的实现中,引入了更多的概念:

    • 每个client端和server端之间都通过 IPC channel (IPC::Channel) 通道进行连接。
    • 每个 IPC channel 可以有多个调度组(scheduling groups),每个调度组称为一个 stream,每个 stream 有自己的调度优先级。
    • 每个 stream 可以承载多个 command buffer
    • 每个 command buffer 都对应一个 GL context,在相同stream中的GL Context都属于同一个share group
    • 每个 command buffer 都包含一系列的 GL 命令。

    下图反映了 context,commandbuffer,stream,channel 之间的关系:

     下面是 Command Buffer 的模块依赖关系:

     content 模块通过调用 GL 或者 Skia 来产生 GL 命令, 然后 Command Buffer client 将这些 GL 命令序列化,然后通过 IPC 传输到了 Command Buffer service 端,service 将命令反序列化然后调用 ui/gl 模块执行真正的 GL 调用。

    4. Command Buffer 命令的传输方式

    Command Buffer 定义了三种命令传输方式:

    1. 命令和命令涉及到的数据都直接放在 Command Buffer 中传输,在多进程模式下 Command Buffer 本身位于共享内存中;
    2. 命令放在 Command Buffer 中,数据放在共享内存中,在命令中引用该共享内存;
    3. 先使用 SetBucketSize 命令在 service 进程中创建一个足够大的 Bucket,然后将数据的一部分放在共享内存中,然后使用 SetBucketData 命令将该共享内存中的数据放到 service 进程的 Bucket 中,然后再放一部分数据到共享内存,再使用 SetBucketData 命令将数据传输到 service 进程中,循环这个操作直到将所有的数据都放到 service 进程中,最后调用原本的 GL 命令并引用这个 Bucket 的 Id 。Bucket 机制主要用在共享内存不足以存放所有要传输的数据的时候。由于涉及到多次数据从共享内存拷贝到进程空间的操作,因此性能较低。

    5. Command Buffer 的具体实现

     6. 总结

    Command Buffer 可以用于实现多进程的渲染架构,并且提供全平台支持。可以通过设置 is_component_build=true 来将 Command Buffer 模块编译为动态链接库,从而嵌入到自己的项目中。例如,Skia 项目就提供了对 Command Buffer 的。

    7. 参考文献

     

  • 相关阅读:
    【餐厅点餐平台|三】模块设计
    硅谷产品实战学习感触
    Java泛型
    Oracle/PLSQL: Sinh Function
    关于“非法的前向引用(illegal forward reference)”的探究
    全栈开发实战|Spring Boot文件上传与下载
    ubuntu 客服端同步ntp服务器时间
    springboot集成rabbitmq:fanout、topic
    【大数据 - Doris 实践】数据表的基本使用(五):ROLLUP
    < 文件资源管理器 > 和 < 此电脑 > 有什么区别?
  • 原文地址:https://www.cnblogs.com/rmb999/p/17789913.html