• 基于深度学习的环路滤波和残差缩放


    本文来自提案JVET-X0066和JVET-Y0143,在JVET-W次会议中提出了基于深度学习的环路滤波的提案,包括自适应参数选择和注意力机制的深度模型(EE1-1.2),以及残差缩放的深度模型(EE1-1.4)。此提案研究将两者结合的效果。

     

    整个模型首先基于EE1-1.2修改,模型输入增加边界强度(BS)和QP,输入像素和经过模型滤波后的像素的残差再经过缩放因子来缩放。

    网络结构

    整个网络结构如Fig.1所示,其中注意力模型(attention model)的计算过程可以描述如下:

      F_{-}out=F_{-}in\times f(Rec,Pred,BS,QP)+ F_{-}in

    其中F_in和F_out分别是 attention model的输入输出,Rec,Pred,BS,QP分别表示重建值、预测值、边界强度和量化参数。f函数表示Fig.1.(b)中的两个卷积层和激活单元。

    参数选择


    每个slice或块都可以选择是否进行基于CNN的滤波,如果slice/block决定要使用基于CNN的滤波,则需要从候选列表{q,q-5,q-10}中选择条件参数,其中q是序列的QP。编码端的参数选择过程是基于RD cost的,如下:

    1. 滤波粒度决策和参数选择由分辨率和QP决定,对于更大的分辨率和QP决策和选择在更大的区域上进行。

    2. 对于不同时域层候选参数列表也不同,对于更高的时域层第三个候选q-10变为q+5。

    3. 对于all intra配置,禁用参数选择但仍保留标志位。

    残差缩放


    picture header中存有个分量的缩放因子,当对重建图像使用完基于CNN的滤波后,使用缩放因子对残差进行缩放。

    推理和训练


    使用PyTorch进行模型推理,具体信息如表1,

    模型分别使用DIV2K和BVI-DVC数据集对I帧和B帧进行训练,对不同QP分别训练模型,具体如表2,

    实验结果


    实验平台选择VTM-11.0+new MCTF,其中DF和SAO关闭,在使用CNN滤波后再使用ALF处理,实验结果如下,

    实验平台选择ECM3.0,其中DF关闭,在使用CNN滤波后再使用SAO和ALF处理,实验结果如下,

    表9和10是基于NN的滤波和ECM3.0中的非NN滤波工具相结合后相对于VTM-11.0+new MCTF的结果,

    感兴趣的请关注微信公众号Video Coding

  • 相关阅读:
    【C语言】数据结构的基本概念与评价算法的指标
    【学习推荐】极客时间-左耳听风专栏
    状态机总结(简洁)
    OpenResty
    Unity -- Animation(旧版动画组件)和Animator(新版动画器组件)
    Golang | Web开发之Gin框架快速入门基础实践
    设计模式:策略模式/状态模式
    Linux进程概念
    Add the installation prefix of “Qt5“ to CMAKE_PREFIX_PATH or set “Qt5_DIR“解决
    科目三: 济南章丘五号线
  • 原文地址:https://blog.csdn.net/Dillon2015/article/details/126513371