• 【迁移学习】分布差异的度量以及迁移学习的统一表征方法


    • 在文本分类中,由于文本数据有其领域特殊性,因此,在一个领域上训练的分类器,不能直接拿来作用到另一个领域上,这就需要用到迁移学习。
      在这里插入图片描述
    • 迁移学习是机器学习中重要的研究领域,ICML、NIPS、AAAI、ICIR等国际人工智能顶会不断推出迁移学习相关主题的研讨会。
      在这里插入图片描述
    • 以计算机为载体,机器学习涉及统计学、概率论、凸优化、程序设计等多个子领域。

    结构风险最小化

    • 机器学习就是要寻找一个最优函数 f f f,使得其在所有的训练数据上达到最小的损失。上述学习目标也可以被称为 经验风险最小化 (Empirical Risk Minimization, ERM),其中的损失函数也称为 经验风险
    • 事实上,一个好的机器学习模型,不仅需要对训练数据有强大的拟合能力,还需要对未来的新数据具有足够的预测能力。结构风险最小化(Structural Risk Minimization, SRM)是统计机器学习中一个非常重要的概念。
    • SRM准测要求模型在你和训练数据的基础上,也要具有相对简单的复杂性(较低的VC维(Vapnik-Chervonenkis dimension)。
    • 通常采用正则化(Regularization)的方法来控制模型的复杂性。
    • VC维 是用来衡量研究对象(数据集与学习模型)可学习性的指标。VC维反映了可学习性,与数据量和模型的复杂度相关。因此,VC维较低的模型,其复杂性也较低。
    • 常用的正则化项有:控制样本的稀疏程度、筛选样本的L1正则化,使求解简单、避免过拟合的L2正则化,控制目标熵值的熵最小化等。

    数据的概率分布

    • 传统的机器学习假设模型的训练和测试数据服从同一数据分布。
    • 在真实的应用中,训练数据和测试数据的分布往往不尽相同。

    迁移学习的问题定义

    • 领域(Domain)是学习的主体,主要由两部分构成: 数据 和 生成这些数据的概率分布。
    • 一个领域可以被表示为:
      在这里插入图片描述
    • 两个领域:被迁移的领域和待学习的领域。被迁移的领域、含有知识的领域被称为 源领域 (Source domain,源域),而待学习的领域,被称为 目标领域(Target domain,目标域)。
      在这里插入图片描述
    • 领域自适应(Domain Adaptation):前2种情形相同,第3种情形不同。
    • 领域自适应的问题定义如下:
      在这里插入图片描述
    • 领域自适应可以被分为三种:
      • 监督领域自适应(SDA)
      • 半监督领域自适应(SSDA)
      • 无监督领域自适应(UDA)

    分布差异的度量

    在这里插入图片描述

    边缘分布自适应(Marginal Distribution Adaptation)

    • 边缘分布自适应的本质,与自变量偏移一样,针对的问题是源域和目标域的边缘概率分布不同, P s ( x ) ≠ P t ( x ) P_s(x)\ne P_t(x) Ps(x)=Pt(x)的情况。
    • 自变量漂移同时假设二者的条件概率分布相同,即 P s ( y ∣ x ) ≈ P t ( y ∣ x ) P_s(y|x)\approx P_t(y|x) Ps(yx)Pt(yx)
    • 在这个假设的前提下,边缘分布自适应方法的目标是:减少源域和目标域的边缘概率分布的距离。
      D ( P s ( x , y ) , P t ( x , y ) ) ≈ D ( P s ( x ) , P t ( x ) ) D(P_s(x,y), P_t(x,y)) \approx D(P_s(x), P_t(x)) D(Ps(x,y),Pt(x,y))D(Ps(x),Pt(x))

    动态分布自适应(Dynamic Distribution Adaptation)

    在这里插入图片描述

    分布差异的统一表征

    在这里插入图片描述

    分布自适应因子的计算

    • 随机猜测法和最大最小平均法。这两种方法需要大量的重复计算,结果并不具有可解释性。
    • 动态迁移方法。A-distance 被定义为建立一个二分类器进行不同领域的分类得出的误差。
      在这里插入图片描述
      在这里插入图片描述
    • 由于特征的动态和渐进变化性,此估计需要在每一轮迭代中给出。

    迁移学习统一表征

    在这里插入图片描述

    • v ∈ R N s \boldsymbol{v}\in \mathbb{R} ^{N_s} vRNs 为源域样本的权重。
    • T T T 为作用于源域和目标域上的特征变换函数。
    • R ( T ( D s ) , T ( D t ) ) R(T(\mathcal{D_s} ),T(\mathcal{D_t} )) R(T(Ds),T(Dt))迁移正则化项(Transfer Regularization)。
    • 迁移学习可以被概括为寻找合适的迁移正则化项的问题。
    • 通过对 v i v_i vi T T T 取不同的情况,派生出三大类的迁移学习方法
      在这里插入图片描述

    样本权重迁移法

    在这里插入图片描述

    特征变换迁移法

    • 目标是:如何求解特征变换 T T T,使得特征变化后的源域和目标域的概率分布差异达到最小。
      在这里插入图片描述
    • 从生成对抗网络的观点来看,网络中的判别器用来判断数据来自真实图像还是噪声,当其无法分别真实图像和噪声产生的图像时,我们认为判别器学习到了领域不变的特征。这种判别器可以被看成一种隐式距离。

    模型预训练迁移法

    在这里插入图片描述

    总结

    在这里插入图片描述

  • 相关阅读:
    LabVIEW专栏七、队列
    约数——正约数个数求法及其原理,求N的正约数集合
    淘宝/天猫API:item_search_jupage-天天特价
    nginx热备配置
    ROS2学习(1)—核心概念
    Java高级特性之多线程,java实战项目视频
    idea系列---【上一次打开springboot项目还好好的,现在打开突然无法启动了】
    第二次博客作业
    SQL面试常问到的sql优化方式
    Kubernetes IPVS和IPTABLES
  • 原文地址:https://blog.csdn.net/GW_Krystal/article/details/127924450