fine-tune(微调):是对已经训练好的模型,把整个这个模型放到另一个数据集上继续进行训练(其中参数继续发生变化)
迁移学习:提取模型中所需要的部分层,对这些层进行冻结(固定层的参数)在冻结层后增加新的训练层,最后完成训练。
fine-tune是继续更新模型的参数,迁移学习是固定一部分参数,训练更新一部分参数。
迁移学习能解决很多时候训练集和测试集存在数据分布差异的问题,迁移学习的一种方法——domain adaptation域自适应,一般是表示域不同(数据集集合),但任务相同。源域数据集一般有标签,目标域没有or很少标签,所以才需要domain adaptation。
domain adaptation需要解决减少source和target数据集不同分布之间的差异。有三种主流方法:
如第四大点中的base idea,我们想让模型学习source domain和target domain两个域中共有的特征(如上图中,source域数据集是黑白图片,而target domain数据有颜色,特征提取器提取的特征应该尽量不包含颜色信息,即服从相同的分布)。所以model分为特征提取器+标签预测器。
如果是用source domain data则可以用prediction和label进行二分类交叉熵损失函数训练;但是input是target domain data时则没有label。我们希望特征处理器feature extractor处理source domain和target domain data后的向量,两者的向量分布都是差不多的(如上图的右下角,颜色接近)。
利用对抗GAN思想学习共有的特征:
(1)领域分辨器:input为特征提取器的output vector(ouput为该该向量是来自source domain还是target domain)。把特征提取器看做是generator,不断调整参数来欺骗domain classifier。
(2)优缺点:
优点:大多数方法适用
缺点:难于求解,容易过适配
(3)符号化(具体公式见下图):
假设我们当前样本的类别有两类,那么对于有标签的训练集我们可以明显地划分为两类,那么对于没有标签的测试我们希望它的分布能够和训练集的分布越接近越好,如下图的右图:
考虑到决策边界:DIRT-T方法。
[1] 李宏毅21版视频地址:https://www.bilibili.com/video/BV1JA411c7VT
[2] 李宏毅ML官方地址:http://speech.ee.ntu.edu.tw/~tlkagk/courses.html
[3] https://blog.csdn.net/qq_40714949/article/details/122268709?spm=1001.2014.3001.5506
[4] 【GAN】GAN论文总结和解析
[5] 【迁移学习】Domain Adaptation系列论文解析
[6] Understanding Domain Adaptation:Learn how to design a deep learning framework enabling them for domain adaptation