图像landmark检测:目的是自动识别预先定义的基准点位置
出发点:利用higher-ordered高阶结构模型 捕捉landmark之间显式或隐式关系 这一方面还没有充分利用。
⇒本文提出一种新的topology-adapting deep graph learning方法来得到准确的facial&medical关键点检测,它利用局部图像特征和全局形状特征构造图信号。自适应图拓扑通过两个端到端GCNs图卷积网络学习 探索和定位 特定定位结构。
数据集:3public-*WFLW, 300W, COFW-68、*3 X-ray *Cephalometric (public), Hand and Pelvis,*与之前先进方法在所有数据集的定量实验结果显示我们在鲁棒性和准确性上有superior优越性能;图拓扑定性可视化 表明landmark背后的物理合理可信连通性。
任务无偏的元学习(Task-Agnostic Meta-Learning):最小化任务性能之间的不平等
任务独立的元学习出发点:如何保证学习得到的初始模型对所有任务是没有偏差(unbiased)的?
初始模型对某些任务跟有效,而对另外一些任务就不是特别有效。这种情形,我们称meta-learner对不同任务是有偏的。一个有偏的meta-learner,在未来会遇到的新任务上,就有很可能不能给出一个很好的初始模型参数,而从使得从这个初始点开始,对模型进行有效的快速更新。|| 为了解决这个问题,我们提出一种任务无关(task agnostic)的无偏元学习方法。我们通过对初始模型加上一个正则化条件,使得它对不同的任务能“一视同仁”。这样,可以避免初始模型偏向于某些特定的任务,使得一旦给定一个新任务后,从这个初始模型出发,仍然最大可能在仅有少数训练样本的情况下快速迭代出一个最优模型。
我们提出两种方法来实现这种任务无关。对一个分类任务,我们可以直接最大化初始模型在不同类别上的熵(Entropy Maximization)来实现对任务的无偏性。|| 另一方面,对一般任务,比如回归或增强学习任务,我们注意到往往可以通过定义一个损失函数(loss function)或者奖励函数(reward function)来定义和优化这些任务。如果把负损失或者奖励看着是给每个任务的收入(income),我们就可以基于经济学中的度量收入不平等(inequality)的方法来刻画meta-learner 在不同任务的bias。通过最小化不平等度量,我们可以得到对不同任务无偏的meta-learner;我们有理由相信,这种无偏性,可以在某种程度上保证这种meta-learner对未来的新任务具有更好的泛化性能。