• Proactive Privacy-preserving Learning for Retrieval 论文笔记


    论文名称Proactive Privacy-preserving Learning for Retrieval
    作者Peng-Fei Zhang (University of Queensland)
    会议/出版社AAAI 2021
    pdf📄在线pdf
    代码
    无代码
    • 概要:

      • 本文提出了一种针对检索系统隐私保护的方法,称为 PPL。训练一个生成器,在 original data 的基础上生成 adversarial data。adversarial data 在特征空间中要保持原本的相似性结构,并且最大化original data 和 adversarial data 之间的差距。
    • 背景:

      • 加入隐私保护后,恶意用户无法随意搜索,也无法收集 database 里的数据构建模型

        在这里插入图片描述

      • 具体来说就是:无法使用干净数据作为 query 在对抗性数据构建的 database 上进行检索,无法使用对抗性数据作为 query 在干净数据构建的 database 上进行检索

        • 在这里插入图片描述
      • clean domain 和 adversarial domain 需要具有:

        • 特征空间中相同的 similarity structure (pdf)
        • 最大化两个领域之间的 gap
    • 方法:

      • 训练一个用于生成 adversarial data 的 generater

      • 在这里插入图片描述

      • loss function

        • generation process

          z i = x i + G ( x i ; ϑ g ) z_{i}=x_{i}+\mathcal{G}\left(x_{i} ; \vartheta_{g}\right) zi=xi+G(xi;ϑg)
          s.t. ∥ G ( x i ; ϑ g ) ∥ p ≤ ϵ , p ∈ { 1 , 2 , ∞ } \left\|\mathcal{G}\left(x_{i} ; \vartheta_{g}\right)\right\|_{p} \leq \epsilon, p \in\{1,2, \infty\} G(xi;ϑg)pϵ,p{1,2,}

        • Affinity-preserving Loss

          • J o = ∑ i , j = 1 n ∥ h ( z i ) T h ( z j ) − c ⋅ S i j ∥ F 2 \mathcal{J}_{o}=\sum_{i, j=1}^{n}\left\|h\left(z_{i}\right)^{T} h\left(z_{j}\right)-c \cdot S_{i j}\right\|_{F}^{2} Jo=i,j=1nh(zi)Th(zj)cSijF2
          • 保持模型的检索能力额
        • Privacy-preserving Loss

          J p = α D ^ s + β J s + γ J e \mathcal{J}_{p}=\alpha \widehat{\mathcal{D}}_{s}+\beta \mathcal{J}_{s}+\gamma \mathcal{J}_{e} Jp=αD s+βJs+γJe

          • Domain Loss:原理涉及 “(RKHS)”
          • Similarity Loss
          • Matching Loss

          具体细节阅读文章,loss 还有一些原理不太明白,不过该 loss 的主要目的是为了减小两个梁宇之间的差异

      • 训练过程

        • Objective Function

          这里的训练过程是一种对抗性训练方式,the generator is updated to enlarge the gap between the adversarial data and the original data,the surrogate model is trained with the opposing objective that is to maintain the search performance.

          ϑ ^ g = arg ⁡ min ⁡ ϑ g J o ( ϑ g , ϑ f ) − J p ( ϑ g , ϑ f ) \hat{\vartheta}_{g}=\arg \min _{\vartheta_{g}} \mathcal{J}_{o}\left(\vartheta_{g}, \vartheta_{f}\right)-\mathcal{J}_{p}\left(\vartheta_{g}, \vartheta_{f}\right) ϑ^g=argminϑgJo(ϑg,ϑf)Jp(ϑg,ϑf),
          ϑ ^ f = arg ⁡ min ⁡ ϑ f J o ( ϑ g , ϑ f ) + J p ( ϑ g , ϑ f ) . \hat{\vartheta}_{f}=\arg \min _{\vartheta_{f}} \mathcal{J}_{o}\left(\vartheta_{g}, \vartheta_{f}\right)+\mathcal{J}_{p}\left(\vartheta_{g}, \vartheta_{f}\right) . ϑ^f=argminϑfJo(ϑg,ϑf)+Jp(ϑg,ϑf).

        • 对抗性训练的过程运用到了 Gradient Reversal Layer

          • 来自论文-Unsupervised Domain Adaptation by Backpropagation 是关于 domain adaptation 的文章

    • 实验结果:
      在这里插入图片描述

  • 相关阅读:
    Flutter高仿微信-第30篇-单聊-文本
    8-Spring架构源码分析-IoC 之解析Bean:解析 import 标签
    springcloud学习笔记:通过RestTemplate调用微服务接口
    Scala配置和Spark配置以及Scala一些函数的用法(附带词频统计实例)
    UE4插件 - 编辑器工具栏按钮
    服务器技术有哪些?
    加密磁盘密钥设置方案浅析 — LUKS1
    golang关于channel
    Mac搭建anaconda环境并安装深度学习库
    浅谈结构化数据、非结构化数据,关系数据库、非关系数据库
  • 原文地址:https://blog.csdn.net/weiyuxin107/article/details/127982859