图像-文本匹配旨在衡量图像和文本描述之间的相似性,最近取得了很大进展。这种跨模态匹配任务的关键是在视觉对象和单词之间建立潜在的语义对齐。由于句子结构的广泛变化,仅使用全局跨模态特征来学习潜在语义对齐非常困难。许多先前的方法试图通过注意力机制学习对齐的图像-文本表示,但通常忽略文本描述中确定单词是否属于同一视觉对象的关系。在本文中,作者提出了一种图注意关系网络(GARN),通过对文本中名词短语之间的关系进行建模来学习对齐的图像-文本表示,以进行身份感知的图像-文本匹配。在 GARN 中,作者首先将图像和文本分别分解为区域和名词短语。然后提出了一种跳过图神经网络(skip-GNN)来学习有效的文本表示,它是文本特征和关系特征的混合体。最后,进一步提出了一种图注意力网络,通过对名词短语之间的关系进行建模,获得名词短语属于图像区域的概率。作者对 CUHK Person Description 数据集 (CUHK-PEDES)、Caltech-UCSD Birds 数据集 (CUB)、Oxford-102 Flowers 数据集和 Flickr30K 数据集进行了广泛的实验,以验证模型中每个组件的有效性。实验结果表明,本文的方法在这四个基准数据集上实现了最先进的结果。
Learning Aligned Image-Text Representations Using Graph Attentive Relational Network
论文地址:https://ieeexplore.ieee.org/document/9318563
代码地址:未开源
学习视觉和语言是计算机视觉和模式识别社区的一项重要任务,近年来引起了极大的关注。该领域有各种研究任务,例如图像文本检索、视觉问答和图像字幕。深度学习的发展取得了很大的进步。尽管取得了这些进步,但由于视觉和语言之间的语义差距,跨模式匹配仍有待解决。在本文中,作者研究了身份感知图像文本匹配的任务,该任务旨在搜索与文本查询具有相同身份的图像,并检索描述与图像查询相同身份的文本。
然而,这项任务有几个挑战。首先,语言描述和图像外观之间的复杂关系是高度非线性的,例如名词短语和图像区域之间的对应关系。其次,由于关注点不同,人们通常以不同的描述顺序来描述同一个图像。如上图所示,两个句子都描述了中间图像,但它们没有很好地对齐。左边的文字首先描述了 T 恤,而右边的文字首先描述了头发。由于文本中的循环编码方式,不同的句子结构虽然具有相同的语义,但会导致不同的文本特征。总之,直接使用未探索图像和文本之间的语义对齐的未对齐特征进行匹配是不合适的。因此,这项任务的挑战在于学习对齐的跨模态特征。受类似观察的启发,一些先前的方法提出使用注意力机制将图像区域与文本词进行匹配。但是这些注意方法将句子中的不同单词视为个体,**忽略了决定单词是否属于同一视觉对象的单词之间的关
为了解决上述问题,作者提出了一个图注意关系网络(GARN),通过对局部文本特征之间的关系进行建模来学习对齐的图像-文本表示。模型的框架如图2所示。首先利用视觉卷积神经网络(CNN)来提取视觉特征图。然后通过水平池化获得水平表示。对于文本输入,首先提取名词短语,然后使用双向长短期记忆 (LSTM) 网络来学习文本特征。针对名词短语的特点,提出了一种跳跃图神经网络,图中的节点表示句子中的名词短语,边表示节点之间的关系。这种跳过图神经网络可以通过将文本特征与关系特征相结合来学习更有效的文本表示。为了学习对齐的图像-文本表示,作者提出了一个图注意网络来学习图像区域和名词短语之间的对应关系。该注意力网络通过对名词短语之间的关系进行建模来学习名词短语属于图像区域的概率。在训练模型时,我们不仅执行全局匹配,还执行局部匹配以学习更多的判别表示。此外,成对排序损失和识别损失都用于联合最小化身份内距离和最大化身份间距离。为了证明所提出模型的有效性,作者在四个身份感知跨模态匹配数据集上进行了实验:CUHK Person Description (CUHK-PEDES) 、Caltech-UCSD Birds (CUB)、Oxford-102 Flowers 和 Flickr30K ,并取得了最先进的结果。
本文工作的主要贡献有四个方面:
• 提出了一种新颖的图注意关系网络 (GARN) 来学习对齐的图像-文本表示。
• 跳过图神经网络旨在通过将文本特征与关系特征相结合来学习有效的文本表示。
• 通过一种新颖的图形注意网络对潜在的视觉语义对齐进行建模,该网络明确地建模了名词短语之间的关系。
• GARN 在四个具有挑战性的基准测试中取得了最佳性能,这验证了模型的有效性。
在本节中,将详细介绍图注意关系网络(GARN)。为了学习更有效的文本表示,作者提出了一个跳跃图神经网络。此外,作者提出了一个图注意力网络来学习图像区域和名词短语之间的潜在语义对齐。除了局部匹配外,全局匹配还用于学习全局判别表示。最后,作者结合使用识别损失和成对排名损失来训练 GARN。
给定图像,作者使用视觉 CNN 提取视觉特征。图像特征 ϕ ′ ( I ) ∈ R m ′ × n × d \phi^{\prime}(I) \in \mathbb{R}^{m^{\prime} \times n \times d} ϕ′(I)∈Rm′×n×d在视觉 CNN 的最后一个池化层之前获得。然后将 ϕ ′ ( I ) \phi^{\prime}(I) ϕ′(I)划分为 m 个水平条纹。在每个条带中,同一列中的向量被平均为单个列向量。然后将 ϕ ′ ( I ) \phi^{\prime}(I) ϕ′(I)转换为 ϕ ( I ) ∈ R m × n × d \phi(I) \in \mathbb{R}^{m \times n \times d} ϕ(I)∈Rm×n×d,其中 m×n×d 表示有 m×n 个区域,每个区域由一个 d 维向量表示。全局视觉表示 ψ ( I ) ∈ R d \psi(I) \in \mathbb{R}^{d} ψ(I)∈Rd定义如下:
ψ ( I ) = avgpool ( ϕ ( I ) ) \psi(I)=\operatorname{avgpool}(\phi(I)) ψ(I)=avgpool(ϕ(I))
其中 avgpool 表示沿 m × n 个区域的平均池化。局部特征 V ( I ) V(I) V(I) 是通过沿列向量平均池化 ϕ ( I ) ∈ R m × n × d \phi(I) \in \mathbb{R}^{m \times n \times d} ϕ(I)∈Rm×n×d获得的,其中 V ( I ) = { v 1 , v 2 , … , v m } , v i ∈ R d V(I)=\left\{v_{1}, v_{2}, \ldots, v_{m}\right\}, v_{i} \in \mathbb{R}^{d} V(I)={v1,v2,…,vm},vi∈Rd。作者仅对 CUHK-PEDES 数据集使用水平特征。对于 CUB、Flower 和 Flickr30K 数据集,由于它们不具有与 CUHKPEDES 相似的判别水平特征,通过将图像特征 ϕ ′ ( I ) \phi^{\prime}(I) ϕ′(I)划分为 m ′ × n m^{\prime} \times n m′×n个视觉特征得到局部部分特征 V ( I ) V(I) V(I)。
给定一个文本 T,首先将每个单词表示为一个 D 维 one-hot 向量。第 j 个词表示为 w i ∈ R D w_{i} \in \mathbb{R}^{D} wi∈RD,其中 D 是词汇量。然后通过一个嵌入矩阵 W e W_{e} We将单词嵌入到一个 p 维向量中:
x j = W e w j , j ∈ [ 1 , z ] x_{j}=W_{e} w_{j}, \quad j \in[1, z] xj=Wewj,j∈[1,z]
其中 z 表示文本 T 中的单词数。基于嵌入向量,通过双向长短期记忆网络 (bi-LSTM) 对它们进行编码,该网络包含一个前向 L S T M → \overrightarrow{L S T M} LSTM和一个后向 L S T M ← \overleftarrow{L S T M} LSTM:
h j → = L S T M → ( x j , h j − 1 → ) , j ∈ [ 1 , z ] , h j ← = L S T M ← ( x j , h j − 1 ← ) , j ∈ [ 1 , z ] \overrightarrow{h_{j}}=\overrightarrow{L S T M}\left(x_{j}, \overrightarrow{h_{j-1}}\right), \quad j \in[1, z],\\\overleftarrow{h_{j}}=\overleftarrow{L S T M}\left(x_{j}, \overleftarrow{h_{j-1}}\right), \quad j \in[1, z] hj=LSTM(xj,hj−1),j∈[1,z],hj=LSTM(xj,hj−1),j∈[1,z]
LSTM 单元输入当前的词嵌入向量 x j x_{j} xj和之前的隐藏状态 h j − 1 h_{j-1} hj−1,并输出当前的隐藏状态 h j h_{j} hj。全局文本表示 e t e^{t} et定义为最后隐藏状态 h z → \overrightarrow{h_{z}} hz和 h 1 ← \overleftarrow{h_{1}} h1 的concat:
e t = concat ( h z → , h 1 ← ) e^{t}=\operatorname{concat}\left(\overrightarrow{h_{z}}, \overleftarrow{h_{1}}\right) et=concat(hz,h1)
对于给定的文本描述,作者利用 NLTK提取名词短语 N。提取过程如上图所示。与文本描述类似,对于 N = ( n 1 , n 2 , … , n q ) N =\left(n_{1}, n_{2}, \ldots, n_{q}\right) N=(n1,n2,…,nq),我们根据类似公式表示它。因此,可以得到所有名词短语 e n = ( e 1 n , e 2 n , … , e q n ) e^{n}=\left(e_{1}^{n}, e_{2}^{n}, \ldots, e_{q}^{n}\right) en=(e1n,e2n,…,eqn)的表示。需要注意的是,作者在对全局文本描述和名词短语进行编码时采用了相同的 bi-LSTM。此外,名词短语 q 的数量在不同的文本描述中有所不同。
在获得视觉和文本特征后,衡量它们之间相似度的最简单方法是计算余弦分数。但存在如下一些问题。一方面,直接利用全局未对齐特征无法提取图像区域和名词短语之间的潜在对应关系。另一方面,文本输入之间的错位会影响特征学习和匹配。可以在图 1 中看到,这两个句子都在描述同一个图像,但它们的描述方式不同。因此,学习对齐的图像-文本表示具有重要价值。一些工作提出了许多基于注意力的方法来解决这个问题。他们利用视觉(文本)特征来关注文本(视觉)特征或共同注意。但是这些注意方法将句子中不同的名词短语视为个体,而忽略了它们之间的关系,这对于确定它们是否属于同一视觉区域很重要。例如,手机通常是握在手上的,所以名词短语“phone”和“hand”应该通过建模它们的关系来划分到手的相同视觉区域。因此,应该对对象之间的关系进行建模以进行有效匹配。
基于上述分析,作者提出利用图形神经网络(GNN)来建模对象之间的关系来学习对齐的图像-文本表示。
首先,作者使用图神经网络来学习有效的文本表示。典型的图由表示句子中的名词短语的节点和表示节点之间关系的边组成。给定一组节点 N 及其关系 R,图定义为 G = (N, R),其中 N = {n1, n2, . . . , nq}。对于 GNN 中的节点 k,时间步 t 的隐藏状态 s k t s_{k}^{t} skt基于其先前的隐藏状态 s k t − 1 s_{k}^{t-1} skt−1和从其邻域接收的消息 η k t \eta_{k}^{t} ηkt以循环方式更新。所有节点同时更新。因此,GNN 的公式定义如下:
η k t = f ( { s k ′ t − 1 ∣ k ′ ∈ Ω k } ) s k t = g ( η k t , s k t − 1 ) ηtk=f({st−1k′∣k′∈Ωk})stk=g(ηtk,st−1k) ηktskt=f({sk′t−1∣k′∈Ωk})=g(ηkt,skt−1)
其中 f 是消息传递函数,g 是节点更新函数。
在这项工作中,考虑到 ResNet 和 UNet 取得的巨大成功表明跳过连接对于模型优化和性能改进非常有效,作者提出了一个跳过 GNN 来建模名词短语之间的关系以及它们由 bi-LSTM 编码的初始特征。初始特征 e n = ( e 1 n , e 2 n , … , e q n ) e^{n}=\left(e_{1}^{n}, e_{2}^{n}, \ldots, e_{q}^{n}\right) en=(e1n,e2n,…,eqn)被馈送到 skip-GNN 作为初始输入。为简单起见,上图显示了具有四个节点的全连接 skip-GNN 模型的结构和更新机制。可以看到,在时间步 t,第 k 个节点输入输入特征 a k t − 1 a_{k}^{t-1} akt−1和消息 η k t \eta_{k}^{t} ηkt。作者用名词短语 e k n e_{k}^{n} ekn的初始特征初始化 a k 0 a_{k}^{0} ak0:
a k 0 = W a e k n + b a a_{k}^{0}=W_{a} e_{k}^{n}+b_{a} ak0=Waekn+ba
其中 W a W_{a} Wa是输入嵌入矩阵。由于节点与不同的邻域节点有不同的关系,我们利用邻域节点先前的隐藏状态来定义消息。因此,具有相似特征的节点彼此之间的关系更加密切。
η k , j t = W m s j t − 1 + b m η k t = ∑ j ∈ Ω k η k , j t ηtk,j=Wmst−1j+bmηtk=∑j∈Ωkηtk,j ηk,jtηkt=Wmsjt−1+bm=j∈Ωk∑ηk,jt
其中 W m W_{m} Wm是共享消息嵌入矩阵, η k t \eta_{k}^{t} ηkt表示整个接收到的消息。然后将 η k t \eta_{k}^{t} ηkt和 a k t − 1 a_{k}^{t-1} akt−1连接起来作为最终的输入消息。因此,节点不仅可以从它们的邻居接收消息,还可以从它们自己的初始特征接收消息。通过获取的消息,可以更新节点的隐藏状态:
s k t = g ( concat ( η k t , a k t − 1 ) , s k t − 1 ) , s_{k}^{t}=g\left(\operatorname{concat}\left(\eta_{k}^{t}, a_{k}^{t-1}\right), s_{k}^{t-1}\right), skt=g(concat(ηkt,akt−1),skt−1),
其中g表示节点更新函数,类似于LSTM单元:
f k t = σ ( W f ⋅ [ s k t − 1 , η k t , a k t − 1 ] + b f ) , i k t = σ ( W i ⋅ [ s k t − 1 , η k t , a k t − 1 ] + b i ) , C ~ k t = tanh ( W C ⋅ [ s k t − 1 , η k t , a k t − 1 ] + b C ) C k t = f k t ∗ C k t − 1 + i k t ∗ C ~ k t , o k t = σ ( W o ⋅ [ s k t − 1 , η k t , a k t − 1 ] + b o ) , s k t = o k t ∗ tanh ( C k t ) , ftk=σ(Wf⋅[st−1k,ηtk,at−1k]+bf),itk=σ(Wi⋅[st−1k,ηtk,at−1k]+bi),˜Ctk=tanh(WC⋅[st−1k,ηtk,at−1k]+bC)Ctk=ftk∗Ct−1k+itk∗˜Ctk,otk=σ(Wo⋅[st−1k,ηtk,at−1k]+bo),stk=otk∗tanh(Ctk), fktiktC~ktCktoktskt=σ(Wf⋅[skt−1,ηkt,akt−1]+bf),=σ(Wi⋅[skt−1,ηkt,akt−1]+bi),=tanh(WC⋅[skt−1,ηkt,akt−1]+bC)=fkt∗Ckt−1+ikt∗C~kt,=σ(Wo⋅[skt−1,ηkt,akt−1]+bo),=okt∗tanh(Ckt),
其中 W f , b f , W i , b i , W C , b C , W o , b o W_{f}, b_{f}, W_{i}, b_{i}, W_{C}, b_{C}, W_{o}, b_{o} Wf,bf,Wi,bi,WC,bC,Wo,bo是学习参数。值得注意的是,这些参数在不同节点之间共享。
然后更新输入特征如下:
a k t = a k t − 1 + s k t a_{k}^{t}=a_{k}^{t-1}+s_{k}^{t} akt=akt−1+skt
由于节点特征在每个时间步之后都会更新,因此该输入特征可以通过在 a k t a_{k}^{t} akt和 a k t − 1 a_{k}^{t-1} akt−1之间的跳过连接来融合初始文本特征和节点关系特征。在迭代消息传递 T 步之后,计算最终的融合表示为:
p k = W p a k T + b p p_{k}=W_{p} a_{k}^{T}+b_{p} pk=WpakT+bp
其中 W p W_p Wp 是输出嵌入矩阵。
由于名词短语q的数量在不同的文本描述中有所不同,对于名词短语少于skip-GNN中节点数的文本描述,我们设置了所有未使用节点的隐藏状态、输入消息和输出消息在每个时间步为零,以确保他们无法接收或发送任何信息。
名词短语之间的关系表明它们是否属于同一视觉区域。为了获得名词短语属于图像区域的概率,作者通过对名词短语之间的关系进行建模,提出了一个图注意力网络。
图注意力网络旨在学习skip-GNN模型节点上的注意力矩阵,可以提取与特定图像区域相对应的节点嵌入。我们首先描述使用 GNN 架构生成注意矩阵,然后讨论给定注意矩阵的注意过程。
通过典型的 GNN 生成注意矩阵,如下所示:
A = softmax ( G N N a t t ( e n ) ) , A=\operatorname{softmax}\left(G N N_{a t t}\left(e^{n}\right)\right), A=softmax(GNNatt(en)),
其中softmax 函数以逐行方式应用。 e n e^{n} en是名词短语特征,它被馈送到典型的 GNN。 G N N a t t G N N_{a t t} GNNatt的输出维度对应于预定义的数 m。因此,注意力矩阵 A ∈ R q × m A \in \mathbb{R}^{q \times m} A∈Rq×m。
A 的每一行对应于 skip-GNN 的 q 个名词短语表示之一,A 的每一列对应于一个图像区域,这提供了每个名词短语表示到图像区域的软分配。使用计算出的 A,执行以下操作:
A t t = A T P , A t t ∈ R m × 2 l A t t=A^{T} P, \quad A t t \in \mathbb{R}^{m \times 2 l} Att=ATP,Att∈Rm×2l
其中注意力矩阵 A 聚合了名词短语表示 P = { p 1 , p 2 , … , p q } P=\left\{p_{1}, p_{2}, \ldots, p_{q}\right\} P={p1,p2,…,pq}到part-level cluster,l是bi-LSTM在文本表示学习中的隐藏维度。
利用学习到的对齐图像-文本表示,作者测量图像区域和名词短语之间的局部相似性。首先,将图像区域特征 V(I) 和参与的名词短语表示 Att 转换为相同的特征空间:
v i ~ = W v v i a t t i ~ = W a t t a t t i , i = 1 , 2 , … , m ~vi=Wvvi~atti=Wattatti,i=1,2,…,m vi~atti =Wvvi=Wattatti,i=1,2,…,m
其中 W v ∈ R b × d W_{v} \in \mathbb{R}^{b \times d} Wv∈Rb×d和 W a t t ∈ R b × 2 l W_{a t t} \in \mathbb{R}^{b \times 2 l} Watt∈Rb×2l是两个变换矩阵,b 是变换后的特征空间的维数。 a t t i a t t_{i} atti表示 Att 的第 i 行向量。
然后,图像区域与名词短语的局部相似度定义为:
s i = cos ( v ~ i , a t ~ t i ) , i = 1 , 2 , … , m S l = ∑ i = 1 m s i si=cos(˜vi,a˜tti),i=1,2,…,mSl=m∑i=1si siSl=cos(v~i,at~ti),i=1,2,…,m=i=1∑msi
其中 cos 表示余弦函数。
除了局部匹配外,全局匹配也被用来衡量它们的全局相似度。作者计算全局视觉表示 ψ ( I ) \psi(I) ψ(I)和文本表示 e t e^{t} et之间的全局相关性。
作者首先将全局视觉表示 ψ ( I ) \psi(I) ψ(I)和文本表示 e t e^{t} et转换为相同的特征空间,如下所示:
e t ~ = W e t e t ψ ( I ) ~ = W ψ ψ ( I ) ~et=Wetet~ψ(I)=Wψψ(I) et~ψ(I) =Wetet=Wψψ(I)
其中 W e t ∈ R b × 2 l W_{e^{t}} \in \mathbb{R}^{b \times 2 l} Wet∈Rb×2l和 W ψ ∈ R b × d W_{\psi} \in \mathbb{R}^{b \times d} Wψ∈Rb×d是两个变换矩阵。
然后按如下方式计算全局相似度:
S g = cos ( ψ ( I ) ~ , e t ~ ) . S^{g}=\cos \left(\widetilde{\psi(I)}, \tilde{e^{t}}\right) . Sg=cos(ψ(I) ,et~).
成对排序损失是匹配任务中常用的损失函数,旨在确保正对比负对更接近。许多以前的工作从数据集中随机选择负对,并忽略了mini-batch中其他负样本的影响。在本文中,作者将最难的负样本集中在一个mini-batch中。给定一个正对 ( I p , T p ) \left(I_{p}, T_{p}\right) (Ip,Tp),最难的负对定义如下:
T h ^ = argmax t ≠ T S ( I , t ) I h ^ = argmax i ≠ I S ( i , T ) , T_{\widehat{h}}=\operatorname{argmax}_{t \neq T} S(I, t)\\I_{\widehat{h}}=\operatorname{argmax}_{i \neq I} S(i, T), Th =argmaxt=TS(I,t)Ih =argmaxi=IS(i,T),
其中 T h ^ T_{\widehat{h}} Th 是图像 I p I_{p} Ip的最难文本样本, I h ^ I_{\widehat{h}} Ih 是文本 T p T_{p} Tp的最难图像样本。因此,本文的排名损失定义为:
L r ( I , T ) = max ( α − S ( I , T ) + S ( I , T h ^ ) , 0 ) + max ( α − S ( I , T ) + S ( I h ^ , T ) , 0 ) Lr(I,T)=max Lr(I,T)=max(α−S(I,T)+S(I,Th ),0)+max(α−S(I,T)+S(Ih ,T),0)
其中 α 是边距。此损失函数确保正对比最难的负对更接近,这可能决定由 top-1 准确度衡量的成功或失败。对于全局匹配分数,可以获得全局排名损失 L r g L_{r}^{g} Lrg。
除了ranking loss,identity-level匹配也采用了identification loss。全局图像和文本识别损失 L i g L_{i}^{g} Lig和 L t g L_{t}^{g} Ltg 定义如下:
L i g = − y i d log ( softmax ( W i d g ψ ( I ) ) ~ ) L t g = − y i d log ( softmax ( W i d g e t ~ ) ) L_{i}^{g}=-y_{i d} \log \left(\operatorname{softmax}\left(W_{i d}^{g} \widetilde{\psi(I))}\right)\right.\\L_{t}^{g}=-y_{i d} \log \left(\operatorname{softmax}\left(W_{i d}^{g} \tilde{e^{t}}\right)\right) Lig=−yidlog(softmax(Widgψ(I)) )Ltg=−yidlog(softmax(Widget~))
其中 W i d W_{i d} Wid是用于对特征表示进行分类的变换矩阵, y i d y_{i d} yid是GT身份, L i g L_{i}^{g} Lig和 L t g L_{t}^{g} Ltg 分别是全局视觉和文本识别损失。
那么总的全局损失定义为:
L g = L r g + λ 1 L i g + λ 2 L t g L^{g}=L_{r}^{g}+\lambda_{1} L_{i}^{g}+\lambda_{2} L_{t}^{g} Lg=Lrg+λ1Lig+λ2Ltg
类似地,可以得到总局部损失 L l L^{l} Ll。 λ 是控制每个损失函数的相对重要性的超参数
最终的损失函数定义为:
L = L g + λ 3 L l L=L^{g}+\lambda_{3} L^{l} L=Lg+λ3Ll
在测试阶段,我们计算图像-文本对之间的总相似度 S 用于检索评估,其定义如下:
S = S g + λ 3 S l S=S^{g}+\lambda_{3} S^{l} S=Sg+λ3Sl
将结果与 CUHK-PEDES 的最新方法进行比较。
将结果与 CUB和FLOWER数据集上的最新方法进行比较。
将结果与 FLICKR30K 数据集上的最新方法进行比较。
在 CUHK-PEDES 上提出的 GARN 中不同成分的消融分析。
提出的 GARN 对来自 CUHK-PEDES 的两个示例的每个图像区域的参与名词短语进行可视化。
通过两种模型(基线和 GARN)在 CUHK-PEDES 数据集上给定文本查询的图像检索的定性结果。
CUHK-PEDES 数据集准确性比较结果 (%)。
在 CUB 和 Flower 数据集上给定文本查询的图像检索和给定图像查询的文本检索的定性结果。
提出的基线、baseline+id 和 GARN 在 CUHK-PEDES 数据集上学习的图像和文本特征的 t-SNE 可视化。
在本文中,作者提出了一种图注意关系网络来学习对齐的图像-文本表示,以进行身份感知的图像-文本匹配。本文的主要贡献是通过建模名词短语之间的关系来改进文本表示和学习图像和文本之间的语义对齐。这些分别通过跳过图神经网络和图注意网络来完成。在匹配过程中,全局匹配和局部匹配都被用来学习更多的判别表示。作者在对四个身份感知数据集进行了广泛的实验,实验结果表明,本文的方法比最先进的方法取得了更好的性能,这验证了本文的 GARN 在身份感知图像文本匹配中的有效性。
面向小白的顶会论文核心代码库:https://github.com/xmu-xiaoma666/External-Attention-pytorch
面向小白的YOLO目标检测库:https://github.com/iscyy/yoloair
面向小白的顶刊顶会的论文解析:https://github.com/xmu-xiaoma666/FightingCV-Paper-Reading
“点个在看,月薪十万!”
“学会点赞,身价千万!”