——医学领域
论文面向领域:医学实体识别任务和实体标准化任务。
后者是将识别到的mention和知识库中已有的mention做对比,标准化已识别到的mention。这一项任务也可以被理解为short text的matching问题。
**思想:**先易后难,从简单的做起。
将任务分解为子任务,从简单的子任务不断扩展到复杂的子任务。
encoder:Bert
低层级任务:抽取出医学文本中的所有可能实体
中层级任务:识别现有的医学实体是否可以映射到标准的实体;
高层级任务:抽取出可以被映射到标准候选实体的实体提及。
论文中的思想:从简到难值得借鉴。
当吧任务拆分为子任务时,会遇到一个问题,误差传播和任务之间的交互性,这里采用了注意力机制的方法,可以借鉴。(这点比较重要)
细粒度的命名实体类型识别问题。
### 盒模型
盒的体积计算:Vol(x) = ∏︁i(xM,i − xm,i). 如果我们将框空间的体积标准化为 1,我们可以将每个框的体积解释为提及显示给定实体类型的边际概率。
条件概率计算为: P(y | x) = Vol(x∩y)/Vol(x)
improve training of box embeddings using max and min Gumbel distributions (i.e., Gumbel boxes) to represent the min and max coordinates of a box.
x是上下文的嵌入,y是某个type的嵌入,zk是交叉重叠部分。
mention and context encoder
loss计算(m表示mention和s表示context):
最出彩的地方,就是开头的出发点。
眼前一亮。dot->box;
利用O class表示的信息,丰富知识表示,具体,是对O表示的部分,做一个类型分类,类似于实体分类任务。
出发点:我们主张进一步将 O 类解耦为多个未定义的类,以充分利用隐藏在 O 类中的丰富语义
一是预测O表示的classes
二是识别文中的实体。
zero-shot 问题
In step 1, we train the prototypical network on predefined classes to obtain the learned mapping function. Through the learned mapping function the examples belonging to the same class will cluster in the space. In step 2, we train a binary group classifier on predefined classes base on the position features from the learned mapping function and unlearned mapping function to judge whether any two points tend to cluster during the step 1 training. In step 3, we use the learned binary group classifier in step 2 to infer examples in O class to distinguish undefined classes from each other
第一步,根据现有的标注实体训练每种类型的原型网络
第二步+第三步,根据原型,训练一个二分类器,判断O class是否可以归于其中某类,或聚类到某类