码农知识堂 - 1000bd
  •   Python
  •   PHP
  •   JS/TS
  •   JAVA
  •   C/C++
  •   C#
  •   GO
  •   Kotlin
  •   Swift
  • Re14:读论文 ILLSI Interpretable Low-Resource Legal Decision Making


    诸神缄默不语-个人CSDN博文目录

    论文名称:Interpretable Low-Resource Legal Decision Making
    论文ArXiv下载地址:https://arxiv.org/abs/2201.01164
    论文AAAI官方下载地址:https://ojs.aaai.org/index.php/AAAI/article/view/21438/21187
    论文官方GitHub项目,但是只放了README文件:RohanVB/Interpretable-Low-Resource-Legal-Decision-Making: Source code for paper “Interpretable Low-Resource Legal Decision Making”

    本文是2022年AAAI论文。
    本文的任务是输入案例事实描述文本,预测判决结果,即案例中提及的两个商标是否存在likelihood of confusion问题。
    在这里插入图片描述

    为了解决法律裁决任务中的可解释性问题,本文提出了预测中间标签的方法,并使用curriculum learning strategy解决了弱监督学习的问题,使模型可以利用到海量的仅用规则标注的noisy label的弱监督数据。

    ILLSI这个模型简称是我编的。

    文章目录

    • 1. Background
    • 2. 数据集
    • 3. 模型
      • 3.1 主模型
      • 3.2 curriculum learning
      • 3.3 不做多任务范式的原因
    • 4. 实验
      • 4.1 baseline:RoBERTa
      • 4.2 实验设置
      • 4.3 主实验结果
      • 4.4 Calibration(这一部分还没看懂)
    • 5. 文献阅读思考
    • 6. 代码复现

    1. Background

    likelihood of confusion:新商标与旧已有商标太像,会引起混淆,所以不允许。

    低资源:深度学习模型会对小样本标注数据表现好(我觉得怪怪的……):(1) 迁移学习+finetune(对超参敏感)(2) 弱监督或远程监督
    在这里插入图片描述
    在这里插入图片描述

    可解释性

    2. 数据集

    (说要公布但是还没有公布)由两部分组成:

    1. 525个样本:有从5个角度来衡量相似性的中间标签。分成训练集/验证集/测试集。
      在这里插入图片描述
    2. 2852个样本:全都作为训练集。
      在这里插入图片描述
    3. augment:
      在这里插入图片描述
      我没有搞懂这个augment数据集的标签数据是怎么得来的,意思是跟clean数据中相似的句子有一样的中间标签?然后最后标签就直接求最大值?阈值是什么?我看跟人工筛选的规则也不一样啊,没有各feature之间的关联?

    3. 模型

    3.1 主模型

    在这里插入图片描述
    f 1 f_1 f1​在端到端baseline上预训练(交叉熵)
    f 2 f_2 f2​在端到端baseline上预训练,损失函数:(Smooth L1 Loss:关注outliers)
    在这里插入图片描述
    E i n t e r n E_{intern} Eintern​:transformer→前馈神经网络
    融合:
    在这里插入图片描述

    3.2 curriculum learning

    实现中间标签生成时使用的curriculum learning:
    在这里插入图片描述

    3.3 不做多任务范式的原因

    在这里插入图片描述
    (实验部分也拿多任务作为baseline了)

    4. 实验

    4.1 baseline:RoBERTa

    1. End-to-End在这里插入图片描述
    2. 多任务在这里插入图片描述

    4.2 实验设置

    超参数:
    f 2 f_2 f2​的β设为1
    E i n t e r n E_{intern} Eintern​隐藏层维度300(随便设的),transformer 6 layers with 6 heads,前馈维度512
    batch size为8
    一张 RTX 2080Ti machine with 11 GB of memory
    curriculum learning的bins数为3(在calibration experiments中用5)
    在这里插入图片描述

    4.3 主实验结果

    在这里插入图片描述
    在这里插入图片描述

    中间标签的预测结果:
    在这里插入图片描述

    4.4 Calibration(这一部分还没看懂)

    Expected Calibration Error (ECE)

    在这里插入图片描述

    在这里插入图片描述

    5. 文献阅读思考

    不管怎么想我还是觉得这个任务应该用多模态范式来做,比如对比图片和发音。(我看到Analytics and EU Courts: The Case of Trademark Disputes这一篇真的用了CV,我心满离)

    6. 代码复现

    这数据集都没放出来,代码也没放出来,我issue提了也不回,复现个屁。

  • 相关阅读:
    快速入门ES6语法(ECMAScript 6)
    前端页面布局之【响应式布局】
    lua基础之debug
    IDEA之MyBatisX的使用
    【路径规划】基于状态空间采样实现机器人二维路径规划附matlab完整代码
    【maven下载、安装、配置教程】
    Python+Appium自动化测试-编写自动化脚本
    SizeBasedTriggeringPolicy简介说明
    国密算法:利用python进行sm4算法的加解密,对称密钥
    精彩回顾 | 迪捷软件亮相2023世界智能网联汽车大会
  • 原文地址:https://blog.csdn.net/PolarisRisingWar/article/details/126033696
  • 最新文章
  • 攻防演习之三天拿下官网站群
    数据安全治理学习——前期安全规划和安全管理体系建设
    企业安全 | 企业内一次钓鱼演练准备过程
    内网渗透测试 | Kerberos协议及其部分攻击手法
    0day的产生 | 不懂代码的"代码审计"
    安装scrcpy-client模块av模块异常,环境问题解决方案
    leetcode hot100【LeetCode 279. 完全平方数】java实现
    OpenWrt下安装Mosquitto
    AnatoMask论文汇总
    【AI日记】24.11.01 LangChain、openai api和github copilot
  • 热门文章
  • 十款代码表白小特效 一个比一个浪漫 赶紧收藏起来吧!!!
    奉劝各位学弟学妹们,该打造你的技术影响力了!
    五年了,我在 CSDN 的两个一百万。
    Java俄罗斯方块,老程序员花了一个周末,连接中学年代!
    面试官都震惊,你这网络基础可以啊!
    你真的会用百度吗?我不信 — 那些不为人知的搜索引擎语法
    心情不好的时候,用 Python 画棵樱花树送给自己吧
    通宵一晚做出来的一款类似CS的第一人称射击游戏Demo!原来做游戏也不是很难,连憨憨学妹都学会了!
    13 万字 C 语言从入门到精通保姆级教程2021 年版
    10行代码集2000张美女图,Python爬虫120例,再上征途
Copyright © 2022 侵权请联系2656653265@qq.com    京ICP备2022015340号-1
正则表达式工具 cron表达式工具 密码生成工具

京公网安备 11010502049817号