码农知识堂 - 1000bd
  •   Python
  •   PHP
  •   JS/TS
  •   JAVA
  •   C/C++
  •   C#
  •   GO
  •   Kotlin
  •   Swift
  • 基于keras的transformer learning rate schedule


    大家都知道,keras的learning rate schedule是基于epoch的,对于基于steps的learning rate schedule来说,比较难实现,网上都是实现了的tf2的版本的,对于tf1版本的几乎没有,因此我写了一个基于keras2.3.1以及tf1.15的transformer learning rate schedule

            for p, g, m, v, vhat in zip(params, grads, ms, vs, vhats):
                m_t = (self.beta_1 * m) + (1. - self.beta_1) * g
                v_t = (self.beta_2 * v) + (1. - self.beta_2) * K.square(g)
                if self.amsgrad:
                    vhat_t = K.maximum(vhat, v_t)
                    p_t = p - lr_t * m_t / (K.sqrt(vhat_t) + self.epsilon)
                    self.updates.append(K.update(vhat, vhat_t))
                else:
                    p_t = p - lr_t * m_t / (K.sqrt(v_t) + self.epsilon)
    
                self.updates.append(K.update(m, m_t))
                self.updates.append(K.update(v, v_t))
                new_p = p_t
    
                # Apply constraints.
                if getattr(p, 'constraint', None) is not None:
                    new_p = p.constraint(new_p)
    
                self.updates.append(K.update(p, new_p))
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19

    在keras.optimizer.Adam中,我们可以看到,p_t = p - lr_t * m_t / (K.sqrt(v_t) + self.epsilon),因此我们要做的就是改变lr_t。lr_t是输入Adam的learning_rate,没办法轻易改变,因此我的想法是将他固定为1,再在每次更新的时候,重新乘以一个新的lr_multiplier,这个lr_multiplier即为transformer learning rate。

    		@K.symbolic
            def get_updates(self, loss, params):
                lr_multiplier = transformer_schedule(self.iterations,
                                                          self.start_step,
                                                          self.warmup_steps,
                                                          self.d_model)
    
                old_update = K.update
    
                def new_update(x, new_x):
                    if is_one_of(x, params):
                        new_x = x + (new_x - x) * lr_multiplier
                    return old_update(x, new_x)
    
                K.update = new_update
                updates = super(NewOptimizer, self).get_updates(loss, params)
                K.update = old_update
    
                return updates
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19

    我们的主要做法是通过设定一个新的new_update函数,将p_t = p - lr_t * m_t / (K.sqrt(v_t) + self.epsilon)改写成p + (p_t-p)*lr_multiplier = p - lr_t * lr_multiplier * m_t / (K.sqrt(v_t) + self.epsilon)。如此一来,keras中的transformer learning rate schedule就成功实现了。

    完整版本的keras transformer learning rate schedule已经开源在了keras-transformer-schedual,欢迎大家使用

  • 相关阅读:
    (翻译) CAP 理论 FAQ
    css吸顶特效(elementui vue3官网)
    【Java|golang】667. 优美的排列 II---先按k递减,再按1递增
    市“智慧急救”与五大专科中心信息化建设
    快照和镜像
    AI:业余时间打比赛—挣它个小小目标—【阿里安全×ICDM 2022】大规模电商图上的风险商品检测比赛
    2023国家工业软件大会:科东软件与您共创智能时代,引领产业变革!
    计算机视觉40例案例介绍
    KMP算法 → 计算nextval数组
    新加坡大带宽服务器托管优势
  • 原文地址:https://blog.csdn.net/qiongyaoxinpo/article/details/126744099
  • 最新文章
  • 攻防演习之三天拿下官网站群
    数据安全治理学习——前期安全规划和安全管理体系建设
    企业安全 | 企业内一次钓鱼演练准备过程
    内网渗透测试 | Kerberos协议及其部分攻击手法
    0day的产生 | 不懂代码的"代码审计"
    安装scrcpy-client模块av模块异常,环境问题解决方案
    leetcode hot100【LeetCode 279. 完全平方数】java实现
    OpenWrt下安装Mosquitto
    AnatoMask论文汇总
    【AI日记】24.11.01 LangChain、openai api和github copilot
  • 热门文章
  • 十款代码表白小特效 一个比一个浪漫 赶紧收藏起来吧!!!
    奉劝各位学弟学妹们,该打造你的技术影响力了!
    五年了,我在 CSDN 的两个一百万。
    Java俄罗斯方块,老程序员花了一个周末,连接中学年代!
    面试官都震惊,你这网络基础可以啊!
    你真的会用百度吗?我不信 — 那些不为人知的搜索引擎语法
    心情不好的时候,用 Python 画棵樱花树送给自己吧
    通宵一晚做出来的一款类似CS的第一人称射击游戏Demo!原来做游戏也不是很难,连憨憨学妹都学会了!
    13 万字 C 语言从入门到精通保姆级教程2021 年版
    10行代码集2000张美女图,Python爬虫120例,再上征途
Copyright © 2022 侵权请联系2656653265@qq.com    京ICP备2022015340号-1
正则表达式工具 cron表达式工具 密码生成工具

京公网安备 11010502049817号