• GL-Cache: Group-level learning for efficient and high-performance caching


    会议全称:

    Conference on File and Storage Technologies

    出版社:

    USENIX

    21st USENIX Conference on File and Storage Technologies

    摘要:

    web应用强依赖于软件缓存去实现低延迟和高吞吐量服务。

    Web应用程序严重依赖软件缓存来实现低延迟、高吞吐量的服务

    为去适应变化的负载,近年来为学习缓存(学习清除)设计三种方案:面向对象学习、面向分配学习和面向专家学习。

    为了适应不断变化的工作负载,近年来设计了三种类型的学习缓存(学习清除):对象级学习、从分布中学习和从简单专家中学习

    然而,我们在现有方法下讨论 学习的间隔尺寸过于细了(对象级),导致高计算量和存储;对于过于粗糙负载和专家级在对象和叶节点考虑存在高效差距的不同。

    然而,我们认为,现有方法中的学习粒度要么太细(对象级),导致大量的计算和存储开销,要么太粗(工作负载或专家级),无法捕捉对象之间的差异,从而留下相当大的效率差距。

    在这项工作中,我们提出一种新的方法在缓存中学习(”团体级学习“),该方法相似对象聚集为一组,进行性能学习和收回团队级。

    在这项工作中,我们提出了一种新的缓存学习方法(“组级学习”),它将相似的对象聚类成组,并在组级执行学习和驱逐。

    组级学习为学习积累更多信号,利用更多特征自适应权重和对超过阈值的对象开销进行平摊。因此,实现高效率和高吞吐量。

    组级学习积累了更多的学习信号,利用了更多具有自适应权重的特征,并分摊了对象的开销,从而实现了高效率和高吞吐量。

  • 相关阅读:
    Util应用框架 7.x 来了
    SpringCache和Redis结合基本使用
    民安智库(第三方市场调研公司)物业满意度入户调查
    移远EC600U-CN开发板 day01
    大数据架构设计(四十五)
    每日一练——
    C++构造函数中不能使用多态
    NVIDIA 7th SkyHackathon(四)Nemo ASR 模型训练与评估
    Linux - dsta 命令详解
    ATtiny88初体验(四):看门狗
  • 原文地址:https://blog.csdn.net/weixin_62646577/article/details/133756211