https://github.com/s3prl/s3prl
https://s3prl.github.io/s3prl/
s3prl是一个语音开源工具包,它的名字来自于Self-Supervised Speech Pre-training and Representation Learning的缩写。这个工具库构建好了自监督的语音预训练模型这个上游任务,可以迁移应用于各种下游任务。
giget 是一个 git 库命令行下载工具,具备如下特性:
https://github.com/prius/leetcode-anki
刷题神器,通过运行这个项目的脚本,可以自动生成带有所有leetcode问题的 Anki 卡片,方便刷题和学习。
https://github.com/maxhumber/redframes
redframes(rectangular data frames)是一个用于机器学习和可视化的数据操作工具库。它与pandas完全互通,与scikit-learn兼容,并且兼容matplotlib工具库。
redframes有着非常精简的语法,让大家专注于核心工作而无需一直查看工具库使用方法。
https://github.com/WenjieDu/PyPOTS
PyPOTS 是一个用于时间序列数据挖掘的 Python 工具库,支持对具有缺失值的不完整多变量时间序列进行预测/计算/分类/聚类的任务。
https://people.math.ethz.ch/~abandeira/
pdf下载:https://people.math.ethz.ch/~abandeira/BandeiraSingerStrohmer-MDS-draft.pdf
教程包含以下主题:
https://github.com/LambdaLabsML/examples
集合收集了几个不错的深度学习实例,包含比较完整的项目说明和代码。
可以点击 这里 回复关键字 日报,免费获取整理好的论文合辑。
科研进展
- 2022.09.06 『图像生成』 A Survey on Generative Diffusion Model
- 2022.09.14 『对比学习』 SPACE-2: Tree-Structured Semi-Supervised Contrastive Pre-training for Task-Oriented Dialog Understanding
- 2022.09.08 『人脸合成』 Text-Free Learning of a Natural Language Interface for Pretrained Face Generators
论文时间:6 Sep 2022
领域任务:图像生成
论文地址:https://arxiv.org/abs/2209.02646
代码实现:https://github.com/chq1155/A-Survey-on-Generative-Diffusion-Model
论文作者:Hanqun Cao, Cheng Tan, Zhangyang Gao, Guangyong Chen, Pheng-Ann Heng, Stan Z. Li
论文简介:This survey makes a summary of the field of the diffusion model./这份调查报告对扩散模型的领域做了一个总结。
论文摘要:得益于深度潜伏表征,深度学习在生成任务中显示出巨大潜力。生成模型是一类能够随机生成与某些隐含参数有关的观察结果的模型。最近,扩散模型凭借其强大的生成能力,成为生成模型的一个提升类别。如今,已经取得了巨大的成就。除了计算机视觉、语音生成、生物信息学和自然语言处理之外,更多的应用将在这一领域得到探索。然而,扩散模型有其天然的缺点,即生成过程缓慢,导致了许多增强的工作。本调查对扩散模型的领域进行了总结。我们首先通过两个里程碑式的工作–DDPM和DSM来说明主要问题。然后,我们提出了多种加快扩散模型的先进技术–训练计划、无训练抽样、混合建模和分数与扩散统一。关于现有模型,我们还根据具体的NFE提供了FID得分、IS和NLL的基准。此外,我们还介绍了扩散模型的应用,包括计算机视觉、序列建模、音频和人工智能的科学。最后,我们对这一领域进行了总结,并提出了限制和进一步的方向。
论文时间:14 Sep 2022
领域任务:Contrastive Learning,对比学习
论文地址:https://arxiv.org/abs/2209.06638
代码实现:https://github.com/alibabaresearch/damo-convai
论文作者:Wanwei He, Yinpei Dai, Binyuan Hui, Min Yang, Zheng Cao, Jianbo Dong, Fei Huang, Luo Si, Yongbin Li
论文简介:Pre-training methods with contrastive learning objectives have shown remarkable success in dialog understanding tasks./具有对比性学习目标的预训练方法在对话理解任务中显示出了明显的成功。
论文摘要:具有对比性学习目标的预训练方法在对话理解任务中显示出明显的成功。然而,目前的对比性学习仅将自我增强的对话样本视为积极的样本,而将所有其他的对话样本视为消极的样本,这使得即使是语义相关的对话也有不同的表征。在本文中,我们提出了SPACE-2,一个树状结构的预训练对话模型,它通过半监督的对比性预训练,从有限的已标记的对话和大规模的未标记的对话体中学习对话表征。具体来说,我们首先定义了一个通用的语义树结构(STS)来统一不同对话数据集的不一致的注释模式,这样就可以利用所有标记数据中存储的丰富结构信息。然后,我们提出了一个新颖的多视图得分函数,以提高所有可能的对话的相关性,这些对话共享相似的STS,并且在监督对比预训练期间只推开其他完全不同的对话。为了充分利用未标记的对话,还增加了一个基本的自监督对比损失,以完善所学的表征。实验表明,我们的方法可以在由七个数据集和四个流行的对话理解任务组成的DialoGLUE基准上取得最先进的结果。为了保证可重复性,我们将代码和数据发布在 https://github.com/AlibabaResearch/DAMO-ConvAI/tree/main/space-2
论文时间:8 Sep 2022
领域任务:Face Generation,人脸合成
论文地址:https://arxiv.org/abs/2209.03953
代码实现:https://github.com/duxiaodan/fast_text2stylegan
论文作者:Xiaodan Du, Raymond A. Yeh, Nicholas Kolkin, Eli Shechtman, Greg Shakhnarovich
论文简介:We propose Fast text2StyleGAN, a natural language interface that adapts pre-trained GANs for text-guided human face synthesis./我们提出了Fast text2StyleGAN,这是一个自然语言界面,可以将预先训练好的GANs用于文本指导的人脸合成。
论文摘要:我们提出了Fast text2StyleGAN,这是一个自然语言界面,可以将预先训练好的GANs适应于文本指导的人脸合成。利用对比性语言-图像预训练(CLIP)的最新进展,在训练期间不需要文本数据。Fast text2StyleGAN被表述为一个条件变异自动编码器(CVAE),在测试时为生成的图像提供额外的控制和多样性。我们的模型在遇到新的文本提示时不需要重新训练或微调GANs或CLIP。与之前的工作相比,我们不依赖于测试时的优化,使我们的方法比之前的工作快了好几个数量级。根据经验,在FFHQ数据集上,与之前的工作相比,我们的方法能更快、更准确地从具有不同细节水平的自然语言描述中生成图像。
我们是 ShowMeAI,致力于传播AI优质内容,分享行业解决方案,用知识加速每一次技术成长!
◉ 点击 日报合辑,在公众号内订阅话题 #ShowMeAI资讯日报,可接收每日最新推送。
◉ 点击 电子月刊,快速浏览月度合辑。
◉ 点击 这里 ,回复关键字 日报 免费获取AI电子月刊与论文 / 电子书等资料包。