PaddleNLP是一款简单易用且功能强大的自然语言处理开发库。聚合业界优质预训练模型并提供开箱即用的开发体验,覆盖NLP多场景的模型库搭配产业实践范例可满足开发者灵活定制的需求。
PaddleNLP v2.4发布!Release PaddleNLP v2.4.0 · PaddlePaddle/PaddleNLP · GitHub
- 💎 发布NLP 流水线系统 Pipelines ,插拔式组件设计,飞桨SOTA模型快速串联,Docker低门槛一键部署,让解决 NLP 任务像搭积木一样便捷、灵活、高效!10分钟搭建检索、问答等复杂系统。
- 🌈 新增文本分类系统方案,覆盖多分类、多标签、层次分类多场景,支持预训练微调、小样本Prompt tuning、语义索引分类创新方案;基于TrustAI 可信计算、多样的数据增强策略,解决分类任务调优难题。
- 💟 新增文本摘要功能,采用前沿模型UNIMO-text,基于大规模摘要语料,打造领先效果,支持一键预测和定制训练,打通 FasterGeneration 高性能推理; 🍭 新增文图生成、代码生成等趣味应用,支持 Taskflow 一键调用,打通 FasterGeneration 高性能推理;
- 💪 新增UIE多语言版,支持中英文混合抽取;新增基于封闭域模型 GlobalPointer 的 UIE 数据蒸馏方案,推理速度提升100倍以上!
📝 2022.8.1 PaddleNLP v2.3.5发布!CodeGen 对话式程序生成大模型发布,可Taskflow一键调用;通用信息抽取技术英文模型UIE en正式发布,支持英文各项信息抽取工作; RGL RGL是百度自研的 Prompt-based tuning 小样本学习算法,论文被 Findings of NAACL 2022 接收,欢迎大家使用!
PaddleNLP v2.3.5发布 https://github.com/PaddlePaddle/PaddleNLP/releases/tag/v2.3.5:
1. UIE英文版,欢迎各位在国际渠道传播;
2. 多分类、多标签、层次分类等文本分类系统方案,配套数据增强策略提升模型效果;新增小样本模型RGL;
3. 语义检索Neural Search 升级:新增部署和网页版系统全流程功能;新增无监督语义向量模型DiffCSE;
4. 代码生成模型CodeGen支持Taskflow一键调用,支持刷Leetcode、代码续写、根据注释生成代码等… …
🍭 2022.6.29 PaddleNLP v2.3.4发布!ERNIE Tiny 全系列中文预训练小模型发布,快速提升预训练模型部署效率,通用信息抽取技术UIE Tiny 系列模型全新升级,支持速度更快效果更好的UIE小模型。
🔥 2022.5.16 PaddleNLP v2.3全新发布!🎉
📬 2021.12.12 PaddleNLP v2.2发布!新增开箱即用的NLP能力Taskflow!配套语义检索、智能问答、评论观点抽取产业案例,快速搭建端到端NLP系统!配套视频课程直通车!
多模型选择,满足精度、速度要求
| 模型 | 结构 | 语言 |
|---|---|---|
uie-base (默认) | 12-layers, 768-hidden, 12-heads | 中文 |
uie-base-en | 12-layers, 768-hidden, 12-heads | 英文 |
uie-medical-base | 12-layers, 768-hidden, 12-heads | 中文 |
uie-medium | 6-layers, 768-hidden, 12-heads | 中文 |
uie-mini | 6-layers, 384-hidden, 12-heads | 中文 |
uie-micro | 4-layers, 384-hidden, 12-heads | 中文 |
uie-nano | 4-layers, 312-hidden, 12-heads | 中文 |
ERNIE/README.zh.md at develop · PaddlePaddle/ERNIE · GitHub
文心大模型ERNIE是百度发布的产业级知识增强大模型,涵盖了NLP大模型和跨模态大模型。2019年3月,开源了国内首个开源预训练模型文心ERNIE 1.0,此后在语言与跨模态的理解和生成等领域取得一系列技术突破,并对外开源与开放了系列模型,助力大模型研究与产业化应用发展。提醒: ERNIE老版本代码已经迁移至repro分支,欢迎使用我们全新升级的基于动静结合的新版ERNIE套件进行开发
ERNIE-Vil2(base) 正式开源ERNIE-M 正式开源ERNIE-GEN 模型正式开源! (点击进入)
IJCAI-2020 收录。
文心大模型ERNIE 3.0 基础上通过在线蒸馏技术得到的轻量级模型,模型结构与 ERNIE 2.0 保持一致,相比 ERNIE 2.0 具有更强的中文效果。


本项目开源 ERNIE 3.0 Base 、ERNIE 3.0 Medium 、 ERNIE 3.0 Mini 、 ERNIE 3.0 Micro 、 ERNIE 3.0 Nano 五个模型:
下表汇总介绍了目前PaddleNLP支持的ERNIE模型对应预训练权重
| Pretrained Weight | Language | Details of the model |
|---|---|---|
ernie-1.0-base-zh | Chinese | 12-layer, 768-hidden, 12-heads, 108M parameters. Trained on Chinese text. |
ernie-tiny | Chinese | 3-layer, 1024-hidden, 16-heads, _M parameters. Trained on Chinese text. |
ernie-2.0-base-en | English | 12-layer, 768-hidden, 12-heads, 103M parameters. Trained on lower-cased English text. |
ernie-2.0-base-en-finetuned-squad | English | 12-layer, 768-hidden, 12-heads, 110M parameters. Trained on finetuned squad text. |
ernie-2.0-large-en | English | 24-layer, 1024-hidden, 16-heads, 336M parameters. Trained on lower-cased English text. |
ernie-3.0-base-zh | Chinese | 12-layer, 768-hidden, 12-heads, 118M parameters. Trained on Chinese text. |
ernie-3.0-medium-zh | Chinese | 6-layer, 768-hidden, 12-heads, 75M parameters. Trained on Chinese text. |
ernie-3.0-mini-zh | Chinese | 6-layer, 384-hidden, 12-heads, 27M parameters. Trained on Chinese text. |
ernie-3.0-micro-zh | Chinese | 4-layer, 384-hidden, 12-heads, 23M parameters. Trained on Chinese text. |
ernie-3.0-nano-zh | Chinese | 4-layer, 312-hidden, 12-heads, 18M parameters. Trained on Chinese text. |
rocketqa-base-cross-encoder | Chinese | 12-layer, 768-hidden, 12-heads, 118M parameters. Trained on DuReader retrieval text. |
rocketqa-medium-cross-encoder | Chinese | 6-layer, 768-hidden, 12-heads, 75M parameters. Trained on DuReader retrieval text. |
rocketqa-mini-cross-encoder | Chinese | 6-layer, 384-hidden, 12-heads, 27M parameters. Trained on DuReader retrieval text. |
PaddleSlim是一个专注于深度学习模型压缩的工具库,提供低比特量化、知识蒸馏、稀疏化和模型结构搜索等模型压缩策略,帮助开发者快速实现模型的小型化。
2022.08.16:自动化压缩功能升级
| 模型 | Base mAPval 0.5:0.95 | ACT量化mAPval 0.5:0.95 | 模型体积压缩比 | 预测时延FP32 | 预测时延INT8 | 预测加速比 |
|---|---|---|---|---|---|---|
| PPYOLOE-s | 43.1 | 42.6 | 3.9倍 | 6.51ms | 2.12ms | 3.1倍 |
| YOLOv5s | 37.4 | 36.9 | 3.8倍 | 5.95ms | 1.87ms | 3.2倍 |
| YOLOv6s | 42.4 | 41.3 | 3.9倍 | 9.06ms | 1.83ms | 5.0倍 |
| YOLOv7 | 51.1 | 50.9 | 3.9倍 | 26.84ms | 4.55ms | 5.9倍 |
| YOLOv7-Tiny | 37.3 | 37.0 | 3.9倍 | 5.06ms | 1.68ms | 3.0倍 |
🔥 2022.07.01: 发布v2.3.0版本
2021.11.15: 发布v2.2.0版本
2021.5.20: 发布V2.1.0版本