大模型相关技术原理以及实战经验:liguodongiot/llm-action
(1)参考资料
:700 亿参数 LLaMA2 训练加速 195%,基础大模型最佳实践再升级
(2)开源地址
:https://github.com/hpcaitech/ColossalAI
(3)描述
:
(1)参考资料
:Stable Diffusion导论/安装教程
万字保姆级教程!Stable Diffusion完整入门指南
(2)开源地址
:https://github.com/AUTOMATIC1111/stable-diffusion-webui
(3)描述
:
Stable Diffusion是2022年发布的深度学习文本到图像生成模型,它是一种潜在扩散模型,它由创业公司Stability AI与多个学术研究者和非营利组织合作开发。目前的SD的源代码和模型都已经开源,在Github上由AUTOMATIC1111维护了一个完整的项目,正在由全世界的开发者共同维护。由于完整版对网络有一些众所周知的需求,国内有多位开发者维护着一些不同版本的封装包。开源社区为SD的普及做出了难以磨灭的贡献。
(1)参考资料
:集多个AI绘画开源模型于一体的工作台#invokeAI使用测评
(2)开源地址
:https://github.com/invoke-ai/InvokeAI
(3)描述
:
invokeAI是一个在网页上使用的AI绘画生成界面,通俗点讲,它其实是嵌套在生成模型上的一个网页外观。不同的生成模型例如stable diffusion和Dream booth等,通过导入invokeAI内,可以将不同模型的界面替换成invokeAI的界面,从而统一工作环境。
(1)参考资料
:重磅开源工具Fooocus!让SD跟Midjourney一样简单易用!
(2)开源地址
:https://github.com/lllyasviel/Fooocus
(3)描述
:
基于SDXL模型在SDwebui的基础上进行了改进,提供了一系列强大功能,并提供直观易懂的界面。这款开源免费软件自动化了许多内部优化和质量改进,无需用户处理繁琐的技术参数,使得用户可以全情投入到绘图交互中。
(4)使用教程
:
(1)参考资料
:中山大学开源Diffusion模型统一代码框架,推动AIGC规模化应用
(2)开源地址
:https://github.com/7eu7d7/HCP-Diffusion-webui
(3)描述
:
(1)参考资料
:Gen2:一个可以用文本、图像或视频片段生成新视频的多模态AI系统
(2)开源地址
:/
(3)描述
:
Gen2支持多种模式,让你可以根据不同的需求和创意生成不同风格的视频。比如:
(1)参考资料
:【AIGC-AI视频生成系列-文章1】Text2Video-Zero
(2)开源地址
:https://github.com/Picsart-AI-Research/Text2Video-Zero
(3)描述
:
体验Demo:ModelScope Text To Video Synthesis
(1)参考资料
:
(2)开源地址
:https://github.com/RVC-Project/Retrieval-based-Voice-Conversion-WebUI
(3)描述
:
(1)参考资料
:https://www.bilibili.com/video/BV1pu4y1C7YC/
(2)开源地址
:https://github.com/PlayVoice/Grad-SVC
(3)描述
:
(1)参考资料
:/
(2)开源地址
:https://github.com/lakahaga/dc-comix-tts
(3)描述
: