• 超强满血不收费的AI绘图教程来了(在线Stable Diffusion一键即用)


    一、简介

    1.1 AI绘图

    AI绘图就是输入一些描述语句(文生图)或者图片(图生图),AI根据输入信息可以生成创意画作。AI绘图是当下AI最火热的应用领域之一,也是生成式人工智能AIGC的一种。

    常见AI绘图软件如下:
    在这里插入图片描述
    (1)文心一格

    文心一格是基于百度飞桨和文心大模型的文生图系统,是一种AI艺术和创意辅助平台。通过文心一格智能生产多样化创意图片,并从中汲取创意灵感,打破创意瓶颈。

    在这里插入图片描述

    (2)Midjourney

    Midjourney可根据文本生成图像,于2022年7月12日进入公开测试阶段,只需要通过输入关键字,就能透过AI算法生成相应的图片,Midjourney里有众多画家的艺术风格,例如达芬奇、达利和毕加索等,还能识别特定镜头或摄影术语。

    Midjourney的应用场景非常广泛,可以用于海报、IP设计、广告设计、创意设计、艺术教育、漫画创作等领域。

    在这里插入图片描述

    (3)Adobe Firefly

    萤火虫(Firefly),是2023年3月22日Adobe推出的创意生成式AI,使用文字来生成图像、音频、插图、视频和3D图像。Firefly将提供构思、创作和沟通的新方式,同时显著改善创意工作流程。

    在这里插入图片描述

    (4)Stable Diffusion

    Stable Diffusion是一种基于潜在扩散模型(Latent Diffusion Models)的文本到图像生成模型,能够跟进任意文本输入生成高质量、高分辨率、高逼真的图像。相对传统的生成模型,Stable Diffusion生成的图像质量更高、速度更快、成本更低。

    在这里插入图片描述

    1.2 Stable Diffusion

    本文主要基于Stable Diffusion进行分享,因为↓

    在这里插入图片描述

    1.2.1 原理简述

    从名字Stable Diffusion就可以看出,这个主要采用的是扩散模型(Diffusion Model)。简而言之,扩散模型就是去噪白编码器的连续应用,逐步生成图像的过程。

    在这里插入图片描述

    Diffusion 的含义本质上就是一个迭代过程。扩散是反复在图像中添加小的、随机的噪声,而扩散模型则与这个过程相反,将噪声生成高清图像,训练的神经网络通常为U-net。

    在这里插入图片描述

    1.2.2 应用流程

    流程主要分为4步:

    1. 选择正确地模型
    2. 输入准确的提示词
    3. 参数调整
    4. 后期处理技术
      在这里插入图片描述
      (1)关于模型

    Stable Diffusion模型主要分为大模型和微调模型。常见的大模型为Checkpoint(ckpt)和safetensors两种格式,通常是通过Dreambooth训练得到,特点是出图效果好,但是训练过程较慢且生成的模型文件较大;而微调模型一般需要配合大模型使用,常见包括Lora模型、VAE模型、Embedding模型和Hypernetwork模型。

    在这里插入图片描述

    本文分享主要是基于Lora模型。Lora直译为大语言模型的低阶适应。Lora文件大,保存的信息量大 ,对人物的还原、动作的指定和画风的指定效果比较好。
    在这里插入图片描述

    (2)关于提示词

    Stable Diffusion提示词分为正向提示词反向提示词,一般需要包含【画面质量】+【画面风格】+【画面主体】+【画面场景】+【其它元素】。

    在这里插入图片描述

    二、AI绘图工具

    2.1 吐司TusiArt

    吐司Tusi.Art是一款基于Stable Diffusion的AI图片生成平台,每天有100算力点、即可生成100张图片,且可以高清下载。

    在这里插入图片描述

    2.2 哩布哩布LibLibAI

    LiblibAI基本 1:1 还原了Stable Diffusion跑图界面(有一定阉割),跑图最一目了然、简洁高效的界面,且非常容易上手。另外,LiblibAI每天也可以免费跑100张AI图,后续演示主要基于LiblibAI进行。

    在这里插入图片描述

    2.3 原生部署

    本地或云端部署原生Stable Diffusion,例如阿里云云部署↓。

    在这里插入图片描述

    三、一键即用

    3.1 开箱尝鲜

    注册登录哩布哩布LibLibAI后,直接点击【在线生图】

    在这里插入图片描述

    进入到【在线生图】页面后,直接点击【生成图片】,开箱尝鲜。

    在这里插入图片描述

    3.2 模型关联

    在主页选择一个参照模型,点进去。

    在这里插入图片描述

    点击【加入模型库】,然后鼠标移动到模型的【生成信息】,复制其中的正向提示词、反向提示词以及采样方式到【在线生图】页面中。

    在这里插入图片描述

    在【在线生图】中,CV好【生成信息】后点击【生成图片】。

    如果发现脸变形有崩掉的情况,则需要调大生成图片的的宽度和高度。因为每张图片都有尺寸大小,尺寸不够且需要的元素太多就容易挤在一起导致图片崩坏。

    在这里插入图片描述

    3.3 ControlNet

    ControlNet是一种神经网络概念,就是通过额外的输入来控制预训练的大模型。SD中的ControlNet插件可以通过模型精准的控制图像生成,比如:上传线稿让AI控制人物的动作姿态、边缘检测、柔和边缘和涂鸦乱画等等。

    如下是一个涂鸦乱画的示例(首先需要上传一张ControlNet参考图):

    在这里插入图片描述

    上传后选择 Scribble 的Control Type,然后点击爆炸图标。

    在这里插入图片描述

    填入提示词(想象力):[A hot air balloon is floating in the sky and the full appearance of the balloon can be seen. ],然后点击【生成图片】

    在这里插入图片描述

    四、总结

    至此,超强满血不收费的AI绘图教程来了(在线Stable Diffusion一键即用)介绍完成,后续会陆续输出更多AI绘图相关的篇章;查阅过程中若遇到问题欢迎留言或私信交流。

  • 相关阅读:
    diffusion model
    开源项目汇总
    常用的几种异步实现方式
    SpringBoot对Spring MVC都做了哪些事?
    kafka----5
    封装Ajax--解决地狱回调问题
    新一代分布式实时流处理引擎Flink入门实战之先导理论篇-上
    基础选择器、层级选择器、基本过滤选择器、内容过滤选择器
    【强化学习】优势演员-评论员算法(Advantage Actor-Critic , A2C)求解倒立摆问题 + Pytorch代码实战
    【前端】CSS(2) —— CSS的基本属性
  • 原文地址:https://blog.csdn.net/ith321/article/details/133969868