• Stable Diffusion基础:ControlNet之重新上色(黑白照片换新颜)


    本文给大家分享 Stable Diffusion 的基础能力:ControlNet 之重新上色。

    这是一个最近新上的 ControlNet 模型,它可以识别图像中的不同区域,并使用不同的颜色重新绘制它们。

    安装

    ControlNet 安装

    工欲善其事必先利其器,ControlNet 还是先要安装好的,已经安装好的请跳过这一步。

    之前的文章已经介绍过相关安装方法,大家请点击这个链接移步过去:ControlNet 安装与基本使用方法

    注意需要将 ControlNet 插件升级到 v1.1.410 这个版本,这个版本支持新的 ControlNet 类型。

    Recolor 安装

    使用 Recolor 前,还需要先安装几个模型:

    /extensions/sd-webui-controlnet/models/ioclab_sd15_recolor.safetensors

    /extensions/sd-webui-controlnet/models/sai_xl_recolor_128lora.safetensors

    /extensions/sd-webui-controlnet/models/sai_xl_recolor_256lora.safetensors

    这里支持 SDXL 的模型有两个 128lora 和 256lora,它们来源于 Stable Diffusion 的开发公司 StabilityAI 。

    为什么有两个呢?首先它们都有一个后缀 lora,这是 StabilityAI 将 Lora 模型的方法引入到了 ControlNet 中,此类模型称为 ControlNet-LoRAs,128、256 分别代表了不同的压缩比例,256的模型文件大小约738M,128的文件更小约377M。文件大参数多,文件小易传播,但是256的效果并不一定比128好,还需根据实际出图情况选择。更多详情可以看 HuggingFace 上的官方介绍:https://huggingface.co/stabilityai/control-lora

    不方便访问 huggingface 的同学可以通过我整理的资源下载,下载方式见文章最后;或者直接使用 AutoDL 上我发布的镜像:https://www.codewithgpu.com/i/AUTOMATIC1111/stable-diffusion-webui/yinghuoai-sd-webui-fast

    基本使用

    Recolor 可以用在“文生图”和“图生图”,实测 Recolor 在这两种方式下的效果差不多,这里以文生图为例,原图是这样的:

    首先选择一个大模型,这里选择的是真实视觉模型 realisticVisionV51,实际使用时请根据要重新上色的图片选择。

    提示词和反向提示词也可以不写,Recolor 会自己选颜色,但是要想达到特定的控制效果,还是得自己写。比如我这里想要把头发改成红色、裙子变成黄色。

    Stable Diffusion 参数这里没什么好说的,默认或者自己根据需要改改都行。

    最重要的是 ControlNet 这里,选择任意一个 ControlNet 单元,上传一张照片,勾选“启用”和“完美匹配像素”。

    我这里还特别开启了“允许预览”,并生成了预览图,大家注意看这个预览图,相比原图,它去掉了色彩,变成了一张黑白照片。从这里可以看出 Recolor 的本质能力是对黑白图片上色,其基本处理过程是先使用预处理器提取黑白图,然后再识别图片的各个区域进行上色处理。

    看下 Recolor 的几个参数:

    预处理器有两个:

    recolor_luminance:提取图像特征信息时注重颜色的亮度,实测大部分情况下这个效果更好。

    recolor_intensity:提取图像特征信息时注重颜色的饱和度。

    模型有三个:

    ioclab_sd15_recolor.safetensors 适用于 Stable Diffusion 1.5 的模型。

    sai_xl_recolor_128lora.safetensors 适用于 Stable Diffusion XL 的模型,模型的低秩矩阵有128维。

    sai_xl_recolor_256lora.safetensors 适用于 Stable Diffusion XL 的模型,模型的低秩矩阵有256维。

    Gamma Correction:伽玛校正,这个词比较专业,大概是说人眼对亮度的识别是不均匀的,对暗区的变化比较敏感,对亮区的变化比较迟钝,为了调节生成图片的感受亮度,以及在不同的显示设备上输出,就搞出了一个幂函数,来映射真实亮度和感受亮度,这个伽马值就是函数的幂。默认为1,如果感觉生成的图片暗就调小一点,如果感觉生成的图片过亮,就调大一点。

    其它的几个参数我们已经在 ControlNet 的基本使用方法中介绍过了,不清楚的请移步:安装与基本使用方法

    看看生成图片的效果:头发、裙子的颜色都处理对了。

    这个例子中使用的还是SD 1.5的模型,如果换成 SD XL,就要选择对应的 XL 模型才行。

    我实际测试 ControlNet-LoRAs 的时候发现一个问题:SD XL 对应的 Recolor 模型必须搭配提示词,否则就会出现不太和谐的色块,还会有莫名其妙的蓝色。要解决这个问题,必须编写提示词和反向提示词才能让生成的图片色彩比较和谐,还是以上边的参考图为例:

    用途示例

    颜色滤镜

    只需要一个简单的颜色提示词,大家直接看效果吧,如需取图请看文章最后。

    黑白照片上色

    在之前的文章中,我写过一篇高清修复老照片的教程:

    Stable Diffusion修复老照片-图生图

    当时我是使用 Tile 修复了一张模糊的黑白照片,今天我再用 Recolor 给这张照片上个色。

    使用“图生图”方式,模型选择 realisticVisionV51,为了更好的效果,这里专门写了几句提示词。

    其它参数参考上边基本使用方法设置下就行了,下面是“高清修复+重新上色”的效果展示:感觉还是挺不错的!

    写到这里,我突然想试一下 Recolor 直接修复模糊老照片的效果:

    首先颜色有了,其次面部清晰了,特别是这个眼神,大家好好感受下,是不是特别还原。

    不太好的就是清晰度还是不够,特别是面部之外的区域,颜色的渲染也不够精准,这是因为图片不够清晰,模型不能正确的识别相关区域。这个问题可以通过迭代生成优化,也就是将首次生成出来的图片再次用于图生图,对于衣服不清晰的问题我这里用了局部重绘,只是这个扣子的样式有点旧,我不知道怎么写提示词,模型也不认识。

    再给大家看几张黑白照片上色的效果图:

    资源下载

    本系列使用的模型、插件,生成的图片,都已经上传到我整理的 Stable Diffusion 绘画资源中,后续也会持续更新,如有需要,请关/注/公/众/号:萤火遛AI(yinghuo6ai),发消息:SD,即可获取下载地址。


    以上就是本文的主要内容了,如有问题,欢迎留言沟通交流。

  • 相关阅读:
    count(*)为什么很慢
    “玄学+社交+AI”最全解题思路,融云 AI 对话方案全力支持
    【JavaSE】抽象类和接口
    Effective Java学习笔记---------通用编程
    内存管理--内存布局
    穿透、无底洞、雪崩、击穿 解决方案?
    压力测试工具----JMeter
    使用Python创建faker实例生成csv大数据测试文件并导入Hive数仓
    智能家居系统
    借单例模式掌握python这几个语言要点
  • 原文地址:https://blog.csdn.net/bossma/article/details/133144586