• 魔法的尽头是科技——用Python将普通视频变成动漫视频


    嗨害大家好鸭!我是小熊猫🖤

    咱程序员也没有手绘插画能力(有 但是不多

    但咱可以借助强大的深度学习模型将视频转动漫。

    所以今天的目标是:

    让任何具有python语言基本能力的程序员,实现短视频转动漫效果。

    效果展示

    请添加图片描述


    有什么python相关报错解答自己不会的、或者源码资料/模块安装/女装大佬精通技巧 都可以来这里:(https://jq.qq.com/?_wv=1027&k=2Q3YTfym)或者问我


    一、思路流程

    1. 读取视频帧
    2. 将每一帧图像转为动漫帧
    3. 将转换后的动漫帧转为视频

    难点在于如何将图像转为动漫效果。

    这里我们使用基于深度学习的动漫效果转换模型,

    考虑到许多读者对这块不了解,

    因此我这边准备好了源码和模型,直接调用即可。

    不想看文章细节的可以直接拖到文章末尾,获取源码

    请添加图片描述


    二、图像转动漫

    为了让大家不关心深度学习模型,已经为大家准备好了转换后的onnx类型模型。接下来按顺序介绍运行onnx模型流程。

    安装onnxruntime库

    pip install onnxruntime
    
    • 1

    如果想要用GPU加速,可以安装GPU版本的onnxruntime:

    pip install onnxruntime-gpu
    
    • 1

    需要注意的是:

    onnxruntime-gpu的版本跟CUDA有关联,具体对应关系如下:
    请添加图片描述
    当然,如果用CPU运行,那就不需要考虑那么多了。考虑到通用性,本文全部以CPU版本onnxruntime。

    运行模型

    先导入onnxruntime库,创建InferenceSession对象,调用run函数。

    如下所示

    import onnxruntime as rt 
    sess = rt.InferenceSession(MODEL_PATH)
    inp_name = sess.get_inputs()[0].name
    out = sess.run(None, {inp_name: inp_image})
    
    • 1
    • 2
    • 3
    • 4

    具体到我们这里的动漫效果,实现细节如下:

    import cv2
    import numpy as np
    import onnxruntime as rt 
    
    # MODEL = "models/anime_1.onnx"
    MODEL = "models/anime_2.onnx"
    
    sess = rt.InferenceSession(MODEL)
    inp_name = sess.get_inputs()[0].name
    
    
    def infer(rgb):
        rgb = np.expand_dims(rgb, 0)
        rgb = rgb *  2.0 / 255.0 - 1 
        rgb =  rgb.astype(np.float32) 
        out = sess.run(None, {inp_name: rgb})
        out = out[0][0]
        out = (out+1)/2*255
        out = np.clip(out, 0, 255).astype(np.uint8)
        return out
    
    def preprocess(rgb):
        pad_w = 0
        pad_h = 0
        h,w,__ = rgb.shape
        N = 2**3
        if h%N!=0:
            pad_h=(h//N+1)*N-h
        if w%2!=0:
            pad_w=(w//N+1)*N-w
        # print(pad_w, pad_h, w, h)
        rgb = np.pad(rgb, ((0,pad_h),(0, pad_w),(0,0)), "reflect")
        return rgb, pad_w, pad_h
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    • 30
    • 31
    • 32
    • 33

    其中, preprocess函数确保输入图像的宽高是8的整数倍。这里主要是因为考虑到深度学习模型有下采样,确保每次下采样能被2整除。

    单帧效果展示
    请添加图片描述
    请添加图片描述
    请添加图片描述

    三、视频帧读取与视频帧写入

    这里使用Opencv库,

    提取视频中每一帧并调用回调函数将视频帧回传。

    在将图片转视频过程中,通过定义VideoWriter类型变量WRITE确保唯一性。

    具体实现代码如下:

    import cv2
    from tqdm import tqdm
    
    WRITER = None
    def write_frame(frame, out_path, fps=30):
        global WRITER
        if WRITER is None:
            size = frame.shape[0:2][::-1]
            WRITER = cv2.VideoWriter(
                out_path,
                cv2.VideoWriter_fourcc(*'mp4v'),  # 编码器
                fps,
                size)
        WRITER.write(frame)
    
    def extract_frames(video_path, callback):
        video = cv2.VideoCapture(video_path)
        num_frames = int(video.get(cv2.CAP_PROP_FRAME_COUNT))
        for _ in tqdm(range(num_frames)):
            _, frame = video.read()
            if frame is not None:
                callback(frame)
            else:
                break
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24

    魔法的尽头果然就是科技吧?!

    今天的 “魔法” 大家有没有学会呢?

    我是小熊猫,咱下篇文章再见啦(✿◡‿◡)

    在这里插入图片描述

  • 相关阅读:
    HarmonyOS 权限 介绍
    centos7多主机--实现时间同步chrony服务
    MyBatis的各种查询功能(5种)
    Java基础二十五(Map)
    在windows 台式机电脑部署GLM4大模型
    忘记 iPhone 密码:如果忘记密码,如何解锁 iPhone
    福昕阅读器打开pdf文档时显示的标题不是文件名
    教育类《中学政史地》收稿方向-投稿邮箱
    JVM相关面试题(每日一练)
    Go语言中开启和退出协程(二)
  • 原文地址:https://blog.csdn.net/m0_67575344/article/details/126411648