• OpenCV项目实战-深度学习去阴影-图像去阴影


    往期热门博客项目回顾:

    计算机视觉项目大集合

    改进的yolo目标检测-测距测速

    路径规划算法

    图像去雨去雾+目标检测+测距项目

    交通标志识别项目

    yolo系列-重磅yolov9界面-最新的yolo

    姿态识别-3d姿态识别

    深度学习小白学习路线

    //正文开始!

    图像去阴影算法旨在改善图像质量并恢复阴影下物体的真实颜色与亮度
    这对于许多计算机视觉任务如物体识别、跟踪以及增强现实等至关重要。以下是一些图像去阴影算法的基本概述:
    在这里插入图片描述

    1. 基于亮度差算法

      • 这种方法通过比较图像中相邻像素或同一物体不同部分的亮度差异来检测阴影。假设在同一光照条件下,物体表面颜色应相对一致,若出现较大差异则可能被认为是阴影区域。通过统计分析或者阈值处理,可以区分出阴影并尝试通过某种方式(例如线性插值、邻域平均或其他修复策略)填充阴影区域以还原原始色彩。
    2. 空洞卷积与注意力融合的对抗式图像阴影去除算法

      • 这类算法采用深度学习方法,尤其是结合生成对抗网络(GANs)的技术。空洞卷积(dilated convolution)有助于捕捉更大范围的上下文信息,而注意力机制能帮助网络更加关注阴影和非阴影区域的关键特征。通过训练这样的网络模型,它可以学习如何从含有阴影的图像中生成无阴影的输出图像。
        在这里插入图片描述
    3. 局部或全局对比度调整

      • 对比度增强和直方图均衡化等技术也可以用于减轻阴影的影响,它们通过对整幅图像或局部区域进行亮度和对比度调整来改善阴影区域的表现。
    4. 形态学操作

      • 在某些简单情况下,可以使用形态学操作如最大滤波和最小滤波来估计和校正阴影。例如,在图像背景较浅的情况下,先对图像应用最大滤波以提取潜在的背景亮度,然后用得到的信息来推测并填补阴影区域。
    5. 基于物理模型的方法

      • 根据光源方向、阴影投射角度及场景深度信息建立物理模型,通过逆向渲染过程来估计阴影并进行去除。
    6. 多尺度分析和混合模型

      • 利用多尺度分析结合多种算法,比如小波变换、高斯金字塔等,能够在不同分辨率层级上分析和处理阴影,然后组合多个层级的结果以获得更准确的阴影去除效果。
        在这里插入图片描述

    随着深度学习在图像处理领域的快速发展,越来越多的算法倾向于利用神经网络构建端到端的学习系统来解决阴影去除问题,这些方法通常能提供更优秀的效果,特别是在处理复杂场景和具有丰富纹理的图像时。然而,每种方法都有其适用场景和局限性,实际应用中往往需要根据具体需求和数据特性选择合适的算法。

    代码

    def parse_args():
        desc = "Pytorch implementation of DCShadowNet"
        desc = "Pytorch implementation of DCShadowNet"
        parser = argparse.ArgumentParser(description=desc)
        parser.add_argument('--phase', type=str, default='test', help='[train / test]')
        parser.add_argument('--dataset', type=str, default='SRD', help='dataset_name')
        #parser.add_argument('--datasetpath', type=str, default='/disk1/yeying/dataset/SRD', help='dataset_path')
    
        parser.add_argument('--datasetpath', type=str, default='SRD', help='dataset_path')
    
        parser.add_argument('--iteration', type=int, default=1000000, help='The number of training iterations')
        parser.add_argument('--batch_size', type=int, default=1, help='The size of batch size')
        parser.add_argument('--print_freq', type=int, default=1000, help='The number of image print freq')
        parser.add_argument('--save_freq', type=int, default=100000, help='The number of model save freq')
        parser.add_argument('--decay_flag', type=str2bool, default=True, help='The decay_flag')
    
        parser.add_argument('--lr', type=float, default=0.0001, help='The learning rate')
        parser.add_argument('--weight_decay', type=float, default=0.0001, help='The weight decay')
        parser.add_argument('--adv_weight', type=int, default=1, help='Weight for GAN')
        parser.add_argument('--cycle_weight', type=int, default=10, help='Weight for Cycle')
        parser.add_argument('--identity_weight', type=int, default=10, help='Weight for Identity')
        parser.add_argument('--dom_weight', type=int, default=1, help='Weight for domain classification')
        parser.add_argument('--ch_weight', type=int, default=1, help='Weight for shadow-free chromaticity')
        parser.add_argument('--pecp_weight', type=int, default=1, help='Weight for shadow-robust feature')
        parser.add_argument('--smooth_weight', type=int, default=1, help='Weight for boundary smoothness')
        
        parser.add_argument('--use_ch_loss', type=str2bool, default=True, help='use shadow-free chromaticity loss')
        parser.add_argument('--use_pecp_loss', type=str2bool, default=True, help='use shadow-robust feature loss')
        parser.add_argument('--use_smooth_loss', type=str2bool, default=True, help='use boundary smoothness loss')
    
        parser.add_argument('--ch', type=int, default=64, help='base channel number per layer')
        parser.add_argument('--n_res', type=int, default=4, help='The number of resblock')
        parser.add_argument('--n_dis', type=int, default=6, help='The number of discriminator layer')
    
        parser.add_argument('--img_size', type=int, default=256, help='The size of image')
        parser.add_argument('--img_h', type=int, default=480, help='The org size of image')
        parser.add_argument('--img_w', type=int, default=640, help='The org size of image')
        parser.add_argument('--img_ch', type=int, default=3, help='The size of image channel')
    
        parser.add_argument('--result_dir', type=str, default='results', help='Directory name to save the results')
        parser.add_argument('--device', type=str, default='cpu', choices=['cpu', 'cuda'], help='Set gpu mode; [cpu, cuda]')
        parser.add_argument('--benchmark_flag', type=str2bool, default=False)
        parser.add_argument('--resume', type=str2bool, default=True)
        parser.add_argument('--epoch', type=int, default=1)
        parser.add_argument('--use_original_name', type=str2bool, default=False, help='use original name the same as the test images')
        parser.add_argument('--im_suf_A', type=str, default='.png', help='The suffix of test images [.png / .jpg]')
    
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    • 30
    • 31
    • 32
    • 33
    • 34
    • 35
    • 36
    • 37
    • 38
    • 39
    • 40
    • 41
    • 42
    • 43
    • 44
    • 45
    • 46
    • 47

    运行流程

    1.pip install -r requirements.txt
    2将图片放在dataset\SRD\testA文件夹下
    
    3.运行python main_test.py --dataset SRD --datasetpath  E:\001_code\DC-ShadowNet-Hard-and-Soft-Shadow-Removal-main_22\dataset\SRD\  --use_original_name False
    E:\001_code\DC-ShadowNet-Hard-and-Soft-Shadow-Removal-main_22\dataset\SRD\是你的文件路径
    4.results/SRD/500000查看结果
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6

    最后,计算机视觉、图像处理、毕业辅导、作业帮助、代码获取,远程协助,代码定制,私聊会回复!

    call me :qq1309399183
    
    • 1
  • 相关阅读:
    C++征途 --- 模板 --- 类模板
    设计模式-中介者模式
    PHP:矩阵旋转90°(附完整源码)
    Pandas如何对DataFrame排序和统计
    新建Mybatis项目
    Android红外遥控ConsumerIrManager
    【无标题】
    【故障诊断】用于轴承故障诊断的候选故障频率优化克改进包络频谱研究(Matlab代码实现)
    API对接需求如何做需求调研,需要注意什么?
    java学习 File类 、IO流
  • 原文地址:https://blog.csdn.net/ALiLiLiYa/article/details/137294491