• camera的sensor相关知识笔记



    本文记录学习sensor的相关的知识

    一、整体的流程图

    在这里插入图片描述

    这个图是我自己理解的一个大致的流程,我们这里主要看ISP的前面那一部分就好了,当我们开始拍照的时候,我们的拍照对象通过光的反射传输到lens(滤镜)中,lens会过滤掉红外光线, 然后会把剩下的RGB三元素光线传递到sensor(这里叫感光器件)这个模块上
    sensor这个感光器件在一个像素点上并不能将所有的RGB元素都采集下来,更多的一个像素点采集一个元素,但是这样明显我们的图片还原率就很低,所以就有了bayer这中算法,通过采集的那一种元素去进行对应的三元素还原,最大程度的还原成像对象的颜色。这样就达到了一个效果,虽然我传入的是三元素的一种,但是我通过bayer传输出去的就是RGB三元素了,对应的可以去看看相关的原理。
    bayer图片再往下就是数模转化,将光信号转化为数字信号,这个时候我们就能看到一张RAW的原图了。
    然后通过mipi传递到ISP模块内,转为YUV或则RGB的格式进行输出。

    可以看到我们将RAW图放大后其实就是一个个的元素点。
    前面那张是JPEG图,后面为RAW原图,虽然像素不高,但是可以看到明确的不同。
    在这里插入图片描述

    sensor的四个像素点对应RGB中的一个像素点
    在这里插入图片描述
    如图:RGB会把sensor对应的四个像素点转化为一个像素点。
    现在也有一个sensor和isp可以把sensor的像素点和RGB对应的像素点按照一比一的出图,或则说放大,这就算法的强大之处吧,所以现在还有很多的一亿像素,实际上可能sensor并不支持这么大,是后期算法改变的。

    二、sensor的分类

    相机类型: CCD sensor 和 CMOS sensor。
    CCD se当我们修改或者配置完成一个xml的时候,我们编译完成烧录到开发板里面后,
    nsor (目前基本被淘汰)

    1. CCD的成像点为X-Y纵横矩阵排列,每个成像点有一个光电二极管和其控制的一个邻近电荷存储区组成。整个结构复杂,增大了耗电量,也增加了成本。简单来说,就是在同步时钟的控制下,一行行地输出信息。
    2. CCD输出的电信号还需要经过后续地址译码器、数模转化器、图像信号处理器处理,并且还需要提供三组不同电压的电源和同步时钟控制电路,集成度非常低

    CMOS sensor (主流)

    1. CMOS的成像是一次性的。Sensor上所有的感光点会一次性接受光子,转换为电信号。这样一来,成像的速度大大提升
    2. CMOS光电传感器可以将所有部件集成到一块芯片上,如光敏原件、图像信号放大器、信号读取电路、数模转换器、图像信号处理器及控制器等,都可以集成到一块芯片上,还具有附加DRAM的优点。简单来说,就是CMOS的集成度更高,能够集成更多器件,适用于图像的后续处理,包括去噪、提亮等一系列算法。

    现在的sensor 出图有两种,一种是YUV的sensor,一种是RAWsensor(bayer sensor),现在主流的都是RAW的sensor,因为YUV的sensor一个Pixel占2个byte,数据较大,而且只能采用内部的ISP进行处理,图像效果不太好。但是RAWsensor一个像素占8到16bit,使用平台ISP处理,能支持较大的size,所以主流的都是RAWsensor。

  • 相关阅读:
    哪些 GPTs 应用让我眼前一亮?你又该如何找到它们?
    服务器存储面临的两大难题
    猿创征文|GaussDB(for openGauss):基于 GaussDB 迁移、智能管理构建应用解决方案
    美创科技信创数据安全「利基者」!
    gRPC 四模式之 双向流RPC模式
    PHP+Lunix+GIT 如何快速使用宝塔WebHook快速自动化部署
    Spring MVC 启动流程?
    股票level2数据接口获取逐笔成交数据的过程
    深入解析Python并发编程的多线程和异步编程
    STM32F103 USART1串口使用DMA接收不定长数据和DMA中断发送
  • 原文地址:https://blog.csdn.net/weixin_51178981/article/details/126419365