- opencv blog、learnopencv主页、learnopencv 源码、KopiKat、CVAT标注工具
- 计算机视觉职位列表的首选平台 job portal
《神经网络特征匹配入门》、GitHub源码:当你使用相机中的全景模式来拍摄一张广角照片时,你可能会好奇这个全景模式背后是如何工作的。再比如,你有一段骑自行车时拍摄的抖动视频,你打开编辑应用程序并选择视频稳定化选项,它能给你提供一个完全稳定的视频版本。这很酷,对吧?但是它是如何做到的呢?让我告诉你一个秘密:所有这些功能都是利用一种称为特征匹配的传统计算机视觉方法来实现的。
使用OpenCV中的点特征匹配技术实现视频稳定化、GitHub源码:视频稳定化是一种技术,用于减少因摄像机抖动或移动而导致的视频质量下降。传统的摄像机在拍摄时常常受到外部因素的影响,导致画面不稳定。稳定化技术通过算法调整视频帧,平滑视觉效果,使观众获得更流畅的观看体验。
《使用U2-Net进行高效背景去除》:U2-Net是一种简单而强大的基于深度学习的语义分割模型,革命性地改善了图像分割中的背景去除。它在前景与背景隔离方面的有效方法在广告、电影制作和医学影像等应用中至关重要。本文还将讨论U2-Net
的增强版本IS-Net
,并展示其优越的结果,特别是在复杂图像上的表现。
《How Computer Vision Techniques Make People Look More Attractive》:探索计算机视觉技术用于面部增强的功能。我们深入研究了去除瑕疵、均匀肤色等的算法。此外,我们还概述了用于面部改善的流行商业解决方案,并附有各种案例研究。
-《将视频转换为幻灯片并保存为PDF》、GitHub源码:本文介绍如何利用OpenCV中的帧差分和背景减法技术,构建一个简单的视频转幻灯片应用。该应用特别适用于将带有动画的视频转化为PPT或PDF格式的幻灯片,方便在缺少原始幻灯片文件的情况下(如在YouTube上观看的讲座视频)获取内容。
《Create Snapchat/Instagram Filters Using Mediapipe》:Snapchat 和 Instagram 提供了各种各样的滤镜功能,本文我们将了解这些增强现实滤镜的工作原理,以及如何使用 Mediapipe 框架创建自己的滤镜!
《A Closer Look at CVAT: Perfecting Your Annotations》、YouTube视频、如何使用CVAT标注骨架:CVAT是OpenCV发布的一个免费的图像和视频标注工具集。CVAT可以使用矩形(边界框)、多边形(遮罩)、关键点、椭圆、折线等来标注图像或视频帧。CVAT还提供了详尽的标注格式列表,以导出目标数据集标签。
《CVAT SDK PyTorch adapter: 在您的机器学习流程中使用CVAT数据集》:CVAT是一个视觉数据标注工具,以前在完成标注后,需要将将其转换为适合你的机器学习框架的数据结构。在CVAT SDK 2.3.0中,新引入了cvat_sdk.pytorch
模块(PyTorch适配器),使得部分情况下可直接将CVAT项目作为PyTorch兼容的数据集使用,从而简化了数据导入的流程。
《使用 OpenCV 构建自定义图像注释工具》:注释是深度学习项目中最重要的部分。它是模型学习效果的决定性因素。但是,这是非常乏味和耗时的。一种解决方案是使用自动图像注释工具pyOpenAnnotate ,该工具可以大大缩短持续时间。我们还分享了一个 streamlit Web 应用程序,供您试用注释工具
《人脸检测 - 终极指南》:本文将介绍各种最先进的人脸检测算法,以及其历史演变。
《Face Recognition Models: Advancements, Toolkit, and Datasets》:本文重点介绍了对现有人脸识别模型、工具包、数据集和 用于构建整合系统的人脸识别管道的全面研究,本探索旨在丰富您对塑造现代人脸识别系统的潜在机制的理解。
《使用 OpenCV进行面部情感识别》(Github源码):面部情感识别 (FER) 是指根据面部表情对人类情绪进行识别和分类的过程。通过分析面部特征和模式,机器可以对一个人的情绪状态做出有根据的猜测。我们将尝试从哲学和技术的角度理解面部情绪识别的概念。我们还将探索自定义 VGG13 模型架构和人脸表情识别数据集(FER+),以构建一个整合的实时面部表情识别系统。最后,我们还将分析从实验中获得的结果。
《使用Mediapipe进行驾驶中的睡眠检测》:在本文中,我们将创建一个驾驶员疲劳检测系统,使用Python中的Mediapipe人脸网格解决方案和眼宽高比公式,创建一个健壮且易于使用的应用程序。当用户的眼睛长时间闭合时,能够检测并提醒用户。
《Sponsor: Automated Self-Checkout with OpenVINO》:如何利用 OpenVINO 的强大功能实现自动自助结账系统,并配有一个套件,使其非常简单。该博文包括一个带有代码的 Jupyter Notebook 及其工作原理的完整演练。在这个对象检测示例中,我们使用了 OpenVINO、™ Roboflow 的监督库和 Ultralytics YOLOv8。
《CenterNet: Objects as Points》、GitHub源码、YouTube论文讲解:无锚目标检测因其速度快、对其他计算机视觉任务的广泛适用性而备受关注。CenterNet是无锚目标检测算法的一个重要里程碑。本文将讨论目标检测的基本原理、无锚(anchor-free)与有锚(anchor-based)目标检测的对比、CenterNet的Object as Points论文、CenterNet姿态估计,以及CenterNet模型的推理过程。
《Mastering All YOLO Models from YOLOv1 to YOLOv9: Papers Explained 》:在本文中,我们将介绍所有不同版本的YOLO,从最初的YOLO到YOLOv 8和YOLO-NAS,并了解它们的内部工作原理,架构,设计选择,改进和自定义训练。
YOLO系列指南:我们以简短、结构化的材料(YOLO年表)汇编了有关 YOLO 的关键信息,您只需看一次即可理解 YOLO。
《Ultralytics Explorer API简介》:Ultralytics公司最近创建了一个新的数据分析工具Ultralytics Explorer
,用于探索计算机视觉的图像数据集。 Ultralytics Explorer
提供了Python API和GUI界面,允许您选择最合适的选项。我们将使用Explorer API可视化一个自定义野生动物数据集,而不是仅仅浏览文档。借助Ultralytics Explorer API,您可以在计算机视觉项目中获得新的见解和效率。
《在自定义数据集上训练YOLOv5》、《使用 OpenCV DNN 进行 YOLOv5 对象检测(C++ and Python)》
《Train YOLOv8 on Custom Dataset – A Complete Tutorial》、GitHub源码。
PCB_YOLOv8_Quality_Control:微处理器板的自动检测,定位和验证;检测GPIO和焊接点等特定元素,确保全面的质量控制。
《在 OAK-D-Lite 上部署 YOLOv8》:通过在 OAK-D-Lite 等流行的边缘 AI 设备上部署模型来展示一个有趣的嵌入式计算机视觉应用程序。
《YOLO-NAS:对比YOLOv6 & YOLOv8》及GitHub源码、《如何在自定义数据集上训练YOLO-NAS》及GitHub源码、YouTube视频。
《YOLOv10: The Dual-Head OG of YOLO Series》、《Fine-Tuning YOLOv10 Models for Kidney Stones Detection》:微调YOLOv10模型以增强肾结石检测,将诊断时间从每份报告15-25
分钟大幅缩短至每秒处理约150
份报告。此研究面向医学研究人员、医疗专业人士和AI公司,通过以数据为中心的技术实现了94.1
的mAP50,且无需更改模型架构。
《YOLO11: Faster Than You Can Imagine!》:YOLO11 是 Ultralytics 的 YOLO 系列的最新版本。YOLO11 配备超轻量级型号,比以前的 YOLO 型号更快、更高效。YOLO11 能够执行更广泛的计算机视觉任务(Object Detection 、Instance Segmentation 、Image Classification 、Pose Estimation 、Oriented Object Detection 、定向目标检测 OBB)。
《微调SegFormer改进车道线检测 》:Berkeley Deep Drive 100K(BDD 100K)数据集主要用于促进自动驾驶的研究和开发。该数据集非常大,包含大约100,000个视频,每个视频长度为40秒,涵盖了各种驾驶场景,天气条件。这些注释包括车道、可行驶区域、对象(如车辆、行人和交通标志)的标签,以及全帧实例分割。
《Exploring SAHI: Slicing Aided Hyper Inference for Small Object Detection》、GitHub源码:本文我们将探讨现有的小目标检测方法,并使用YOLOv8通过SAHI
技术进行推理。
《TrOCR:基于Transformer的OCR入门》、youtube视频、Github源码:本文将介绍TrOCR 的架构、TrOCR 系列模型、如何训练TrOCR 模型以及如何使用 TrOCR 和 Hugging Face 运行推理。
TrOCR的训练和微调、Github源码:TrOCR在某些时候是最佳性能的OCR模型,在处理非直线文本方面的表现并不理想。本文将对TrOCR进一步研究,介绍如何在曲线文本数据集上微调TrOCR模型。
《PaddleOCR: Unveiling the Power of Optical Character Recognition》
使用 TrOCR 进行手写文本识别:手写文本文档在研究和学习领域无处不在。它们根据用户的需求进行个性化设置,并且通常包含其他人难以理解的写作风格。对于处理手写学习笔记的网站来说是一个问题。在本文中,我们将通过微调 TrOCR
模型来使用 OCR 进行手写文本识别。
使用YOLOv4进行自动车牌识别:本博文将重点介绍 ALPR(自动车牌识别)的端到端实施,过程分为 2 步——车牌检测和车牌OCR。
目标检测中WBF与NMS的比较、Github源码:目标检测模型传统上使用非极大值抑制(NMS)作为默认的后处理步骤来过滤掉冗余的边界框。然而,这种方法无法有效地为多个模型提供统一的、平均化的预测,因为它们倾向于移除那些具有显著重叠的不太确定的框。为了缓解这个问题,我们将讨论一种称为加权框融合(WBF)的高效预处理步骤,它有助于在多个检测结果中实现统一的局部化预测。
《SAM – A Foundation Model for Image Segmentation》、YouTube视频、GitHub源码:介绍SAM模型及其数据集,以及推理。
《Tech track #2. Fast SAM review》:Fast SAM
是 Segment Anything 任务的一种创新方法,将SAM模型的处理速度提升了50倍。它引入了提示机制,以促进解决广泛的问题,打破了传统监督学习的界限。
《SAM 2 – Promptable Segmentation for Images and Videos》:图像分割是计算机视觉中最基本的任务之一。去年,Meta AI 凭借其 Segment Anything Model (SAM) 推出了世界上第一个图像分割基础模型。今天,我们有了 SAM 2 (Segmentation Anything Model 2),这是一个用于图像和视频分割的可提示基础模型。
《训练3D U-Net进行脑肿瘤分割(BraTS2023-GLI)挑战赛》:3D U-Net 是一种高效的医疗分割范例,擅长分析 3D 体积数据,使其能够捕获脑部扫描的整体视图。
《探索DINO:使用ResNet50和U-Net进行道路分割的自监督变换器》:DINO
是一个自监督学习(SSL,self-supervised learning)框架,以视觉变换器(ViT,Vision Transformer)为核心架构。SSL作为一种替代的预训练策略,不依赖标记数据,最初在自然语言处理(NLP)任务中获得了广泛关注。在计算机视觉领域,DINO(无标签蒸馏)模型由Facebook AI开发,并于去年推出了改进版本DINOv2。本文深入探讨自监督学习的历史,分析DINO模型及其内部机制,并针对IDD数据集的印度道路分割任务对基于DINO的ResNet-50进行微调,最终在训练DINO-ResNet50 U-Net
模型时达到了0.95
的IOU。
《Sapiens: Foundation for Human Vision Models by Meta》:Sapiens是一个模型系列,针对四个基本的人本视觉任务——二维姿态估计、身体部位分割、深度估计和表面法线预测。
《DeepLabv3 & DeepLabv3+ The Ultimate PyTorch Guide》:Google 研究团队在 17 年末发布了广受欢迎的DeepLabv3,在 Pascal VOC 2012 测试集上实现了SOTA性能。DeepLabv3+ 在 DeepLabv3 语义分割模型的基础上进行了根本性的架构改进,实现了更强的性能。
《Semantic Segmentation using KerasCV DeepLabv3+》(github源码):DeepLabv3+是一种流行的语义分割模型,可用于图像分割中的各种应用,例如医学成像,自动驾驶等。
《YOLOv8 Object Tracking and Counting with OpenCV》:了解使用 YOLOv8 和 OpenCV 进行对象跟踪,以及如何在视频源中执行对象计数。
《Real Time Deep SORT with Torchvision Detectors》:不论是人物还是车辆,目标跟踪在各个领域都非常重要。测试多种检测模型和再识别(Re-ID)模型比较繁琐,因此我们计划简化这个流程。我们将创建一个小的代码库,帮助用户轻松测试Torchvision中的任何目标检测模型,并将其与实时的Deep SORT库结合。Deep SORT库可以用来执行目标跟踪,并提供多种再识别模型(Re-ID)。我们还将还会对不同检测器和Re-ID模型组合的效果进行定性和定量分析,比如通过帧率(FPS)等指标来评估系统性能。
《Object Keypoint Similarity in Keypoint Detection》、Github源码:无论是 在杂乱场景中检测特定对象,还是在实时分析人类姿势,关键点都发挥着关键作用。但是,我们如何测量这些检测到的关键点的相似性和精确度呢?这就引入了对象关键点相似性(OKS)的概念,这是一种用于衡量关键点检测准确性的特定指标。本文将介绍什么是OKS?OKS是如何计算的?OKS如何处理不同的尺度和对象大小?
《使用 Mediapipe 创建 AI 健身教练》、GitHub源码:用于估计人体姿态的流行框架包括OpenPose、AlphaPose、Yolov7、MediaPipe等。然而,由于在CPU上的疯狂推理速度,我们选择了使用MediaPipe的Pose
流程来估计人体关键点。基于此,我们构建一个AI健身教练,无论您是初学者还是专业人士,它都能帮助您顺畅地完成深蹲动作(初级模式和高级模式),并伴有适当的反馈。
《YOLOv7 Pose vs MediaPipe in Human Pose Estimation》:YOLOv7 Pose 是在 22 年 7 月首次发布几天后引入 YOLOv7 存储库的。它是一个单阶段、多人姿势估计模型。MediaPipe Pose 是一个单人姿势估计框架。本文对这两种模型进行了分析和对比。
《YOLOv7 Object Detection Paper Explanation & Inference》:本文将解读YOLOv7 论文及推理测试,并介绍YOLOv7 Pose。
《基于手势的三维操作交互》:Alireza Delisnav 最近在 LinkedIn 上分享了这个演示,展示了如何将用户的网络摄像头与 TensorFlow 机器学习库和 Handpose 库结合使用。
《Tech track #4. NeRF: Photorealistic Image Synthesis》:3D 视觉领域一项重要任务是 Novel View Synthesis,它旨在使用该场景的稀疏图像集从新颖的角度生成场景的图像。该领域的一个显着突破是 NeRF
模型(神经辐射场),它使用神经网络和体积渲染技术来生成场景的新视图。NeRF
的输入是一组具有相应相机位置(外在矩阵)的图像,该模型本质上是对给定3D场景的一种特殊表示,由一系列连续的点组成,每个点都有预测的密度和颜色。
《Depth Anything: Accelerating Monocular Depth Perception》:单眼深度感知是 3D 计算机视觉的一个关键方面,它能够从单个二维图像中估计 3D 结构。与依赖多个视点来推断深度的立体技术不同,单眼深度感知算法必须从各种图像特征(如纹理渐变、对象大小、阴影和透视)中提取深度线索。应用领域包括水下成像、人体动作观察、手势识别、野生动物监测、地形测绘等等。
《激光雷达SLAM简介:LOAM和LeGO-LOAM论文及代码解析与ROS 2实现》:在机器人感知研究中,LiDAR SLAM是一个独特的领域,因为它必须处理各种场景,例如室内和室外环境,自我车辆的高速,动态对象,变化的天气条件以及实时处理的需求等。
3D激光雷达可视化(github源码):3D激光雷达传感器(或)三维光探测与测距是一种先进的光发射仪器,它能够像人类一样在三维空间中感知现实世界。这项技术特别是对地球观测、环境监测、侦察以及现在的自动驾驶领域产生了革命性的影响。它提供准确和详细数据的能力,对于提升我们理解和管理环境及自然资源起到了至关重要的作用。
ADAS简介:随着汽车技术的快速发展,推动更安全、更智能、更高效的驾驶体验一直是汽车创新的前沿。高级驾驶辅助系统(ADAS)是这场技术革命的关键参与者,是指集成到现代车辆中的一系列技术和功能,以增强驾驶员安全性,改善驾驶体验,并协助完成各种驾驶任务。它使用传感器,摄像头,雷达和其他技术来监控车辆的周围环境,收集数据并向驾驶员提供实时反馈。在今天关于ADAS的文章中,我们将讨论不同级别的ADAS(0至5级), ADAS系统如何工作。
《 ADAS:立体视觉中超越LiDAR的深度感知先锋》:本文将探讨汽车中的ADAS立体视觉如何改变游戏规则,为深度感知提供一种智能替代方案,而不是传统的基于LiDAR的方法。该综合研究文章包括一个逐步流程,介绍如何设置和微调STereo TRansformer(STTR),以从两个摄像头流中预测视差图,类似于人眼的工作方式。除了纯粹的计算机视觉理论,本文还包含了在微调KITTI立体视觉数据集后的真实实验结果。源码
《使用Python和OpenCV从零开始构建SLAM》:SLAM
是机器人和3D计算机视觉中的一个众所周知的术语。它是机器人感知的一个组成部分,负责使机器人能够在未知的地形中导航。特斯拉的自动驾驶汽车就使用了这种技术。
《Introducing the Kopikat》:KopiKat是一款无代码的生成式数据增强工具,通过生成多样化的图片,保持原始标注,从而显著提升神经网络在小数据集(少于5000张图像)上的效果。它在以下方面具有重要应用:
KopiKat为有限数据量的项目提供了更高效的数据扩充方式,助力高质量产品的快速开发。
《Top 10 AI Tools for Image Generation》:简单介绍了DALL-E 2 、Midjourney、Stable Diffusion、OpenJourney、Playgroundai等图像生成工具。
《OpenCV Face Recognition – Does Face Recognition Work on AI-Generated Images?》:面部识别技术能否像处理真实图像一样处理这些 AI 生成的人脸图像?我们将构建OpenCV 人脸识别系统,测试它在真实人脸上的准确性,最后评估它在 AI 生成的人脸上的性能。
《Dreambooth using Diffusers》:Dreambooth 是一种专门的训练技术,旨在微调预训练的 Diffusion 模型。本文深入探讨了使用 Diffusers 根据特定主题生成个性化图像的 Dreambooth 技术。
《ROS 2(机器人操作系统2)简介及使用教程》:ROS2(Robot Operating System 2)是一个用于机器人编程的开源框架,它提供了一组软件库和工具,帮助开发者构建机器人应用程序。
Rescue Bot:救援机器人是一个自主的地面漫游者,旨在导航灾后地形,定位幸存者和加强灾害响应。
Guiding Gaze:一个自动导航系统,旨在为那些有视觉挑战的人提供帮助
《使用Hugging Face Spaces 和 Gradio部署深度学习模型》、GitHub源码、yolov8_nano目标检测应用
《Gradio与OpenCV DNN集成》:本文探讨深度学习模型部署方案——集成Gradio与OpenCV DNN,一种轻量级、高效且具有实时推理能力的网络应用。
在 PyTorch 中实现 Vision Transformer:我们将详细解释 vision transformer 架构的各个组件,最后继续在 PyTorch 中实现整个架构。
《PaddlePaddle: Exploring Object Detection, Segmentation, and Keypoints》、Github源码:介绍如何使用PaddlePaddle完成目标检测、分割和关键点检测任务。
《Building MobileViT Image Classification Model from Scratch In Keras 3》:在快速发展的深度学习领域,挑战往往不仅在于设计强大的模型,还在于使其易于访问和高效地用于实际使用,尤其是在计算能力有限的设备上。MobileViT 模型是更大、更复杂的视觉转换器 (ViT) 的紧凑而强大的替代方案。我们的主要目标是提供使用 Keras 3 从头开始实施 MobileViT v1 模型的全面指南。
《ControlNet – Achieving Superior Image Generation Results》、Github源码:ControlNet 是一种调节输入图像和图像生成提示的新方法。它允许我们通过各种技术(如姿势、边缘检测、深度图等)来控制最终图像的生成。
《使用OpenCV进行系外行星探索》(源码):Katelyn Gan 的项目“用于系外行星探测的径向速度提取的计算机视觉方法”在 2023 年 OpenCV AI 竞赛中获得第二名!此代码演示了应用计算机视觉技术来分析恒星光谱和提取径向速度 (RV) 以进行系外行星探测的概念和程序。