目录
DOG尺度空间构造(Difference of Gaussian)
首先是对原特征图下采样可以得到金字塔形状的多分辨率空间,作为特征金字塔,该特征金字塔可以方便提取出不同尺度的特征(也可以叫多尺度空间)。
多尺度空间:利用高斯核对图像进行卷积操作,不同的高斯核参数 σ \sigma σ对应不同的形状,相当于多尺度空间。利用高斯核对图像做卷积操作就是高斯模糊,卷积和形状越矮越扁,模糊程度就越大。关键特征在不断模糊的过程中相对其他位置应该是更容易保留下来的,因此在后面对特征图做差时可以形成极值点。
分别对每层特征金字塔中的特征图,用不同的高斯核进行卷积操作,就得到了高斯特征金字塔,再对相邻的两层作差,进一步得到DOG金字塔。
关键特征在不同的高斯模糊下更容易保留,在DOG特征图中表现为极值点。
1、具有较好的稳定性和不变性,能够适应旋转、尺度缩放、亮度的变化,能在一定程度上不受视角变化、仿射变换、噪声的干扰。
2、区分性好,能够在海量特征数据库中进行快速准确的区分信息进行匹配
3、多量性,就算只有单个物体,也能产生大量特征向量
4、高速性,能够快速的进行特征向量匹配
5、可扩展性,能够与其它形式的特征向量进行联合
暴力(Brute-Force)匹配:一种描述符匹配算法,该方法会比较两个描述符,并产生匹配结果列表,第一个描述符的所有特征都拿来和第二个进行比较。
- import cv2
- import numpy as np
-
- class Stitcher:
- #拼接函数
- def stitch(self, images, ratio=0.75, reprojThresh=4.0,showMatches=False):
- #获取输入图片
- (imageB, imageA) = images
- (kpsA, featuresA) = self.detectAndDescribe(imageA)
- (kpsB, featuresB) = self.detectAndDescribe(imageB)
- M = self.matchKeypoints(kpsA, kpsB, featuresA, featuresB, ratio, reprojThresh)
- # 如果返回结果为空,没有匹配成功的特征点,退出算法
- if M is None:
- return None
- # 否则,提取匹配结果
- # H是3x3视角变换矩阵
- (matches, H, status) = M
- # 将图片A进行视角变换,result是变换后图片
- result = cv2.warpPerspective(imageA, H, (imageA.shape[1] + imageB.shape[1], imageA.shape[0]))
- #self.cv_show('result', result)
- # 将图片B传入result图片最左端
- result[0:imageB.shape[0], 0:imageB.shape[1]] = imageB
- #self.cv_show('result', result)
- # 检测是否需要显示图片匹配
- if showMatches:
- # 生成匹配图片
- vis = self.drawMatches(imageA, imageB, kpsA, kpsB, matches, status)
- # 返回结果
- return (result, vis)
- # 返回匹配结果
- return result
-
- def detectAndDescribe(self, image):
- # 将彩色图片转换成灰度图
- gray = cv2.cvtColor(image, cv2.COLOR_BGR2GRAY)
- descriptor = cv2.SIFT_create()
- (kps, features) = descriptor.detectAndCompute(image, None)
- kps = np.float32([kp.pt for kp in kps])
- return (kps, features)
-
- def matchKeypoints(self, kpsA, kpsB, featuresA, featuresB, ratio, reprojThresh):
- # 建立暴力匹配器
- matcher = cv2.BFMatcher()
- # 使用KNN检测来自A、B图的SIFT特征匹配对,K=2
- rawMatches = matcher.knnMatch(featuresA, featuresB, 2)
- matches = []
- for m in rawMatches:
- print("3-0 {} m0:{} m1:{}".format(len(m),m[0].distance,m[1].distance))
- # 当最近距离跟次近距离的比值小于ratio值时,保留此匹配对
- if len(m) == 2 and m[0].distance < m[1].distance * ratio:
- # 存储两个点在featuresA, featuresB中的索引值
- matches.append((m[0].trainIdx, m[0].queryIdx))
- # 当筛选后的匹配对大于4时,计算视角变换矩阵
- if len(matches) > 4:
- # 获取匹配对的点坐标
- ptsA = np.float32([kpsA[i] for (_, i) in matches])
- ptsB = np.float32([kpsB[i] for (i, _) in matches])
- # 计算视角变换矩阵
- (H, status) = cv2.findHomography(ptsA, ptsB, cv2.RANSAC, reprojThresh)
- # 返回结果
- return (matches, H, status)
- # 如果匹配对小于4时,返回None
- return None
-
- def drawMatches(self, imageA, imageB, kpsA, kpsB, matches, status):
- # 初始化可视化图片,将A、B图左右连接到一起
- (hA, wA) = imageA.shape[:2]
- (hB, wB) = imageB.shape[:2]
- vis = np.zeros((max(hA, hB), wA + wB, 3), dtype="uint8")
- vis[0:hA, 0:wA] = imageA
- vis[0:hB, wA:] = imageB
-
- # 联合遍历,画出匹配对
- for ((trainIdx, queryIdx), s) in zip(matches, status):
- # 当点对匹配成功时,画到可视化图上
- if s == 1:
- # 画出匹配对
- ptA = (int(kpsA[queryIdx][0]), int(kpsA[queryIdx][1]))
- ptB = (int(kpsB[trainIdx][0]) + wA, int(kpsB[trainIdx][1]))
- cv2.line(vis, ptA, ptB, (0, 255, 0), 1)
-
- # 返回可视化结果
- return vis
-
-
-
- # 读取拼接图片
- imageA = cv2.imread("L.jpeg")
- imageB = cv2.imread("R.jpeg")
- # 把图片拼接成全景图
- stitcher = Stitcher()
- (result, vis) = stitcher.stitch([imageA, imageB], ratio=0.75,showMatches=True)
- # 显示所有图片
- cv2.imshow("Image A", imageA)
- cv2.imshow("Image B", imageB)
- cv2.imshow("Keypoint Matches", vis)
- cv2.imshow("Result", result)
- cv2.waitKey(0)
- cv2.destroyAllWindows()
拼接后: