- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我想使用基于FLANN的Matcher打印检测功能关键点
算法:http://docs.opencv.org/trunk/dc/dc3/tutorial_py_matcher.html。
搜索效果很好,并以红色(全部)和绿色(良好)的关键点作为教程显示。
我只想打印第二个图像(场景)的此处为“kp2”的坐标(x,y),但是它不起作用。
这是我的代码:
import numpy as np
import cv2
from matplotlib import pyplot as plt
img1 = cv2.imread('img1.jpg',0) # queryImage
img2 = cv2.imread('img2.jpg',0) # trainImage
# Initiate SIFT detector
sift = cv2.xfeatures2d.SIFT_create()
# find the keypoints and descriptors with SIFT
kp1, des1 = sift.detectAndCompute(img1,None)
kp2, des2 = sift.detectAndCompute(img2,None)
# FLANN parameters
FLANN_INDEX_KDTREE = 1
index_params = dict(algorithm = FLANN_INDEX_KDTREE, trees = 5)
search_params = dict(checks=50) # or pass empty dictionary
flann = cv2.FlannBasedMatcher(index_params,search_params)
matches = flann.knnMatch(des1,des2,k=2)
# Need to draw only good matches, so create a mask
matchesMask = [[0,0] for i in range(len(matches))]
# ratio test as per Lowe's paper
for i,(m,n) in enumerate(matches):
if m.distance < 0.7*n.distance:
matchesMask[i]=[1,0]
print(i,kp2[i].pt)
draw_params = dict(matchColor = (0,255,0),
singlePointColor = (255,0,0),
matchesMask = matchesMask,
flags = 0)
img3 = cv2.drawMatchesKnn(img1,kp1,img2,kp2,matches,None,**draw_params)
plt.imshow(img3,),plt.show()
77 (67.68722534179688, 92.98455047607422)
82 (14.395119667053223, 93.1697998046875)
86 (127.58460235595703, 98.1304931640625)
109 (66.52041625976562, 111.51738739013672)
110 (66.52041625976562, 111.51738739013672)
146 (69.3978500366211, 11.287369728088379)
最佳答案
更新时间:
我找到了有用的资源http://docs.opencv.org/3.0-beta/doc/py_tutorials/py_feature2d/py_matcher/py_matcher.html
我使用这两个图像进行测试:
Android,Android_small
匹配结果如下:
结果:
0 (42.05057144165039, 134.98709106445312) (139.18690490722656, 24.550437927246094)
1 (53.74299621582031, 249.95252990722656) (26.700265884399414, 124.75701904296875)
2 (56.41600799560547, 272.58843994140625) (139.18690490722656, 24.550437927246094)
3 (82.96114349365234, 124.731201171875) (41.35136795043945, 62.25730895996094)
4 (82.96114349365234, 124.731201171875) (41.35136795043945, 62.25730895996094)
5 (82.96114349365234, 124.731201171875) (41.35136795043945, 62.25730895996094)
6 (91.90446472167969, 293.59735107421875) (139.18690490722656, 24.550437927246094)
8 (94.516845703125, 296.0242919921875) (139.18690490722656, 24.550437927246094)
9 (98.97846221923828, 134.186767578125) (49.89073944091797, 67.37061309814453)
#!/usr/bin/python3
# 2017.10.06 22:36:44 CST
# 2017.10.06 23:18:25 CST
"""
Environment:
OpenCV 3.3 + Python 3.5
Aims:
(1) Detect sift keypoints and compute descriptors.
(2) Use flannmatcher to match descriptors.
(3) Do ratio test and output the matched pairs coordinates, draw some pairs in purple .
(4) Draw matched pairs in blue color, singlepoints in red.
"""
import numpy as np
import cv2
from matplotlib import pyplot as plt
imgname = "android.png" # query image (large scene)
imgname2 = "android_small.png" # train image (small object)
## Create SIFT object
sift = cv2.xfeatures2d.SIFT_create()
## Create flann matcher
FLANN_INDEX_KDTREE = 1 # bug: flann enums are missing
flann_params = dict(algorithm = FLANN_INDEX_KDTREE, trees = 5)
#matcher = cv2.FlannBasedMatcher_create()
matcher = cv2.FlannBasedMatcher(flann_params, {})
## Detect and compute
img1 = cv2.imread(imgname)
gray1 = cv2.cvtColor(img1, cv2.COLOR_BGR2GRAY)
kpts1, descs1 = sift.detectAndCompute(gray1,None)
## As up
img2 = cv2.imread(imgname2)
gray2 = cv2.cvtColor(img2, cv2.COLOR_BGR2GRAY)
kpts2, descs2 = sift.detectAndCompute(gray2,None)
## Ratio test
matches = matcher.knnMatch(descs1, descs2, 2)
matchesMask = [[0,0] for i in range(len(matches))]
for i, (m1,m2) in enumerate(matches):
if m1.distance < 0.7 * m2.distance:
matchesMask[i] = [1,0]
## Notice: How to get the index
pt1 = kpts1[m1.queryIdx].pt
pt2 = kpts2[m1.trainIdx].pt
print(i, pt1,pt2 )
if i % 5 ==0:
## Draw pairs in purple, to make sure the result is ok
cv2.circle(img1, (int(pt1[0]),int(pt1[1])), 5, (255,0,255), -1)
cv2.circle(img2, (int(pt2[0]),int(pt2[1])), 5, (255,0,255), -1)
## Draw match in blue, error in red
draw_params = dict(matchColor = (255, 0,0),
singlePointColor = (0,0,255),
matchesMask = matchesMask,
flags = 0)
res = cv2.drawMatchesKnn(img1,kpts1,img2,kpts2,matches,None,**draw_params)
cv2.imshow("Result", res);cv2.waitKey();cv2.destroyAllWindows()
关于python - SIFT feature_matching点坐标,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/46607647/
我想找到一种方法,允许将图像(查询)的 SIFT 描述符与包含大量不同图片描述符的 SQL 数据库中的描述符进行比较。 事实上,我的最终目的是做一个应用程序,允许将一张图片与数据库(不是在我的设备中)
我正在使用 OpenCV 实现词袋图像分类器。最初我测试了在 SURF 关键点中提取的 SURF 描述符。我听说 Dense SIFT(或 PHOW)描述符更适合我的目的,所以我也尝试了它们。 令我惊
我尝试使用 David Lowe's implementation 对几个不同的对象进行对象检测和 OpenCV implementation (只是在此代码中更改了 'SurfFeatureDete
我正在尝试为我的项目实现 SIFT,我已经掌握了关键点。我尝试使用同一图像的所有关键点获取图像的每个关键点的欧氏距离,但按比例缩小。碰巧查询图像的 1 个关键点与数据库图像中其余关键点的距离具有非常相
我想通过旋转它们来标准化筛选描述符,以便水平方向与补丁的主要梯度方向对齐。 我正在使用 vl_feat 库。 vl_feat 中是否有任何方法可以规范筛选描述? 或 使用 matlab 执行此操作的有
我想使用基于FLANN的Matcher打印检测功能关键点 算法:http://docs.opencv.org/trunk/dc/dc3/tutorial_py_matcher.html。 搜索效果很好
SIFT 是做什么的?它是否建立了 View 之间的特征对应关系?它是否接收图像的角并删除那些没有描述性的角?它会进行匹配吗? 最佳答案 SIFT 是“尺度不变特征变换”的捷径。SIFT 特征通常用于
我正在尝试实现 SIFT,目前我只是想了解它是如何工作的,然后再开始在 MATLAB 中实现它,我了解其中的大部分内容,除了如何使用泰勒展开计算亚像素精度: 以上是原始论文中的方程式。我有几个关于它如
我在 matlab 中使用 SIFT 算法来确定模板图像和一组图像之间的相似性,最后我必须根据 SCORES 确定一组图像之间的最佳匹配,这样说对吗图像的分数越高匹配越好?我知道当存在完全匹配时,分数
我是 Opencv2.3 的入门级程序员,玩弄互联网上可用的代码和各种有用的资源。有 Stack User 实现的代码 User:Froyo在他的网站上 website .当我尝试执行代码时,只要我在
我在执行我的代码时遇到以下错误:(带有 Qt Creator 的 OpenCV) OpenCV Error: Assertion failed (!outImage.empty()) in drawK
我正在使用 OpenCV-Python。 我已经使用 cv2.cornerHarris 识别角点。输出类型为 dst。 我需要计算角点的 SIFT 特征。 sift.compute() 的输入必须是
我读过一些关于 SIFT 的文献,也看过一些视频。我了解 SIFT 背后的大部分概念,但让我感到困惑的是关于 SIFT 描述符的一件事。 在筛选中: 我们找到了一个关键点 我们在关键点周围取 16 x
有 2 张图像 A 和 B。我从中提取关键点(a[i] 和 b[i])。 我想知道如何有效地确定 a[i] 和 b[j] 之间的匹配? 我想到的最明显的方法是将 A 中的每个点与 B 中的每个点进行比
我正在开发一个应用程序,我在其中使用 SIFT + RANSAC 和 Homography 来查找对象(OpenCV C++、Java)。我面临的问题是,在有很多异常值的地方,RANSAC 表现不佳。
我正在开展一个项目,我将使用单应性作为分类器中的特征。我的问题是自动计算单应性,我使用 SIFT 描述符来找到两个图像之间的点来计算单应性,但是 SIFT 给我的结果很差,因此我不能在我的工作中使用它
我想知道,如果我可以更改 SIFT 描述符维度,如果可以,我该怎么做。我知道目前尺寸是 128,我们可以做成 128*4 或 124/4 这样的尺寸吗? 更新:我试图将 SIFT_DESCR_WIDT
我在树莓派 3b 上使用 opencv 4.5.0-pre 和 python 3.7.3。我正在尝试使用 SIFT 为图像拼接找到最匹配的特征。我使用本指南从源代码构建了 opencv https:/
我目前在 工作SIFT ,我已经生成了高斯和极值图像层的差异。谁能向我解释如何使用 Hessian 矩阵来消除低对比度关键点? 最佳答案 一个好的关键点是一个角落。这首先来自 Harris 角工作和
我在 OpenCV 4.5.2 中使用 SIFT 特征检测器.通过调整 nOctaveLayers cv::SIFT::create() 中的参数, 我从 detectAndCompute() 得到这
我是一名优秀的程序员,十分优秀!