婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av

主頁 > 知識庫 > opencv-python圖像配準(匹配和疊加)的實現

opencv-python圖像配準(匹配和疊加)的實現

熱門標簽:無錫客服外呼系統一般多少錢 高德地圖標注是免費的嗎 百度地圖標注位置怎么修改 梅州外呼業務系統 北京電信外呼系統靠譜嗎 地圖標注視頻廣告 老人電話機器人 大連crm外呼系統 洪澤縣地圖標注

圖像配準需是指對不同條件下得到的兩幅或多幅圖像進行匹配、疊加的過程。最簡單的做法就是求得原圖像到目標圖像之間的透視變換矩陣,將原圖像按照矩陣進行變換,就可以得到和目標圖像相似的效果。透視變換是將成像投影到一個新的視平面,也稱作投影映射。

透視變換實質上是將二維的圖片變換到三維的坐標系中之后再變換到另一個二維坐標系,與仿射變換相比透視變換實現的效果要多一些。求解精確矩陣和透視變換可以很容易地在opencv-python中實現。

import cv2 as cv
import numpy as np
import matplotlib.pyplot as plt
original_image = cv.imread("Image A.jpg")
target_image = cv.imread("Image B.jpg")
# 生成透視矩陣
src_points = np.array([[957, 1655], [2177, 1170], [2676, 24], [2487, 1931]], dtype=np.float32)
den_points = np.array([[687, 1150], [2000, 996], [2757, 18], [2098, 1819]], dtype=np.float32)
# getPerspectiveTransform可以得到從點集src_points到點集den_points的透視變換矩陣
T = cv.getPerspectiveTransform(src_points, den_points)
# 進行透視變換
# 注意透視變換第三個參數為變換后圖片大小,格式為(高度,寬度)
warp_imgae = cv.warpPerspective(original_image, T, (target_image.shape[1], target_image.shape[0]))
plt.imshow(warp_imgae)
plt.show()

進行四點變換前后的結果為

opencv-python也可以計算超過四個點的兩數組點之間的變換矩陣。對原圖像選擇7個點進行透視變換的結果為

# 設置原始和目標特征點
src_more_point = np.float32([[957, 1655], [2177, 1170], [620, 2586], [1280, 2316], [2487, 1931], [937, 758], [2676, 24]]).reshape(-1, 1, 2)
den_more_point = np.float32([[687, 1150], [2000, 996], [121, 1974], [927, 1886], [2098, 1819], [899, 280], [2757, 18]]).reshape(-1, 1, 2)
# 調用庫函數計算特征矩陣
# cv.findHomography第三個參數為計算單位矩陣所用的方法,0為常規算法,cv.RANSAC為基于RANSAC的魯棒算法,cv.LMEDS為最小中值
# 魯棒算法,cv.RHO基于PROSAC的魯棒算法.第四個參數取值范圍在1到10,絕一個點對的閾值。原圖像的點經過變換后點與目標圖像上對應
# 點的誤差.返回值中H為變換矩陣.mask是掩模,在線的點.
H, status = cv.findHomography(src_more_point, den_more_point, cv.RANSAC, 5.0)
# 進行透視變換
warped_more_point_image = cv.warpPerspective(original_image, H, (target_image.shape[1], target_image.shape[0]))

對4個點、7個點和opencv-python函數庫自動匹配的效果對比如下

可以看出如果匹配點選擇恰當,三種方法的效果并沒有太大區別。

調用庫函數的圖像自動匹配代碼如下

# 用AKAZE庫函數進行自動特征檢測,AKAZE與SIFT等屬于相似的 特征檢測,但是有一些不同
akaze = cv.AKAZE_create()
# Find the keypoints and descriptors with SIFT
kp1, des1 = akaze.detectAndCompute(original_image_gray, None)
kp2, des2 = akaze.detectAndCompute(target_image_gray, None)

bf = cv.BFMatcher()
matches = bf.knnMatch(des1, des2, k=2)
good_matches = []
for m, n in matches:
    if m.distance  0.75 * n.distance:
        good_matches.append([m])

# 畫出符合條件的匹配點的連線
img3 = cv.drawMatchesKnn(original_image_gray, kp1, target_image_gray, kp2, good_matches, None, flags=cv.DrawMatchesFlags_NOT_DRAW_SINGLE_POINTS)
cv.imwrite('matches.jpg', img3)


src_automatic_points = np.float32([kp1[m[0].queryIdx].pt for m in good_matches]).reshape(-1, 1, 2)
den_automatic_points = np.float32([kp2[m[0].trainIdx].pt for m in good_matches]).reshape(-1, 1, 2)

# 調用庫函數計算特征矩陣
H, status = cv.findHomography(src_more_point, den_more_point, cv.RANSAC, 5.0)
# 進行透視變換
warped_automatic_image = cv.warpPerspective(original_image, H, (target_image.shape[1], target_image.shape[0]))

# 繪制圖像
my_draw(warped_automatic_image, tip='automatic')

到此這篇關于opencv-python圖像配準的實現的文章就介紹到這了,更多相關opencv-python圖像配準內容請搜索腳本之家以前的文章或繼續瀏覽下面的相關文章希望大家以后多多支持腳本之家!

您可能感興趣的文章:
  • Opencv Python實現兩幅圖像匹配
  • Python使用Opencv實現圖像特征檢測與匹配的方法
  • Python和OpenCV進行多尺度模板匹配實現
  • OpenCV-Python模板匹配人眼的實例
  • OpenCV-Python實現多模板匹配
  • python基于OpenCV模板匹配識別圖片中的數字
  • Python開發之基于模板匹配的信用卡數字識別功能
  • Python+Opencv實現圖像匹配功能(模板匹配)

標簽:安慶 長春 泉州 洛陽 岳陽 吉林 怒江 清遠

巨人網絡通訊聲明:本文標題《opencv-python圖像配準(匹配和疊加)的實現》,本文關鍵詞  opencv-python,圖像,配準,匹配,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《opencv-python圖像配準(匹配和疊加)的實現》相關的同類信息!
  • 本頁收集關于opencv-python圖像配準(匹配和疊加)的實現的相關信息資訊供網民參考!
  • 推薦文章
    主站蜘蛛池模板: 宣化县| 醴陵市| 阳江市| 岳普湖县| 麻城市| 东阳市| 南昌县| 衢州市| 迁安市| 巩义市| 武乡县| 普洱| 习水县| 通化市| 友谊县| 太谷县| 桐庐县| 合山市| 平遥县| 武陟县| 简阳市| 昂仁县| 通海县| 汪清县| 修文县| 南江县| 古田县| 玛纳斯县| 三台县| 临邑县| 瓮安县| 河曲县| 张掖市| 兴仁县| 库伦旗| 古田县| 连州市| 叙永县| 盐源县| 博湖县| 连州市|