AskOverflow.Dev

AskOverflow.Dev Logo AskOverflow.Dev Logo

AskOverflow.Dev Navigation

  • Início
  • system&network
  • Ubuntu
  • Unix
  • DBA
  • Computer
  • Coding
  • LangChain

Mobile menu

Close
  • Início
  • system&network
    • Recentes
    • Highest score
    • tags
  • Ubuntu
    • Recentes
    • Highest score
    • tags
  • Unix
    • Recentes
    • tags
  • DBA
    • Recentes
    • tags
  • Computer
    • Recentes
    • tags
  • Coding
    • Recentes
    • tags
Início / coding / Perguntas / 78286184
Accepted
AI ML
AI ML
Asked: 2024-04-07 07:25:42 +0800 CST2024-04-07 07:25:42 +0800 CST 2024-04-07 07:25:42 +0800 CST

A função cv2.matchTemplate falha na correspondência

  • 772

Gostaria de comparar duas imagens e encontrar a posição do modelo dentro da segunda imagem, então a primeira imagem é esta:

modelo

Esta é a nossa imagem de modelo que deve ser comparada com a imagem a seguir:

imagem original

Mas quando executo o código, obtive o seguinte resultado:

insira a descrição da imagem aqui

Como posso melhorar o resultado?

import cv2
import numpy as np
from imutils.object_detection import non_max_suppression
import matplotlib.pyplot as plt
template =cv2.imread("euro.jpg",cv2.IMREAD_COLOR)
template =cv2.resize(template,(99,99))
img =cv2.imread("euro_2024.jpg",cv2.IMREAD_COLOR)
img2 = img.copy()
# image =cv2.resize(image,(700,700))
h,w =template.shape[:2]

# All the 6 methods for comparison in a list
methods = ['cv2.TM_CCOEFF', 'cv2.TM_CCOEFF_NORMED', 'cv2.TM_CCORR',
            'cv2.TM_CCORR_NORMED', 'cv2.TM_SQDIFF', 'cv2.TM_SQDIFF_NORMED']

for meth in methods:
    img = img2.copy()
    method = eval(meth)

    # Apply template Matching
    res = cv2.matchTemplate(img,template,method)
    min_val, max_val, min_loc, max_loc = cv2.minMaxLoc(res)

    # If the method is TM_SQDIFF or TM_SQDIFF_NORMED, take minimum
    if method in [cv2.TM_SQDIFF, cv2.TM_SQDIFF_NORMED]:
        top_left = min_loc
    else:
        top_left = max_loc
    bottom_right = (top_left[0] + w, top_left[1] + h)

    cv2.rectangle(img,top_left, bottom_right, 255, 2)

    plt.subplot(121),plt.imshow(res,cmap = 'gray')
    plt.title('Matching Result'), plt.xticks([]), plt.yticks([])
    plt.subplot(122),plt.imshow(img,cmap = 'gray')
    plt.title('Detected Point'), plt.xticks([]), plt.yticks([])
    plt.suptitle(meth)

    plt.show()
python
  • 1 1 respostas
  • 45 Views

1 respostas

  • Voted
  1. Best Answer
    VonC
    2024-04-07T19:35:32+08:002024-04-07T19:35:32+08:00

    Isso significaria que a função de correspondência se concentra apenas na bola e não em qualquer ruído de fundo.
    Mas você também deve converter o modelo em tons de cinza para torná-lo mais distinguível. Você pode ver isso feito em " Tutoriais OpenCV-Python/Processamento de imagens em OpenCV/Template Matching " template_gray = cv2.cvtColor(template, cv2.COLOR_BGR2GRAY):.
    Em seguida, determine manualmente a caixa delimitadora da bola e recorte o modelo : cropped_template = template_gray[y:y+h, x:x+w].

    OpenCVsmatchTemplate podem usar uma máscara como argumento opcional , o que indica para considerar apenas as partes brancas da máscara durante o processo de correspondência.

    Assim você pode criar uma máscara para o modelo recortado, e passá-la matchTemplatepara considerar apenas a bola durante o processo de correspondência: mask = np.zeros(cropped_template.shape, dtype=np.uint8)
    Use numpy.zeros: `` Irá criar um array de zeros com as mesmas dimensões que template_gray(que representa a imagem do modelo convertida para tons de cinza ).

    Desenhe um círculo branco na máscara onde a bola está localizada:
    cv2.circle(mask, (mask.shape[1]//2, mask.shape[0]//2), radius, 255, -1)

    radiusdeve ser definido com um valor que corresponda ao tamanho do objeto de interesse na imagem do modelo, e a circlefunção preencherá o círculo com o valor 255, criando uma área branca na máscara.

    Seu código seria:

    import cv2
    import numpy as np
    import matplotlib.pyplot as plt
    
    template = cv2.imread("path_to_cropped_template.jpg")
    template_gray = cv2.cvtColor(template, cv2.COLOR_BGR2GRAY)
    
    x, y, w, h = 100, 100, 50, 50  # Replace with actual values
    cropped_template = template_gray[y:y+h, x:x+w]
    
    # Create a mask for the cropped template
    mask = np.zeros(cropped_template.shape, dtype=np.uint8)
    cv2.circle(mask, (w//2, h//2), w//2, (255), -1)
    
    search_img = cv2.imread("path_to_search_image.jpg")
    search_img_gray = cv2.cvtColor(search_img, cv2.COLOR_BGR2GRAY)
    
    res = cv2.matchTemplate(search_img_gray, cropped_template, cv2.TM_CCOEFF_NORMED, mask=mask)
    min_val, max_val, min_loc, max_loc = cv2.minMaxLoc(res)
    
    top_left = max_loc
    bottom_right = (top_left[0] + w, top_left[1] + h)
    cv2.rectangle(search_img, top_left, bottom_right, 255, 2)
    
    plt.imshow(cv2.cvtColor(search_img, cv2.COLOR_BGR2RGB))
    plt.show()
    

    Novamente, x, y, w, hna seção de corte devem estar as coordenadas e o tamanho da bola dentro da imagem real do modelo.


    Você pode adicionar non_max_suppressionse o modelo aparecer várias vezes na imagem de pesquisa:

    import cv2
    import numpy as np
    import matplotlib.pyplot as plt
    from imutils.object_detection import non_max_suppression
    
    template = cv2.imread('path_to_cropped_template.jpg', cv2.IMREAD_COLOR) 
    img = cv2.imread('path_to_search_image.jpg', cv2.IMREAD_COLOR)
    
    template_gray = cv2.cvtColor(template, cv2.COLOR_BGR2GRAY)
    img_gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)
    
    mask = np.zeros(template_gray.shape, dtype=np.uint8)
    cv2.circle(mask, (mask.shape[1] // 2, mask.shape[0] // 2), mask.shape[1] // 2, 255, -1)
    
    h, w = template_gray.shape[:2]
    
    # Match template using the mask
    res = cv2.matchTemplate(img_gray, template_gray, cv2.TM_CCOEFF_NORMED, mask=mask)
    min_val, max_val, min_loc, max_loc = cv2.minMaxLoc(res)
    
    # If the method is TM_SQDIFF or TM_SQDIFF_NORMED, take minimum
    top_left = min_loc if res.min() == min_val else max_loc
    bottom_right = (top_left[0] + w, top_left[1] + h)
    
    cv2.rectangle(img, top_left, bottom_right, (255, 0, 0), 2)
    
    # Apply non-maximum suppression to the bounding boxes
    rects = [[*top_left, *bottom_right]]
    pick = non_max_suppression(np.array(rects))
    
    for (startX, startY, endX, endY) in pick:
        cv2.rectangle(img, (startX, startY), (endX, endY), (0, 255, 0), 2)
    
    plt.imshow(cv2.cvtColor(img, cv2.COLOR_BGR2RGB))
    plt.title('Detected Point')
    plt.show()
    

    Isto não pode ser resolvido através da correspondência de modelos. você tem diferentes visualizações de um objeto 3D.

    Concordo: a correspondência de modelos geralmente é adequada para padrões de imagens 2D que não mudam de perspectiva ou forma. Seria assumido que o modelo e a parte da imagem que está sendo pesquisada são orientados e dimensionados de forma semelhante.
    Quando o objeto em questão é tridimensional, como uma bola de futebol, e as imagens o capturam de diferentes ângulos ou sob diferentes condições de iluminação, a aparência do modelo pode mudar devido a distorções de perspectiva, mudanças de iluminação e oclusões.

    Você pode tentar uma combinação de correspondência de modelo em várias escalas e uma máscara, que seria mais robusta do que a simples correspondência de modelo, mas ainda não seria uma solução abrangente para combinar imagens de objetos 3D que podem parecer muito diferentes devido à rotação, perspectiva mudanças e outros fatores.

    import cv2
    import numpy as np
    import matplotlib.pyplot as plt
    
    def multi_scale_template_matching_with_mask(search_img, template, template_mask, scale_steps=20, method=cv2.TM_CCOEFF_NORMED):
        h, w = template.shape[:2]
        # keep track of the most accurate matching
        found = None
    
        search_img_gray = cv2.cvtColor(search_img, cv2.COLOR_BGR2GRAY)
        template_gray = cv2.cvtColor(template, cv2.COLOR_BGR2GRAY)
    
        for scale in np.linspace(0.2, 1.0, scale_steps)[::-1]:
            # Resize the image according to the scale, and keep track of the ratio of the resizing
            resized = cv2.resize(search_img_gray, None, fx=scale, fy=scale, interpolation=cv2.INTER_AREA)
            r = search_img_gray.shape[1] / float(resized.shape[1])
    
            # If the resized image is smaller than the template, then break from the loop
            if resized.shape[0] < h or resized.shape[1] < w:
                break
    
            # Apply template Matching with the mask
            result = cv2.matchTemplate(resized, template_gray, method, mask=template_mask)
    
            _, max_val, _, max_loc = cv2.minMaxLoc(result)
    
            if method in [cv2.TM_SQDIFF, cv2.TM_SQDIFF_NORMED]:
                matchLoc = min_loc
            else:
                matchLoc = max_loc
    
            # If we have found a new maximum correlation value, then update the bookkeeping variable
            if found is None or max_val > found[0]:
                found = (max_val, matchLoc, r)
    
        # Unpack the bookkeeping variable and compute the (x, y) coordinates of the bounding box
        _, max_loc, r = found
        start_x, start_y = int(max_loc[0] * r), int(max_loc[1] * r)
        end_x, end_y = int((max_loc[0] + w) * r), int((max_loc[1] + h) * r)
    
        cv2.rectangle(search_img, (start_x, start_y), (end_x, end_y), (255, 0, 0), 2)
    
        plt.imshow(cv2.cvtColor(search_img, cv2.COLOR_BGR2RGB))
        plt.show()
    
    search_img = cv2.imread('path_to_search_image.jpg')
    template = cv2.imread('path_to_template.jpg')
    template_mask = cv2.imread('path_to_template_mask.jpg', 0)  # Assuming the mask is a grayscale image
    
    multi_scale_template_matching_with_mask(search_img, template, template_mask)
    

    Ele multi_scale_template_matching_with_masktentará encontrar o modelo na imagem de pesquisa em diferentes escalas enquanto usa uma máscara para focar a correspondência em características específicas do modelo (por exemplo, a bola).

    • 2

relate perguntas

  • Como divido o loop for em 3 quadros de dados individuais?

  • Como verificar se todas as colunas flutuantes em um Pandas DataFrame são aproximadamente iguais ou próximas

  • Como funciona o "load_dataset", já que não está detectando arquivos de exemplo?

  • Por que a comparação de string pandas.eval() retorna False

  • Python tkinter/ ttkboostrap dateentry não funciona quando no estado somente leitura

Sidebar

Stats

  • Perguntas 205573
  • respostas 270741
  • best respostas 135370
  • utilizador 68524
  • Highest score
  • respostas
  • Marko Smith

    Vue 3: Erro na criação "Identificador esperado, mas encontrado 'import'" [duplicado]

    • 1 respostas
  • Marko Smith

    Por que esse código Java simples e pequeno roda 30x mais rápido em todas as JVMs Graal, mas não em nenhuma JVM Oracle?

    • 1 respostas
  • Marko Smith

    Qual é o propósito de `enum class` com um tipo subjacente especificado, mas sem enumeradores?

    • 1 respostas
  • Marko Smith

    Como faço para corrigir um erro MODULE_NOT_FOUND para um módulo que não importei manualmente?

    • 6 respostas
  • Marko Smith

    `(expression, lvalue) = rvalue` é uma atribuição válida em C ou C++? Por que alguns compiladores aceitam/rejeitam isso?

    • 3 respostas
  • Marko Smith

    Quando devo usar um std::inplace_vector em vez de um std::vector?

    • 3 respostas
  • Marko Smith

    Um programa vazio que não faz nada em C++ precisa de um heap de 204 KB, mas não em C

    • 1 respostas
  • Marko Smith

    PowerBI atualmente quebrado com BigQuery: problema de driver Simba com atualização do Windows

    • 2 respostas
  • Marko Smith

    AdMob: MobileAds.initialize() - "java.lang.Integer não pode ser convertido em java.lang.String" para alguns dispositivos

    • 1 respostas
  • Marko Smith

    Estou tentando fazer o jogo pacman usando apenas o módulo Turtle Random e Math

    • 1 respostas
  • Martin Hope
    Aleksandr Dubinsky Por que a correspondência de padrões com o switch no InetAddress falha com 'não cobre todos os valores de entrada possíveis'? 2024-12-23 06:56:21 +0800 CST
  • Martin Hope
    Phillip Borge Por que esse código Java simples e pequeno roda 30x mais rápido em todas as JVMs Graal, mas não em nenhuma JVM Oracle? 2024-12-12 20:46:46 +0800 CST
  • Martin Hope
    Oodini Qual é o propósito de `enum class` com um tipo subjacente especificado, mas sem enumeradores? 2024-12-12 06:27:11 +0800 CST
  • Martin Hope
    sleeptightAnsiC `(expression, lvalue) = rvalue` é uma atribuição válida em C ou C++? Por que alguns compiladores aceitam/rejeitam isso? 2024-11-09 07:18:53 +0800 CST
  • Martin Hope
    The Mad Gamer Quando devo usar um std::inplace_vector em vez de um std::vector? 2024-10-29 23:01:00 +0800 CST
  • Martin Hope
    Chad Feller O ponto e vírgula agora é opcional em condicionais bash com [[ .. ]] na versão 5.2? 2024-10-21 05:50:33 +0800 CST
  • Martin Hope
    Wrench Por que um traço duplo (--) faz com que esta cláusula MariaDB seja avaliada como verdadeira? 2024-05-05 13:37:20 +0800 CST
  • Martin Hope
    Waket Zheng Por que `dict(id=1, **{'id': 2})` às vezes gera `KeyError: 'id'` em vez de um TypeError? 2024-05-04 14:19:19 +0800 CST
  • Martin Hope
    user924 AdMob: MobileAds.initialize() - "java.lang.Integer não pode ser convertido em java.lang.String" para alguns dispositivos 2024-03-20 03:12:31 +0800 CST
  • Martin Hope
    MarkB Por que o GCC gera código que executa condicionalmente uma implementação SIMD? 2024-02-17 06:17:14 +0800 CST

Hot tag

python javascript c++ c# java typescript sql reactjs html

Explore

  • Início
  • Perguntas
    • Recentes
    • Highest score
  • tag
  • help

Footer

AskOverflow.Dev

About Us

  • About Us
  • Contact Us

Legal Stuff

  • Privacy Policy

Language

  • Pt
  • Server
  • Unix

© 2023 AskOverflow.DEV All Rights Reserve