python - 如何使用 GPU 实现更快的 convolve2d
问题描述
我最近在学习 PyCuda 并计划替换相机系统的一些代码以加速图像处理。那部分最初是使用cv2.filter2D。我的目的是用 GPU 加速处理。
Time for signal.convolve2d: 1.6639747619628906
Time for cusignal.convolve2d: 0.6955723762512207
Time for cv2.filter2D: 0.18787837028503418
但是,似乎 cv2.filter2D 仍然是三个中最快的。如果输入是一长串图像,自定义 PyCuda 内核是否会超过 cv2.filter2D?
import time
import cv2
from cusignal.test.utils import array_equal
import cusignal
import cupy as cp
import numpy as np
from scipy import signal
from scipy import misc
ascent = misc.ascent()
ascent = np.array(ascent, dtype='int16')
ascentList = [ascent]*100
filterSize = 3
scharr = np.ones((filterSize, filterSize), dtype="float") * (1.0 / (filterSize*filterSize))
startTime = time.time()
for asc in ascentList:
grad = signal.convolve2d(asc, scharr, boundary='symm', mode='same')
endTime = time.time()
print("Time for signal.convolve2d: "+str(endTime - startTime))
startTime = time.time()
for asc in ascentList:
gpu_convolve2d = cp.asnumpy(cusignal.convolve2d(cp.asarray(asc), scharr, boundary='symm', mode='same'))
endTime = time.time()
print("Time for cusignal.convolve2d: "+str(endTime - startTime))
print("If signal equal to cusignal: "+ str(array_equal(grad, gpu_convolve2d)))
startTime = time.time()
for asc in ascentList:
opencvOutput = cv2.filter2D(asc, -1, scharr)
endTime = time.time()
print("Time for cv2.filter2D: "+str(endTime - startTime))
print("If cv2 equal to cusignal: "+ str(array_equal(opencvOutput, gpu_convolve2d)))
解决方案
在您对 GPU 的时序分析中,您正在计时复制
asc
到 GPU、执行convolve2d
和传回答案的时间。在事物的计划中,与 GPU 之间的传输非常缓慢。如果您想要计算只是 profile 的真实比较convolve2d
。目前
cuSignal.convolve2d
是用 Numba 编写的。我们正在将其移植到使用 CuPy Raw Kernels 的过程中,并且会有改进。我没有预计到达时间convolve2d
。看起来可能有一个 OpenCV CUDA 版本https://github.com/opencv/opencv_contrib/blob/master/modules/cudafilters/src/cuda/filter2d.cu
你试过吗
scipy.ndimage.filters.convolve
- http://blog.rtwilson.com/convolution-in-python-which-function-to-use/此外,检查 CuPy 的
convolve
- https://github.com/cupy/cupy/blob/master/cupyx/scipy/ndimage/filters.py
现在到你原来的问题。在尝试确定 GPU 是否会比 CPU 更快时,您需要确保有足够的工作让 GPU 保持忙碌。众所周知,在某些数据量较小的情况下,CPU 的执行速度会更快。