python - 如何解码视频(内存文件/字节字符串)并在python中逐帧遍历它?
问题描述
我正在使用 python 进行一些基本的图像处理,并希望将其扩展为逐帧处理视频。
我从服务器获取视频作为 blob - .webm 编码 - 并将其作为字节字符串 ( b'\x1aE\xdf\xa3\xa3B\x86\x81\x01B\xf7\x81\x01B\xf2\x81\x04B\xf3\x81\x08B\x82\x88matroskaB\x87\x81\x04B\x85\x81\x02\x18S\x80g\x01\xff\xff\xff\xff\xff\xff\xff\x15I\xa9f\x99*\xd7\xb1\x83\x0fB@M\x80\x86ChromeWA\x86Chrome\x16T\xaek\xad\xae\xab\xd7\x81\x01s\xc5\x87\x04\xe8\xfc\x16\t^\x8c\x83\x81\x01\x86\x8fV_MPEG4/ISO/AVC\xe0\x88\xb0\x82\x02\x80\xba\x82\x01\xe0\x1fC\xb6u\x01\xff\xff\xff\xff\xff\xff ...
) 在 python 中保存。
我知道有cv.VideoCapture
,它几乎可以满足我的需要。问题是我必须先将文件写入磁盘,然后再次加载。将字符串包装起来(例如,放入 IOStream 中,并将其提供给执行解码的某个函数)似乎要干净得多。
有没有一种干净的方法可以在 python 中执行此操作,或者正在写入磁盘并再次加载它?
解决方案
根据这篇文章,您不能cv.VideoCapture
用于在内存流中进行解码。您可以通过“管道”到FFmpeg
来解码流。
解决方案有点复杂,写入磁盘要简单得多,而且可能是更清洁的解决方案。
我正在使用 FFmpeg(和 FFprobe)发布解决方案。FFmpeg 有 Python 绑定,但解决方案是使用subprocess模块
将 FFmpeg 作为外部应用程序执行。
(Python 绑定在 FFmpeg 上运行良好,但到 FFprobe 的管道却不行)。
我使用的是 Windows 10,我将and放在了执行文件夹中(您也可以设置执行路径)。
对于 Windows,请下载最新的(静态喜欢的)稳定版本。ffmpeg.exe
ffprobe.exe
我创建了一个执行以下操作的独立示例:
- 生成合成视频,并将其保存到 WebM 文件(用作测试的输入)。
- 将文件作为二进制数据读入内存(用服务器中的 blob 替换它)。
- 将二进制流通过管道传输到 FFprobe,以查找视频分辨率。
如果事先知道分辨率,您可以跳过这部分。
连接到 FFprobe 使解决方案变得比它应有的更复杂。 - 将二进制流通过管道传输到 FFmpeg进行解码,并从管道中
stdin
读取解码后的原始帧。 写入是使用 Python 线程分块完成的。 (使用and而不是命名管道的原因是为了 Windows 兼容性)。stdout
stdin
stdin
stdout
管道架构:
-------------------- Encoded --------- Decoded ------------
| Input WebM encoded | data | ffmpeg | raw frames | reshape to |
| stream (VP9 codec) | ----------> | process | ----------> | NumPy array|
-------------------- stdin PIPE --------- stdout PIPE -------------
这是代码:
import numpy as np
import cv2
import io
import subprocess as sp
import threading
import json
from functools import partial
import shlex
# Build synthetic video and read binary data into memory (for testing):
#########################################################################
width, height = 640, 480
sp.run(shlex.split('ffmpeg -y -f lavfi -i testsrc=size={}x{}:rate=1 -vcodec vp9 -crf 23 -t 50 test.webm'.format(width, height)))
with open('test.webm', 'rb') as binary_file:
in_bytes = binary_file.read()
#########################################################################
# https://stackoverflow.com/questions/5911362/pipe-large-amount-of-data-to-stdin-while-using-subprocess-popen/14026178
# https://stackoverflow.com/questions/15599639/what-is-the-perfect-counterpart-in-python-for-while-not-eof
# Write to stdin in chunks of 1024 bytes.
def writer():
for chunk in iter(partial(stream.read, 1024), b''):
process.stdin.write(chunk)
try:
process.stdin.close()
except (BrokenPipeError):
pass # For unknown reason there is a Broken Pipe Error when executing FFprobe.
# Get resolution of video frames using FFprobe
# (in case resolution is know, skip this part):
################################################################################
# Open In-memory binary streams
stream = io.BytesIO(in_bytes)
process = sp.Popen(shlex.split('ffprobe -v error -i pipe: -select_streams v -print_format json -show_streams'), stdin=sp.PIPE, stdout=sp.PIPE, bufsize=10**8)
pthread = threading.Thread(target=writer)
pthread.start()
pthread.join()
in_bytes = process.stdout.read()
process.wait()
p = json.loads(in_bytes)
width = (p['streams'][0])['width']
height = (p['streams'][0])['height']
################################################################################
# Decoding the video using FFmpeg:
################################################################################
stream.seek(0)
# FFmpeg input PIPE: WebM encoded data as stream of bytes.
# FFmpeg output PIPE: decoded video frames in BGR format.
process = sp.Popen(shlex.split('ffmpeg -i pipe: -f rawvideo -pix_fmt bgr24 -an -sn pipe:'), stdin=sp.PIPE, stdout=sp.PIPE, bufsize=10**8)
thread = threading.Thread(target=writer)
thread.start()
# Read decoded video (frame by frame), and display each frame (using cv2.imshow)
while True:
# Read raw video frame from stdout as bytes array.
in_bytes = process.stdout.read(width * height * 3)
if not in_bytes:
break # Break loop if no more bytes.
# Transform the byte read into a NumPy array
in_frame = (np.frombuffer(in_bytes, np.uint8).reshape([height, width, 3]))
# Display the frame (for testing)
cv2.imshow('in_frame', in_frame)
if cv2.waitKey(100) & 0xFF == ord('q'):
break
if not in_bytes:
# Wait for thread to end only if not exit loop by pressing 'q'
thread.join()
try:
process.wait(1)
except (sp.TimeoutExpired):
process.kill() # In case 'q' is pressed.
################################################################################
cv2.destroyAllWindows()
评论:
- 如果您收到类似"file not found: ffmpeg..."的错误,请尝试使用完整路径。
例如(在 Linux 中):'/usr/bin/ffmpeg -i pipe: -f rawvideo -pix_fmt bgr24 -an -sn pipe:'
推荐阅读
- javascript - this.title 不是数据表上的函数
- python - 如何将不平衡库与 sklearn 管道一起使用?
- css - 如何在 React 框架中基于路由动态更新背景图片
- java - CardView 上的自适应半径
- angular - ngModel 不显示值
- python - 当 key 过期时,set_response_callback 不会调用回调方法
- python - Pyspark - 更新循环内的数据框
- python - 如何在我的数据帧上迭代函数并获取存储在与原始值相同的数据帧中的值
- facebook-marketing-api - 无法使用 Facebook 图形 api 创建广告创意
- python - 如何在 r 或 python 中找到并突出显示彼此在一定范围内的值簇?