tensorrt - 在一个 GPU 上加载 TRT 引擎以进行两次推理的最佳方法是什么?
问题描述
我正在使用 TRT6.0.1.5 和 2080Ti GPU,想加载一个引擎文件
由于我有两个摄像头进行实时检测,以下是我尝试过的
加载引擎一次并使用相同的反序列化引擎来检测它最终会崩溃
将引擎分别加载到两个变量中,第一个摄像头运行正常,也可以正常检测到物体,但第二个摄像头什么也没检测到,但它没有崩溃。
如何正确加载一个引擎文件并在一台机器上单独运行推理?或者可能创建不同的执行上下文?
解决方案
您需要在两个单独的视频流上运行检测,对吗?如果我是你,我只会在你序列化为 TensorRT 时更改网络上的批量大小,在本例中为两个。然后在运行两个流时,您只能使用一个具有不同批量大小的网络。就像是:
tContext->execute(batch_size, inference_buff.data())
您将在哪里inference_buff
拥有两个图像流的数据。
推荐阅读
- mysql - 在不使用 out 参数的情况下将存储过程输出捕获到变量中
- node.js - 具有过去 24 小时条件的 Mongo 排序查询
- unit-testing - 如何使用 RackUnit 检查错误?
- python - 使用 SimpleElastix 手动注册
- javascript - 从包含关键字的列表中删除条目 - nodeJS
- oracle - Oracle DB 仅在数据存在时创建表
- octobercms - 在 forceDelete() 上删除模型的文件附件 - OctoberCMS
- python - 如何使用matplotlib在x轴上绘制包含日期时间对象列表的字典值的时间线图?
- sql-server - 为 SQL 中的所有可空列设置 NULL
- mysql - MySql Sum 如果条件满足 Group By