首页 > 解决方案 > 在操作员级别从深度学习框架导出 ONNX 模型

问题描述

嗨,我有一些关于导出 ONNX 模型的问题。

假设我们有一个来自 PyTorch 的 LSTM 单元。

使用 torch.onnx.export 生成带有 LSTM的 ONNX 模型。

但是,我感兴趣的是它是否可以在操作员级别产生ONNX模型,即matmul,add。

有没有办法这样做?

如果没有,是否有另一种方法来制作运营商级别的 ONNX 模型?

谢谢,杰克

标签: tensorflowpytorchonnx

解决方案


当您使用该函数将模型从 PyTorch 导出到 onnx 时torch.onnx.export(),它会记录初始模型已使用的所有操作。正如这里提到的。

我们调用torch.onnx.export()函数。这将执行模型,记录用于计算输出的运算符的跟踪。

所以,是的,它确实在操作员级别生成 onnx 模型,您甚至可以使用netron.onnx可视化导出的模型图

onnx 模型

如果您仍想使用onnx运算符,这里是 ONNX 运算符模式。


推荐阅读