首页 > 解决方案 > 如何仅在 CPU 上运行 tflite

问题描述

我有一个在珊瑚 USB 中运行的 tflite 模型,但我也可以在 CPU 中运行(作为在珊瑚 USB 不可用时通过一些测试的替代方法)。

我发现了这个非常相似的问题,但给出的答案没有用。

我的代码如下所示:

class CoralObjectDetector(object):

    def __init__(self, model_path: str, label_path: str):
        """
        CoralObjectDetector, this object allows to pre-process images and perform object detection.
        :param model_path: path to the .tflite file with the model
        :param label_path: path to the file with labels
        """

        self.label_path = label_path
        self.model_path = model_path

        self.labels = dict()  # type: Dict[int, str]

        self.load_labels()

        self.interpreter = tflite.Interpreter(model_path),
                                          experimental_delegates=[tflite.load_delegate('libedgetpu.so.1')])

        # more code and operations

模型和标签从这里下载。

我想加载相同模型的替代版本,让我在没有珊瑚 USB 加速器的情况下执行(即仅在 CPU 中)。我的目标如下:

class CoralObjectDetector(object):

    def __init__(self, model_path: str, label_path: str, run_in_coral: bool):
        """
        CoralObjectDetector, this object allows to pre-process images and perform object detection.
        :param model_path: path to the .tflite file with the model
        :param label_path: path to the file with labels
        :param run_in_coral: whether or not to run it on coral (use CPU otherwise)
        """

        self.label_path = label_path
        self.model_path = model_path

        self.labels = dict()  # type: Dict[int, str]

        self.load_labels()

        if run_in_coral:

            self.interpreter = tflite.Interpreter(model_path),
                                              experimental_delegates=[tflite.load_delegate('libedgetpu.so.1')])

        else:
            # I expect somethig like this
            self.interpreter = tflite.CPUInterpreter(model_path)
        # more code and operations

我不确定在推理/预测方法中是否只需要这个或其他东西。

标签: pythongoogle-coral

解决方案


当您编译一个 Coral 模型时,它会将它可以执行的所有操作映射到单个 TPU 自定义 OP - 例如: 珊瑚模型.

这意味着该模型仅适用于 TPU。话虽如此,您的 TFLite 解释器也可以运行 CPU 模型(我们所做的只是添加实验委托来处理该 edgetpu-custom-op)。要运行 CPU 版本,只需传递模型的 CPU 版本(在编译之前)。

对于您的对象检测,如果您使用我们在test_data中提供的模型之一,您会看到我们提供了 CPU 和 TPU 版本(例如,对于 MNv1 SSD,我们有CPUTPU版本)。如果您将这些插入到我们的任何代码中,您会看到两者都有效。

在选择您使用的型号时,我只需检查是否连接了 Coral TPU。


推荐阅读