首页 > 解决方案 > 在云服务器上托管 RASA NLU 模型

问题描述

我正在使用 RASA NLU 开发语音助手,稍后将部署在 android/IOS 移动应用程序上。我目前有一个 python 程序,我在其中调用 RASA NLU 模型并使用 Interpreter 类解析传入的输入。

interpreter = Interpreter.load("training_data/models/nlu/default/current/")
interpreter.parse(input)

我得到的答案存储在一个 JSON 对象中,我在其中解析它以获取意图 + 关联实体。我稍后获取此输出并使用 AIML 解释器为其获取相应的响应。我将所有响应存储在 AIML 文件中。

我现在的问题是所有这些代码都在我的机器上本地运行。我想在服务器上加载我的 RASA NLU 模型,然后使用某种 API 从模型请求响应并将其发送到 AIML 内核(也存储在服务器上)。该模型应始终在服务器上运行,我将从移动应用程序发送请求。有什么建议么?

标签: pythonserverhostaimlrasa

解决方案


我建议您首先对您的服务器进行 Rasa X 部署,如 rasa.com 上的文档中所述。

一旦你开始工作,然后创建一个访问 Rasa Open Source 的 HTTP-API 的自定义连接器。


推荐阅读