python - 在云服务器上托管 RASA NLU 模型
问题描述
我正在使用 RASA NLU 开发语音助手,稍后将部署在 android/IOS 移动应用程序上。我目前有一个 python 程序,我在其中调用 RASA NLU 模型并使用 Interpreter 类解析传入的输入。
interpreter = Interpreter.load("training_data/models/nlu/default/current/")
interpreter.parse(input)
我得到的答案存储在一个 JSON 对象中,我在其中解析它以获取意图 + 关联实体。我稍后获取此输出并使用 AIML 解释器为其获取相应的响应。我将所有响应存储在 AIML 文件中。
我现在的问题是所有这些代码都在我的机器上本地运行。我想在服务器上加载我的 RASA NLU 模型,然后使用某种 API 从模型请求响应并将其发送到 AIML 内核(也存储在服务器上)。该模型应始终在服务器上运行,我将从移动应用程序发送请求。有什么建议么?
解决方案
我建议您首先对您的服务器进行 Rasa X 部署,如 rasa.com 上的文档中所述。
一旦你开始工作,然后创建一个访问 Rasa Open Source 的 HTTP-API 的自定义连接器。
推荐阅读
- reactjs - 如何更新饼图上的系列
- markdown - 使用标点符号和 & 符号创建锚链接
- dependency-injection - 如何使用 Type-GraphQL、TypeORM 和依赖注入实现 Resolver-Inheritance
- python - 在不存在的行上获取 python 脚本的奇怪错误
- r - 如何使用 bind_rows() 合并数据集,同时将数据集的名称保留为变量
- php - 使用 PHP 访问 JSON 字段
- linux - 如果我映射一个没有设置访问位的内存区域,mlockall 是否仍然强制它由物理内存支持?
- amazon-web-services - 如何在 Kubernetes 部署中使用 Same EFS 挂载多个目录
- unity3d - 在 Unity 的 vfx 图中找不到现有节点
- c# - C# 使用 wuapi 安装 Windows 10 功能更新