nlp - IBM Watson Assistant:当我在意图训练问题中使用@entity 时,watson 不会平等对待所有实体值
问题描述
假设我们正在使用聊天机器人来促进餐厅的订餐过程。
我们在 IBM watson 中有以下设置。
意图:#orderfood 带有“我可以订购@food 吗?” 作为示例问题
实体:@food:汉堡、面条、鸡肉
当我做测试时,“我可以点汉堡”和“我可以点面条”的置信度是不同的。有谁知道为什么?
解决方案
要训练像 IBM Watson Assistant 这样的对话服务,您通常需要为每个意图或实体提供多个示例。如果您只定义了几个示例并且刚刚开始,则没有训练数据。聊天机器人服务从用户输入和管理员纠正错误处理(学习)中学习。
什么信心更高?第一次测试还是第二次测试?你有没有重复第一次测试,看看信心是否增加了……?
推荐阅读
- python - 如何将此 python 行代码转换为列表理解?
- matlab - 在matlab中增加生成的文本文件中的有效数字
- c# - 如何将数据添加到 SQLite 离线数据库表并在 listView Xamarin 上显示
- python - 如何获得按 numpy 和 pandas 中的变量分组的平均值?
- python - 为什么函数应该完成后循环重复(看似随机)?
- r - 为向量中的每个元素分配百分位数?
- assembly - 如何在 68000 汇编中显示负数?
- unit-testing - 测试通过,但之后给出断言错误
- javascript - 如何将使用 ES6 代码创建的对象推送到 javascript 中的数组中
- ios - 以编程方式将系统图像添加到导航栏