gpt4 book ai didi

wit.ai故事训练结果不可预测?

转载 作者:行者123 更新时间:2023-12-02 06:15:07 27 4
gpt4 key购买 nike

我正在尝试开发一个天气机器人,但遇到了一些问题。

  1. 我用故事和理解标签来训练系统。机智的行为对我来说似乎是不可预测的 - 它结合了故事(我猜它应该这样做),所以看起来随机交谈。
  2. 意图值也不一致,即使使用相同的故事也是如此。我使用调试器来显示意图值。例如,我说“What's the weather”,经过训练的意图值应该是 forecast_all,但有时它会变成“what”,有时会出现其他故事中的一些其他实体,例如我为离题对话创建的“off_topic”实体。然后机器人的行为将与我的训练故事不同。

有什么见解吗?难道我做错了什么?我错过了什么?非常感谢您的帮助!

最佳答案

我感受到你的痛苦:)

你必须根据用户输入“强制”wit.ai 进入正确的故事,如果你需要用户跟随故事直到最后 - 你将不得不继续“强制”他们进入对话链。

我的意思是:

如果用户说What's the weather,您可以再引入一个名为wth 的自定义实体,并在Understanding 选项卡中使其基于关键字并添加与以下内容相关的严格关键字列表天气 词(预报...)。

这可能是您的“指导线索”。当此实体出现时 = 用户使用了与天气问题关联的关键字 = 您可以使用该实体 wth 作为您故事(“操作”选项卡)的每个操作和响应的要求。

在我的一些应用程序中 - 对于每个故事,我都想到“这个故事在做什么” - 入口点是什么,可以说并想出了一个实体,可以通过使用 Actions 引导用户沿着对话路径前进选项卡和设置 Only if...Always if... 对回复和操作的要求。

这种方法非常严格,但它可以让您对用户从您的“机器人”收到的内容进行一定程度的控制,因此您可以预测操作和回复。

我正在尝试另一种方法,您有很多故事,它们都是“不完整的”,但它们试图涵盖用户可能的不同答案。所以用户开始在一个故事中聊天,然后根据他的回答 - 另一个故事开始,然后另一个,然后另一个......

这也是一种有效、更灵活的方法,但它需要对“机器人回复”\故事进行很好的规划,以便它们以一种合乎逻辑的、对话的方式感觉联系在一起。是的,它还需要仔细的上下文管理,因为如果每个故事都会添加上下文——它可能会变成一大堆实体和值,所以你需要认为故事 A 将实体 A1 添加到上下文中,但如果稍后故事 B启动并将 B1 实体添加到上下文中,然后我需要删除 A1,因为它们存在冲突...

总而言之:您似乎想要更多控制并了解对话的去向。为此 - 尝试“操作”选项卡并设置答案和操作的要求。你可以让它变得非常直截了当。

关于wit.ai故事训练结果不可预测?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/37578500/

27 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com