gpt4 book ai didi

math - 自动生成文章

转载 作者:行者123 更新时间:2023-12-05 00:51:39 28 4
gpt4 key购买 nike

这道题是学习和理解某项技术是否存在。以下是场景。

我们将提供 200 个英文单词。软件可以添加额外的 40 个单词,这是 200 个单词的 20%。现在,使用这些,软件应该编写对话,有意义的对话,没有语法错误。

为此,我研究了 SpintaxArticle Spinning。但是您知道他们在做什么,利用现有文章并重写它。但这不是最好的方法(是吗?请告诉我)。那么,是否有任何技术能够做到这一点?可能是谷歌使用的语义理论?有没有经过验证的 AI 方法?

请帮忙。

最佳答案

首先,请注意:这是自然语言生成 (NLG) 研究的最前沿,最先进的研究出版物还远远不够好取代人类老师。对于以英语为第二语言 (ESL) 的学生来说,这个问题尤其复杂,因为他们倾向于先用自己的母语思考,然后再在脑海中将知识翻译成英语。如果我们忽略这个可怕的前奏,正常的处理方式如下:

NLG 由三个主要部分组成:

  1. 内容策划
  2. 句子规划
  3. 表面实现

内容规划:此阶段将高级沟通目标分解为结构化的原子目标。这些原子目标足够小,只需一步通信即可实现(例如,在单个子句中)。

句子规划:在这里,实际的 lexemes (即具有明确语义的单词或单词部分)被选择为原子交际目标的一部分。词位通过谓词-论元结构连接。句子规划阶段也决定了句子边界。 (例如,学生应该写“我去了那里,但她已经走了。”或“我去那里看她。她已经离开了。”......注意不同的句子边界和不同的词位,但两个答案都表明同义。)

表面实现:通过合并function words,在句子规划步骤中获得的半成型结构变成了适当的形式。 (限定词、助动词等)和词形变化。

在您的特定场景中,已经提供了大部分单词,因此选择词素会相对简单。需要使用合适的概率学习模型(例如 hidden Markov models)来学习连接词位的谓词-论元结构。表面实现,保证最终语法结构正确,应该是语法规则和statistical language models的组合.

在高层次上,请注意内容规划与语言无关(但很可能与文化相关),而最后两个阶段与语言相关。

最后,我想补充一点,我忽略了 40 个额外单词的选择,但它的重要性不亚于此过程的其他部分。在我看来,这些额外的单词应该根据它们与 200 个给定单词的句法关系来选择。

有关详细信息,以下两篇论文提供了一个良好的开端(包括流程架构、示例等):

  1. Natural Language Generation in Dialog Systems
  2. Stochastic Language Generation for Spoken Dialogue Systems

为了更好地理解句法关系的概念,我找到了Sahlgren's article on distributional hypothesis非常有帮助。他工作中的分布式方法也可以用来学习我之前提到的谓词-参数结构。

最后,添加一些可用的工具:看看 this ACL list of NLG systems .我没有使用过它们中的任何一个,但我听说过有关 SPUD 和 OpenCCG 的好消息。

关于math - 自动生成文章,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/20419028/

28 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com