gpt4 book ai didi

mysql - 我如何创建一个高效的 MySQL 数据库来自动完成像谷歌这样的请求

转载 作者:可可西里 更新时间:2023-11-01 08:56:44 25 4
gpt4 key购买 nike

我想获得一些关于如何创建一个高效的 MySQL 数据库的想法,该数据库可以处理高流量的自动完成请求,例如 Google 的新自动 SERP 更新功能。

这样做的关键是,我正在尝试获取我的书的内容,并且我想以一种方式为文本编制索引,以便数据库以最快/最少的开销请求相关文本。

例如:
如果我输入文本:“as”,我基本上会搜索数据库(整本书)并查看书中句子的结果集:

"...that is as I was saying..."  
"as I intended..."
"This is as good as it gets"
...

但是当我输入一个“k”并且它拼写为“ask”时,结果集就变成了(即):

"Ask your father..."  
"...I will ask you to do this."
...

此外,我正在考虑添加辅助词,所以如果您正在输入“askew”,但目前只有 “ask” 拼写,数据库会抓取所有包含"ask" 的词,您会看到诸如"asking"、"askew"、"asked"、"ask" 之类的辅助词。

重要的是,这本书是一本规则书,所以每条规则都有自己独特的 key 。因此,当一个人输入一个或两个单词时,所有具有该单词组合的规则都将显示在结果集中。

我愿意做任何超出任何人选择给予的确切帮助的研究。我不知道我应该在这样一个主题中寻找什么样的关键字——所以除了特定的解决方案之外,这种类型的数据库结构的关键字也会受到赞赏和帮助。

我读过一些关于全文搜索的内容?这可能是一个解决方案,还是对我的目的来说效率不够?

我已经知道如何执行 ajax 调用和自动完成...这不是我要寻求解决方案的问题。我需要的是了解如何构建和索引数据库,以便在我编写脚本以文本格式解析我的书的内容并将标记插入数据库时​​,稍后将以最有效的方式提取它。我预计站点最终会出现高流量,因此最小化请求开销至关重要。

在初始状态下,我正在考虑类似于每个字符长度大于 1 的表...因此我会有名为“two_letters”、“three_letters”等的表。

“two_letter”数据库中的一个示例记录可以是“as”,它与书中包含“as”的每条规则都有多对多关系……因此:

"as", "125"   
"as", "2024"
"as", "4"

当然,字母集越小,数据库越大。这本书很大,所以我们在这里谈论数百万条记录!每个 2 个字母的组合及其关联的规则一个。然后,用 3 个字母的组合重新做一遍,直到没有更多的单词。这只是最初的头脑 Storm 尝试,可能是一个糟糕的想法,但这是我对此的第一个想法。

脚本运行后,数据库将创建表并插入记录。对于每个字符长度,它可能会多次阅读内容。

我希望它也能识别多词组合,就像谷歌中的关键词会在 SERP 中自动更新一样。因此,当用户键入“他们走了”时,您可能会发现:

"they are gone already..."  
"they are going to the movies later."
"how they are gonna get there is..."

我实际上是在要求 Google 提供准确的自动完成功能,但内容是一本书,而不是互联网上的索引网站。

我期待听到一些天才的声音,他们得到了我在这里的要求,并且想给一些人留下深刻印象! :)

在此先感谢大家。

最佳答案

不得不推荐Sphinx .对于存储在 mysql(或其他数据库)中的数据,这是一个了不起的搜索引擎。

关于mysql - 我如何创建一个高效的 MySQL 数据库来自动完成像谷歌这样的请求,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/3861162/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com