gpt4 book ai didi

php - 一篇很长的文章如何分片存入数据库方便检索和分页?

转载 作者:可可西里 更新时间:2023-10-31 22:08:34 25 4
gpt4 key购买 nike

假设这是一篇很长的文章(比如说100,000字),我需要写一个PHP文件来显示文章的第1、2或38页,通过

display.php?page=38

但是每页的字数会随着时间的推移而变化(例如,现在每页 500 字,但下个月,我们可以轻松地将其更改为每页 300 字)。长篇文章有什么好的分割方式存入数据库?

P.S. 如果我们要显示 500 个单词但包括整个段落,设计可能会更复杂。也就是说,如果我们已经显示了第 480 个单词,但该段落还剩下 100 个单词,那么即使它超过了 500 个单词的限制,仍然显示这 100 个单词。 (然后,下一页不应再次显示这 100 个单词)。

最佳答案

我会在保存时通过在 chuks 上拆分文章来做到这一点。保存脚本会使用您设计的任何规则拆分文章,并将每个 block 保存到一个表中,如下所示:

CREATE TABLE article_chunks (
article_id int not null,
chunk_no int not null,
body text
}

然后,当您加载一篇文章的页面时:

$sql = "select body from article_chunks where article_id = "
.$article_id." and chunk_no=".$page;

每当您想要更改将文章拆分为页面的逻辑时,您都可以运行一个脚本,该脚本将所有 block 拉到一起并重新拆分它们:

更新: 给出建议我认为您的应用程序读取密集型多于写入密集型,这意味着文章被读取的次数多于写入的次数

关于php - 一篇很长的文章如何分片存入数据库方便检索和分页?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/932788/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com