gpt4 book ai didi

php - 使用 BigDump 导入 mysql 数据库(大约 80mb)时出错

转载 作者:行者123 更新时间:2023-11-29 02:06:02 27 4
gpt4 key购买 nike

所以我有这个 mysql 数据库,它非常庞大,无法通过 phpmyadmin 导入。当我用 bigdump 设置它时,我立即得到这个错误

Stopped at the line 339.

在这个地方,当前查询包括超过 300 条转储行。如果您的转储文件是由某些工具创建的,该工具没有在每个查询的末尾放置分号和换行符,或者如果您的转储包含扩展插入,则可能会发生这种情况。”

所以在没有中断的 300 行之后它崩溃了。我进去并在第 200 行粘贴了这个字符串,以确保大部分内容是正确的:

INSERT DELAYED INTO `invites_statistic` 
(`user_id`,`purchaseid`,`prodid`,`reg_length`,`invites_count`,`used`,`code`)
VALUES

我尝试在 phpmyadmin 中更改“创建查询的最大长度”的长度,但后来我收到更多错误,告诉我在某些地方我不能使用该字符串。
我在 SQL 文件周围跳来跳去,在每次它坏掉之前添加几行之前的字符串,这是有效的,但这是一个 400k 行的巨大文件。任何人都知道一个好的解决方案?我注定要失败吗?

最佳答案

我通过将 $max_query_lines 值从 300 更改为更高的数字来解决这个问题。

// How many lines may be considered to be one query (except text lines)
$max_query_lines = 10000;

关于php - 使用 BigDump 导入 mysql 数据库(大约 80mb)时出错,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/5821082/

27 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com