- android - 多次调用 OnPrimaryClipChangedListener
- android - 无法更新 RecyclerView 中的 TextView 字段
- android.database.CursorIndexOutOfBoundsException : Index 0 requested, 光标大小为 0
- android - 使用 AppCompat 时,我们是否需要明确指定其 UI 组件(Spinner、EditText)颜色
我正在尝试逐行读取纯文本文件,构建 SQL INSERT 语句,执行查询,然后继续。目前,我有一个解决方案可以在我大约 4 年的旧桌面上每秒完成大约 200 行。但是,我有大约 1.2 亿行代码要处理,并且希望将其作为日常任务来实现。花几个小时完成它会很好,但花将近一周的时间是不行的。
这些行将包含一个字符串和 5 到 9 个整数,范围从 bool 值(我已将其编码为 TINYINT(1))到自午夜以来的微秒数 (BIGINT)。
一旦从文件中读入(通过 getline()),这些行就被这个函数标记化了:
#define MAX_TOKENS 10
#define MAX_TOKEN_LENGTH 32
char tokens[MAX_TOKENS][MAX_TOKEN_LENGTH];
//...
void split_line(const string &s)
{
char raw_string[MAX_TOKENS * MAX_TOKEN_LENGTH];
char *rest;
char *token_string;
strcpy(raw_string, s.c_str());
if(tokens[0][0] != '\0')
{
fill(tokens[0], tokens[0]+(MAX_TOKENS*MAX_TOKEN_LENGTH), '\0');
}
for(uint32_t token = 0; token < MAX_TOKENS; token++)
{
if(token == 0) token_string = strtok_r(raw_string, " ", &rest);
else token_string = strtok_r(nullptr, " ", &rest);
if(token_string == nullptr) break;
if(token >= 1)
{
//if it's not a number...
if(token_string[0] < 48 || token_string[0] > 57)
{
if(token_string[0] != 45) //negative numbers are allowed
{
clear_tokens();
break;
}
}
}
strcpy(tokens[token], token_string);
}
}
我曾尝试过该分词器的更多 STL 派生版本,但事实证明那太慢了。它在调用图中的排名仍然很高,但不如使用正确的 STL 字符串时排名高。
无论如何,下一步是构建 SQL 查询。为此,我尝试了一些事情。一种选择是字符串流。
string insert_query = "INSERT INTO data_20170222";
stringstream values;
string query;
while(getline(input_stream, input_stream_line))
{
split_line(input_stream_line);
if(tokens[5][0] != '\0') //the smallest line will have six tokens
{
try
{
query = insert_query;
uint32_t item_type = stoi(tokens[2]);
switch(item_type)
{
case 0: //one type of item
case 1: //another type of item
{
values << " (valueA, valueB, valueC, valueD, valueE, valueF,"
" valueG, valueH) values('"
<< tokens[0] << "', " << tokens[1] << ", "
<< tokens[2] << ", " << tokens[3] << ", "
<< tokens[4] << ", " << tokens[5] << ", "
<< tokens[6] << ", " << tokens[7] << ")";
break;
}
//...
}
query.append(values.str());
values.str(string());
values.clear();
if(mysql_query(conn, query.c_str()))
{
string error(mysql_error(conn));
mysql_close(conn);
throw runtime_error(error);
}
}
catch(exception &ex)
{
cerr << "Error parsing line\n '" << input_stream_line
<< "'\n" << " " << ex.what() << endl;
throw;
}
}
当我运行这个版本时,我看到 30% 的 callgrind 样本是在 std::operator<< 在 std::basic_ostream 中测量的。
我最初尝试用字符串来做这一切,唉:
string values;
values = " (valueA, valueB, valueC, valueD, valueE, valueF,"
" valueG, valueH) values('" +
string(tokens[0]) + "', " + tokens[1] + ", "
tokens[2] + ", " + tokens[3] + ", "
tokens[4] + ", " + tokens[5] + ", "
tokens[6] + ", " + tokens[7] + ")";
事实证明这实际上是相同的速度,但这次将 30% 的样本从 std::basic_string 分配给 std::operator+。
最后,我直接切换到 sprintf()。
char values[MAX_TOKENS * MAX_TOKEN_LENGTH];
sprintf(values, " (valueA, valueB, valueC, valueD, valueE, valueF,"
" valueG, valueH) values('%s', %s, %s, %s, %s, %s, %s, %s)",
tokens[0], tokens[1], tokens[2], tokens[3],
tokens[4], tokens[5], tokens[6], tokens[7]);
stringstream 比 string 稍快(尽管在合理的误差范围内)。 sprintf() 比两者都快大约 10%,但仍然不够快。
当然有一个完善的方法可以用如此大的数据集完成这项任务。在这一点上,我将不胜感激。
哇哦。我一时兴起注释掉了对 mysql_query() 的调用。事实证明,不管 valgrind 怎么说,这就是我所有减速的地方。没有那个 block ,它从每秒 200 行跳到每秒 120 万行。这还差不多!太糟糕了,我需要数据库中的数据...
我想这已经成为一个问题,为什么现在 MariaDB 似乎运行得如此缓慢。我在这个系统中有一个很好的 SSD,16GB RAM 等。我觉得我的硬件不太可能阻止它。
越想越好奇。在此先感谢您的帮助!
最佳答案
批处理 INSERTing
每个 INSERT
语句 100 行将以 10 倍的速度运行。
您需要每天插入 1.2 亿行吗?那是每秒 1400 个。您是否计算过多久磁盘空间会用完?
让我们看看SHOW CREATE TABLE
。当 INT
(4 字节)就足够时,不要使用 BIGINT
(8 字节)。当 MEDIUMINT
(3 个字节)可以时,不要使用 INT
。等等
您将如何处理无数行数据?请记住,针对索引不当的表执行格式不正确的 SELECT
将花费很长时间,即使使用 SSD 也是如此。
one字符串可以归一化吗?
考虑将一堆 bool 值打包成 SET
(每 8 个 bool 值 1 个字节)或某个大小的 int。
让我们看看SHOW CREATE TABLE
和主要的SELECTs
。
innodb_flush_log_at_trx_commit
的值是多少?使用 2.
关于c++ - 使用 C++ 的 SQL - 瓶颈在哪里?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/42477075/
我有一个具有以下结构的表: ID, SourceID, EventId, Starttime, Stoptime 所有 ID 列都是 char(36),时间是日期。 问题是查询表真的很慢。我有 7 百
我们的应用程序服务器架构经过设置,以便每个服务调用都经过自定义构建的 WCF 服务路由器 - 这是一个使用请求消息 header 中嵌入的信息将传入请求分发到适当服务的服务。 我们在使用此 WCF 服
在分析一个计算数千个元素的层次聚类的 Java 应用程序时,我意识到 ArrayList.get占用执行集群化部分所需 CPU 的一半左右。 该算法搜索两个更相似的元素(因此它是 O(n*(n+1)/
我正在处理大数组(~6x40 百万),我的代码显示出很大的瓶颈。我在 MatLab 编程经验丰富,但对内部过程(如内存等......)知之甚少。 我的代码如下(只是要点,当然所有变量都初始化了,特别是
我正在尝试创建一个独立的类来维护与服务器的 Tcp 连接。 我正在使用以下类变量: TcpClient tcpClient; NetworkStream networkStream; BinaryRe
快速多线程问题... 我在内存中有一个包含大约 20,000 个项目的字典对象。如果我有多个线程尝试读取此对象,您会认为这会造成瓶颈吗? 净 3.5 。字典对象将是只读的 字典是只读的,所以我不关心读
我们有 2 台服务器: 文件 API 核心 API 不同服务器上的文件 API 和不同的核心 API。我们希望通过相同的域和端口进行访问,我们使用 nodeJS 作为后端平台。 所以我们想出了一个代理
我想并行下载/上传文件到 Azure。默认情况下,由于日志文件上的锁定,AzCopy 不允许在同一副本上多次运行。我通过将每个实例指向不同的日志文件(使用/Z )在同一台计算机上运行多个 Azcopy
因此,我将获取 10000 个 2 页 pdf 文件,并使用 iTextSharp 将它们合并为一个。 这是我正在做的一些松散代码: Document document = new Document(
我目前有一个多线程程序,可以抓取网站并将其文本写入文件。 CPU 方面,我可以同时运行大量线程,但 I/O 很快就会成为瓶颈。我想我可以让每个线程写入数组阻塞队列,但我知道我将生成超过可用 32GB
我在使用 PLINQ 时遇到了一些我似乎无法解释的奇怪结果。我一直在尝试并行化 Alpha Beta 树搜索以加快搜索过程,但它实际上减慢了搜索速度。我希望当我提高并行度时,我会每秒线性增加节点...
在对给定数组中的前 n = 1000 个元素进行排序时,为什么 bottleneck.argpartsort 具有最佳性能是否有原因(考虑到我没有搞砸某些事情)? 我创建了以下脚本: d = nump
我有一个已由 OpenMP 并行化的循环,但由于任务的性质,有 4 个 critical 子句。 分析加速并找出哪些关键子句(或可能非关键(!))在循环内占用最多时间的最佳方法是什么? 我使用 Ubu
我有一个使用 UIImage 对象的应用程序。到目前为止,我一直在使用像这样初始化的图像对象: UIImage *image = [UIImage imageNamed:imageName]; 在我的
对于以下问题场景,我们应该查看哪些 mySQL 服务器变量以及哪些阈值很重要: CPU 限制 磁盘读取限制 磁盘写入绑定(bind) 对于每种情况,除了获得更好的硬件或将数据库扩展到多台服务器之外,建
在我的工作表中,我有四个不同的类别。对于每个类别,有 3~5种不同的价格。还有其他属性。结果,每个类别都重复了很多次,总共有 30,000 行。工作表的第一行包含所有列名。每个类别跨越连续的行。因此,
我是 Spark、SparkR 以及所有 HDFS 相关技术的新手。我最近安装了 Spark 1.5.0 并使用 SparkR 运行一些简单的代码: Sys.setenv(SPARK_HOME="/p
Win 7/SolrNet 0.4.0/C# winforms .net 4.0 客户端。 我正在使用 Solrnet 和一个 winforms 线程应用程序将多个位图和一些数学描述符写入 Solr
我有一个 Android 后台服务,它会不时报告位置。当我通过 wifi 在本地测试时它工作得很好,但是当在 3G 连接中测试时(有时在 Edge 上)我发现应用程序显然进入了瓶颈并且不执行 onLo
我正在使用实时数据在网页上使用 SVG 绘制一些线条。为了管理数据,我使用 Angular.js 并管理可视化,我使用 D3.js。 我设置了一个 Angular Controller 来保存数据(行
我是一名优秀的程序员,十分优秀!