- c - 在位数组中找到第一个零
- linux - Unix 显示有关匹配两种模式之一的文件的信息
- 正则表达式替换多个文件
- linux - 隐藏来自 xtrace 的命令
我试图从文件中读取 200,000 条记录,然后使用 tokenizer
解析字符串并删除每个部分周围的引号。但是与正常读取字符串相比,运行时间非常长。仅仅读取这些记录就需要 25 秒(每条记录 0.0001 秒????)。我的编程有什么问题吗?如果没有,是否有更快的方法?
int main()
{
int counter = 0;
std::string getcontent;
std::vector<std::string> line;
std::vector< std::vector<std::string> > lines;
boost::escaped_list_separator<char> sep( '\\', '*', '"' ) ;
boost::tokenizer<> tok(getcontent);
std::ifstream openfile ("test.txt");
if(openfile.is_open())
{
while(!openfile.eof())
{
getline(openfile,getcontent);
// THIS LINE TAKES A LOT OF TIME
boost::tokenizer<> tok(getcontent);
for (boost::tokenizer<>::iterator beg=tok.begin(); beg!=tok.end(); ++beg){
line.push_back(*beg);
}
lines.push_back(line);
line.clear();
counter++;
}
openfile.close();
}
else std::cout << "No such file" << std::endl;
return 0;
}
最佳答案
至少如果我没看错的话,我想我会采取更像 C 语言的方法。我不是读一行,然后把它分解成标记,然后去掉你不想要的字符,而是一次读一个字符,然后根据我读到的字符,决定是否将它添加到当前token,结束token并将其添加到当前行,或结束该行并将其添加到行 vector :
#include <vector>
#include <string>
#include <stdio.h>
#include <time.h>
std::vector<std::vector<std::string> > read_tokens(char const *filename) {
std::vector<std::vector<std::string> > lines;
FILE *infile= fopen(filename, "r");
int ch;
std::vector<std::string> line;
std::string token;
while (EOF != (ch = getc(infile))) {
switch(ch) {
case '\n':
lines.push_back(line);
line.clear();
token.clear();
break;
case '"':
break;
case '*':
line.push_back(token);
token.clear();
break;
default:
token.push_back(ch);
}
}
return lines;
}
int main() {
clock_t start = clock();
std::vector<std::vector<std::string> > lines = read_tokens("sample_tokens.txt");
clock_t finish = clock();
printf("%f seconds\n", double(finish-start)/CLOCKS_PER_SEC);
return 0;
}
对一个文件进行快速测试,该文件包含您在评论中提供的示例的 200K 多个拷贝,它正在读取数据并(显然)用 gcc 在 ~3.5 秒或用 VC++ 在 ~4.5 秒内标记数据。如果看到任何东西变得更快(至少没有更快的硬件),我会感到有点惊讶。
顺便说一句,这与您最初所做的一样处理内存,这(至少在我看来)是非常有力的证据,表明在 vector 中管理内存可能不是主要瓶颈。
关于C++ - 为什么分词器从文件中读取行这么慢?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/12344722/
自己试试看: import pandas as pd s=pd.Series(xrange(5000000)) %timeit s.loc[[0]] # You need pandas 0.15.1
我最近开始使用 Delphi 中的 DataSnap 来生成 RESTful Web 服务。在遵循 Marco Cantu 本人和互联网上其他几个人的指导后,我成功地使整个“链条”正常工作。 但是有一
我一直在为操作系统类(class)编写以下代码,但结果有些奇怪。该代码创建x线程并同时运行它们,以便将两个平方矩阵相乘。每个线程将输入矩阵的Number_of_rows/Number_of_threa
我正在尝试确定何时使用 parallel包以加快运行某些分析所需的时间。我需要做的一件事是创建矩阵,比较具有不同行数的两个数据框中的变量。我在 StackOverflow 上问了一个关于有效方法的问题
我最近对我的代码进行了一些清理,并在此过程中更改了此内容(不完全是真实的代码): read = act readSTRef test1 term i var = do t v^!terms.
我正在计时查询和同一个查询的执行时间,分页。 foreach (var x in productSource.OrderBy(p => p.AdminDisplayName) .Wher
我正在开发一个项目 (WPF),我有一个 Datagrid 从数据库加载超过 5000 条记录,所以我使用 BackgroundWorker 来通知用户数据正在加载,但它太慢了,我需要等待将近 2分钟
我在查询中添加 ORDER BY 时遇到问题。没有 ORDER BY 查询大约需要 26ms,一旦我添加 ORDER BY,它大约需要 20s。 我尝试了几种不同的方法,但似乎可以减少时间。 尝试 F
我是 Android 开发新手,遇到了性能问题。当我的 GridView 有太多项目时,它会变得有点慢。有什么方法可以让它运行得更快一些吗? 这是我使用的代码: 适配器: public class C
这里的要点是: 1.设置query_cache_type = 0;重置查询缓存; 2.在 heidisql(或任何其他客户端 UI)中运行任何查询 --> 执行,例如 45 毫秒 3.使用以下代码运行
想象下表: CREATE TABLE drops( id BIGSERIAL PRIMARY KEY, loc VARCHAR(5) NOT NULL, tag INT NOT
我的表 test_table 中的示例数据: date symbol value created_time 2010-01-09 symbol1
首先,如果已经有人问过这个问题,我深表歉意,至少我找不到任何东西。 无论如何,我将每 5 分钟运行一次 cron 任务。该脚本加载 79 个外部页面,而每个页面包含大约 200 个我需要在数据库中检查
我有下面的 SQL 代码,它来自 MySQL 数据库。现在它给了我期望的结果,但是查询很慢,我想我应该在进一步之前加快这个查询的速度。 表agentstatusinformation有: PKEY(主
我需要获取一个对象在 Core Data 中数千个其他对象之间的排名。现在,这是我的代码: - (void)rankMethod { //Fetch all objects NSFet
我正在编写一个应用程序,我需要在其中读取用户的地址簿并显示他所有联系人的列表。我正在测试的 iPhone 有大约 100 个联系人,加载联系人确实需要很多时间。 ABAddressBookRef ad
我正在使用 javascript 将 160 行添加到包含 10 列的表格中。如果我这样做: var cellText = document.createTextNode(value); cell.a
我是 Swift 的新手,我已经设置了一个 tableView,它从 JSON 提要中提取数据并将其加载到表中。 表格加载正常,但是当表格中有超过 10 个单元格时,它会变得缓慢且有些滞后,特别是它到
我在 InitializeCulture 和 Page_PreInit 事件之间的 asp.net 页面中遇到性能问题。当我重写 DeterminePostBackMode() 时,我发现问题出在 b
我在 Hetzner 上有一个带有 256GB RAM 6 个 CPU(12 个线程) 的专用服务器,它位于德国。我有 CENTOS 7.5。 EA4。 我的问题是 SSL。每天大约 2 小时,我们在
我是一名优秀的程序员,十分优秀!