- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我有一个非常大的文件,里面有 1700 万条记录。
这是文件的示例:
Actor Movie
1,2
2,2
3,1
4,3
2,3
我想跳过第一行并从第二行开始解析。我正在尝试创造两件事。
1.电影到 Actor 的映射
vector<uint64_t> *movie_map = new vector<uint64_t>[1200000];
2. Actor 到电影的映射
vector<uint64_t> *actor_movie_map = new vector<uint64_t>[2000000];
我故意不想要 HashMap,因为计算哈希需要一些时间。我尝试使用 Boost 库。它在大约 3 秒内读取文件(~250MB),但在创建 map 时消耗了大量时间。事实上时间比正常情况更糟getline()
读取文件的方式。到目前为止,这是我的实现。
using CsvField = boost::string_ref;
using CsvLine = std::vector<CsvField>;
using CsvFile = std::vector<CsvLine>;
namespace qi = boost::spirit::qi;
struct CsvParser : qi::grammar<char const*, CsvFile()> {
CsvParser() : CsvParser::base_type(lines)
{
using boost::phoenix::construct;
using boost::phoenix::begin;
using boost::phoenix::size;
using namespace qi;
field = raw [*~char_(",\r\n")] [ _val = construct<CsvField>(begin(_1), size(_1)) ];
line = field % ',';
lines = line % eol;
}
private:
qi::rule<char const*, CsvField()> field;
qi::rule<char const*, CsvLine()> line;
qi::rule<char const*, CsvFile()> lines;
};
int main()
{
srand(time(0));
boost::iostreams::mapped_file_source csv("playedin.csv");
CsvFile parsed;
parsed.reserve(18*1000*1000);
if (qi::parse(csv.data(), csv.data() + csv.size(), CsvParser(), parsed))
{
using boost::lexical_cast;
for(uint64_t i=1; i < parsed.size(); i++){
auto& line = parsed[i];
uint64_t sample = lexical_cast<uint64_t>(line[0]);
movie_map[lexical_cast<uint64_t>(line[1])].push_back(lexical_cast<uint64_t>(line[0]));
actor_movie_map[lexical_cast<uint64_t>(line[0])].push_back(lexical_cast<uint64_t>(line[1]));
}
}
}
由于文件很大,我不想使用正常的方式读取文件。请提出一种实现此方法的方法,以便在不到 2-3 秒的时间内完成读取和准备 1700 万条记录的整个文件。我知道期望有点高,但我相信这是可能的。我真的在寻找最有效的方法。
感谢您的帮助!
最佳答案
vector *movie_map = new vector[1200000];
✍ 永远不要使用 new
或 delete
在现代 C++ 中
I purposefully did not want a HashMap since it takes some time for computing hash.
计算哈希值到底需要多少时间?我的意思是,散列图很可能不是这里的最佳选择,但您的推理是错误的。关于可能的实现 std::hash<>
64 位整数的 是空操作(在 size_t
是 64 位的系统上)¹。
您...将所有数据读入 CsvFile
首先(这是 string_refs 的 vector 的 vector ...)只是为了然后转换为 map ?!
这太荒谬了。简单地跳过中间人,你不需要它!
请注意,spirit 是一个解析器生成器。首先解析文本,只使用 lexical_cast
在各个方面都是荒谬的关于结果。
这里有一个 c++14 演示,它使用 Boost Spirit X3 作为很好的衡量标准,减少了中间人。我选择了flat_multimap
有点随机地提出两点:
#include <boost/container/flat_map.hpp>
#include <boost/fusion/adapted/std_pair.hpp>
#include <boost/iostreams/device/mapped_file.hpp>
#include <boost/spirit/home/x3.hpp>
using Table = boost::container::flat_multimap<uint64_t, uint64_t>;
using Record = Table::value_type;
namespace Parsing {
using namespace boost::spirit::x3;
auto const ignore_header_row
= !uint_ >> *(char_ - eol) >> eol;
auto const record
= rule<struct _rl, Record> {"record"}
= uint_ >> ',' >> uint_ >> eol;
auto const file
// = rule<struct _file, Table> {"file"}
= omit [*ignore_header_row] >> *record >> eoi;
}
#include <iostream>
int main() {
boost::iostreams::mapped_file_source mfs("playedin.csv");
Table table;
table.reserve(18*1000*1000);
if (parse(mfs.begin(), mfs.end(), Parsing::file, table)) {
std::cout << "Parsed " << table.size() << " records\n";
} else {
std::cout << "Parse failed\n";
}
}
打印
Parsed 5 records
Caveat In latest boost versions there is a regression in X3 attribute handling, you will want to use the fix from this answer: https://stackoverflow.com/a/48393573/85371
基准测试可预见地表明,插入 17+ 百万未排序的行并不是最优的 using the flat-map approach :
明显的瓶颈是解析时的排序。这很容易解决:我们不需要在解析时进行排序。就sort it after parsing :
最终版本 Live On Coliru
#include <boost/container/flat_map.hpp>
#include <boost/fusion/adapted/std_pair.hpp>
#include <boost/iostreams/device/mapped_file.hpp>
#include <boost/spirit/home/qi.hpp>
using Table = boost::container::vector<std::pair<uint64_t, uint64_t> >;
using Record = Table::value_type;
namespace Parsing {
using namespace boost::spirit::qi;
using Iterator = char const*;
static const rule<Iterator> ignore_header_row
= !uint_ >> *(char_ - eol) >> eol;
static const rule<Iterator, Record()> record
= uint_ >> ',' >> uint_ >> eol;
static const rule<Iterator, Table()> file
= omit [*ignore_header_row] >> *record >> eoi;
}
Table parse_data(std::string const& fname) {
boost::iostreams::mapped_file_source mfs(fname);
Table table;
table.reserve(18*1000*1000);
if (!parse(mfs.begin(), mfs.end(), Parsing::file, table))
throw std::runtime_error("Parse failed");
sort(table.begin(), table.end());
return table;
}
template <typename It> struct iterator_range {
It b, e;
iterator_range() = default;
iterator_range(std::pair<It, It> p) : b(p.first), e(p.second) {}
It begin() const { return b; }
It end() const { return e; }
};
struct by_actor {
template <typename T, typename U>
bool operator()(T const& a, U const& b) const { return actor(a) < actor(b); }
private:
static uint64_t actor(Record const& r) { return r.first; }
static uint64_t actor(uint64_t i) { return i; }
};
#include <iostream>
int main(int argc, char** argv) {
Table const& table = parse_data("playedin.csv");
auto query = [&table](uint64_t actor) {
return iterator_range<Table::const_iterator>(equal_range(table.begin(), table.end(), actor, by_actor{}));
};
for (auto actor : std::vector<std::string>{argv+1, argv+argc}) {
std::cout << "Actor " << actor << " played in:";
for (auto movie : query(std::stoull(actor)))
std::cout << " " << movie.second;
std::cout << "\n";
}
}
¹ 同样,boost 的 boost::hash<>
遵从 boost::hash_value(unsigned long long)
据记录返回 val
when abs(val) <= std::numeric_limits<std::size_t>::max()
.
关于c++ - 如何使用 Boost 内存映射在 C++ 中解析 CSV?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/48525833/
我有两个 csv 文件 file1.csv 和 file2.csv。 file1.csv 包含 4 列。 文件1: Header1,Header2,Header3,Header4 aaaaaaa,bb
我想知道是否有任何方法可以在导入数据库之前测试 CSV 文件? 我有一个包含多列的巨大 CSV 文件,每列都有不同的数据类型和大小。如何测试生成的 CSV 文件中出现的数据是否与每列的大小一致? 还有
我正在从 SCOM 中提取服务器列表,并希望根据包含以下数据的 CSV 检查此列表: Computername,Collection Name Server01,NA - All DA Servers
我有一个包含 24 列的 csv 文件。其中我只想阅读 3 列。我看到 super CSV 是一个非常强大的库,但我不知道如何部分读取 CSV。 partial reading上的链接坏了。 请帮我举
我正在尝试将加特林日志文件导出到 CSV,因为我需要更新 google 电子表格中的所有全局值,因为我的经理需要电子表格中的值。 最佳答案 此 CSV 文件被删除并替换为 JSON 文件,名为 glo
我对 csv 是结构化数据还是半结构化数据感到困惑。 就像 RDBMS 是一个有关系的结构化数据,但 csv 没有关系。 我无法找到确切的答案。 最佳答案 我可以说,具有恒定列和行(二维)的 CSV
我正在使用 pipes-csv 库读取一个 csv 文件。我想先读第一行,然后再读其余的。不幸的是,在 Pipes.Prelude.head 函数返回之后。管道正在以某种方式关闭。有没有办法先读取 c
起初这似乎很明显,但现在我不太确定。 如果 CSV 文件具有以下行: a, 我会将其解释为具有值“a”和“”的两个字段。但是然后查看一个空行,我可以很容易地争辩说它表示一个值为“”的字段。 我接受文件
我正在尝试将列表字典写入 CSV 文件。我希望这些键是 CSV 文件的标题,以及与该键关联的列中的每个键关联的值。 如果我的字典是: {'600': [321.4, 123.5, 564.1, 764
关闭。这个问题是off-topic .它目前不接受答案。 想改进这个问题吗? Update the question所以它是on-topic用于堆栈溢出。 关闭 10 年前。 Improve thi
是否有任何官方方法允许 CSV 格式的文件允许评论,无论是在其自己的行上还是在行尾? 我尝试检查wikipedia关于此以及RFC 4180但两者都没有提到任何让我相信它不是文件格式的一部分的内容,所
我有一些 csv 格式的数据。然而它们已经是一个字符串,因为我是从 HTTP 请求中获取它们的。我想使用数据框来查看数据。但是我不知道如何解析它,因为 CSV 包只接受文件,而不接受字符串。 一种解决
我有一个 CSV 文件,其中包含一些字段的值列表。它们作为 HTML“ul”元素存储在数据库中,但我想将它们转换为对电子表格更友好的东西。 我应该使用什么作为分隔符?我可以使用转义的逗号、竖线、分号或
我使用 Google 表格(电子表格)来合并我的 Gambio 商店的不同来源的文章数据。要导入数据,我需要在 .csv 文件中使用管道符号作为分隔符/分隔符,并使用 "作为文本分隔符。在用于导出为
这是一个奇怪的请求,因为我们都知道数据库头不应该包含空格。 但是,我正在使用的系统需要在其标题中使用空格才能导入。 我创建了一个 Report Builder 报告,它将数据构建到一个表中,并在我运行
我有一个 .csv 文件,我需要将其转换为 coldfusion 查询。我使用了 cflib.org CSVtoQuery 方法,它工作正常......但是...... 如果 csv 中的“单元格”在
我想知道是否有任何方法可以生成文化中性 CSV 文件,或者至少指定文件中存在的特定列的数据格式。 例如,我生成了包含带小数点分隔符 (.) 的数字的 CSV 文件,然后 将其传递给小数点分隔符为 (,
我正在构建一个 CSV 字符串 - 因此用户单击 div 的所有内容 - 5 个字符的字符串都会传递到隐藏字段中 - 我想做的是附加每个新值并创建一个 CSV 字符串 - 完成后- 在文本框中显示 -
我正在努力从另外两个文件创建一个 CSV 文件 这是我需要的 我想要的文件(很多其他行) “AB”;“A”;“B”;“C”;“D”;“E” 我拥有的文件: 文件 1:"A";"B";"C";"D";"
我正在尝试将表导出到配置单元中的本地 csv 文件。 INSERT OVERWRITE LOCAL DIRECTORY '/home/sofia/temp.csv' ROW FORMAT DELIMI
我是一名优秀的程序员,十分优秀!