gpt4 book ai didi

elasticsearch - 将大量数据索引到 Elasticsearch

转载 作者:行者123 更新时间:2023-11-29 02:48:17 24 4
gpt4 key购买 nike

我是 elasticsearch 的新手并且拥有大量数据(mysql 表中超过 16k 大行)。我需要将这些数据推送到 elasticsearch 中,但在将其编入索引时遇到问题。有没有办法使索引数据更快?海量数据如何处理?

最佳答案

Bulk API 上展开

您将向 /_bulk 发出 POST 请求

您的负载将遵循以下格式,其中 \n 是换行符。

action_and_meta_data\n
optional_source\n
action_and_meta_data\n
optional_source\n
...

确保您的 json 打印不漂亮

可用的操作有索引创建更新删除


批量加载示例

回答您的问题,如果您只想将数据批量加载到索引中。

{ "create" : { "_index" : "test", "_type" : "type1", "_id" : "3" } }
{ "field1" : "value3" }

第一行包含操作和元数据。在这种情况下,我们调用 create。我们将插入一个 type1 类型的文档到名为 test 的索引中,并手动分配 id 为 3(而不是 elasticsearch 自动生成一个).

第二行包含映射中的所有字段,在本例中只是 field1,值为 value3

您将尽可能多地连接到您的索引中。

关于elasticsearch - 将大量数据索引到 Elasticsearch,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/10681203/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com