- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我正在尝试将以下数据索引到elasticsearch中,
{
"_id": "5619578c1983757a72efef15",
"aseg": {},
"cs": {
"source": "None",
"ss": "In Transit",
"sr": "Weight Captured",
"act": "+B",
"pid": "BAG21678106",
"st": "UD",
"dest": "Bharatpur_DC (Rajasthan)",
"u": "J",
"sl": "Jaipur_Hub (Rajasthan)",
"ud": "2015-10-12T14:59:44.270000",
"sd": "2015-10-12T14:59:44.270000"
},
"nsl": [
{
"dt": [
2015,
10,
10
],
"code": "X-PPONM"
},
{
"dt": [
2015,
10,
11
],
"code": "X-UCI"
},
]
}
MapperParsingException[failed to parse [cs.nsl]]; nested: ElasticsearchIllegalArgumentException[unknown property [dt]];
"cs": {
"properties": {
"act": {
"type": "string"
},
"add": {
"type": "string"
},
"asr": {
"type": "string"
},
"bucket": {
"type": "string"
},
"dest": {
"type": "string",
"index": "not_analyzed"
},
"dwbn": {
"type": "string"
},
"lcld": {
"type": "string"
},
"lat": {
"type": "string"
},
"lon": {
"type": "string"
},
"loc": {
"type": "double"
},
"nsl": {
"type": "string",
"index": "not_analyzed"
},
"ntd": {
"type": "date",
"format": "dateOptionalTime"
},
"pbs": {
"type": "string"
},
"pid": {
"type": "string"
},
"pupid": {
"type": "string"
},
"sd": {
"type": "date",
"format": "dateOptionalTime"
},
"sl": {
"type": "string",
"index": "not_analyzed"
},
"source": {
"properties": {
"source": {
"type": "string"
},
"source_id": {
"type": "string"
},
"source_type": {
"type": "string"
}
}
},
"sr": {
"type": "string"
},
"ss": {
"type": "string",
"index": "not_analyzed"
},
"st": {
"type": "string"
},
"u": {
"type": "string",
"index": "not_analyzed"
},
"ud": {
"type": "date",
"format": "dateOptionalTime"
},
"vh": {
"type": "string"
}
}
},
"nsl": {
"properties" : {
"code" : {
"type" : "string",
"index": "not_analyzed"
},
"dt" : {
"type" : "string",
"index": "not_analyzed"
}
}
},
最佳答案
在您的映射中,nsl如下所示-
"nsl": {
"type": "string",
"index": "not_analyzed"
},
关于elasticsearch - Elasticsearch MapperParsingException,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/33082199/
尝试上传大型json文件时,我收到了MapperParsingException。这是我从elasticsearch得到的完整错误: on [[sample][4]] MapperParsingExc
我正在尝试将以下数据索引到elasticsearch中, { "_id": "5619578c1983757a72efef15", "aseg": {}, "cs": { "source":
我关注了一篇关于 ElasticSearch 的文章,并尝试将这个示例放在我的引擎上。 例子: curl -XPUT 'elasticsearch:9200/twitter/tweet/1' -d '
我正在尝试使用C#中的BulkDescriptor将文档批量索引到ES中。我正在使用V1.7 ES。以下是我的代码, public IBulkResponse IndexBulk(string in
我正在将Elasticsearch 1.2.2与PHP包装器Elastica一起使用 在索引某些文档时,我遇到以下异常 PHP Fatal error: Uncaught exception 'El
我正在开发一个ES插件,其中包含一个新的分析器和一个新的过滤器。 我的elasticsearch.yml文件如下: index: analysis: analyzer:
我想使用 Java 中的 Apache HttpClient 添加一个条目到 Elasticsearch。 HttpClient httpclient = HttpClients.createDefa
我正在尝试将 MYSQL 集成到 Windows 7 上的 ElasticSearch 中 link 我已经完成了以下步骤: 1: Download & Unzip in C Directory ht
我在Elasticsearch群集上有一个索引,并且我想支持语音匹配。 这是我的要求: curl -XPUT "http://localhost:9200/propertywebsites/_mapp
我使用的是 Elasticsearch 版本 1.2.0,Jdbc river 版本 1.2.0.1。 以下是我的Jdbc river命令。 curl -XPUT 'localhost:9200/_r
我使用了 elasticsearch 教程中的命令, curl -XPUT "http://localhost:9200/movies/movie/1" -d" { "title": "The God
如何将 Django 模型的 Postgres JsonField 映射到 ElasticSearch 索引?是否有任何解决方法可以使其正常工作? 引用:https://github.com/sabr
用户案例:我想按照用户类型搜索模式使用SpringBoot和ElasticSearch开发微服务。换句话说,如果我输入“d”,我想回信Demetrio,Denis和Daniel。输入第二个字母“e”会
我已经建立了一个基本的ELK堆栈,用于处理和显示apache日志。它在过去1个月内一直在工作,但是从最近两天开始突然出现, flex 搜索引发了以下错误。 MapperParsingException
我使用以下设置在 Elasticsearch 中创建了一个索引: { "my_index" : { "aliases" : { }, "mappings" : { }, "
我正在使用 java 1.7.0_95、Django 1.8.4、Python 3.4.0、Django Rest Framework 3.1 .3、ElasticSearch 2.3.1、pyela
我尝试使用命令插入我的 JSON 文件 curl -XPOST ' http://localhost:9200/test/sec5/1 ' -d @quality.json [ { "Pr
尝试使用 node.js 的 http 模块将记录插入 ElasticSearch(不使用第 3 方模块) 设置:在端口9200(默认)上本地运行 ElasticSearch 实例(默认) Node.
我的本地 ES 1.3.4 实例和 JDBC For MySql 1.3.4.4 上有一条 River 这条河流运行良好,正在 ES 中导入数据。我面临的问题是我的字段之一是文本字段并且其中有空格
在 ElasicSearch 中,我创建了一个索引“测试”和如下所示的映射 { "index": { "_index": "test", "_type": "test" },
我是一名优秀的程序员,十分优秀!