gpt4 book ai didi

Elasticsearch 分隔有效负载 token 过滤器

转载 作者:行者123 更新时间:2023-11-29 02:56:03 27 4
gpt4 key购买 nike

我正在尝试使用 delimited_payload_filter对于文本字段,但没有运气

这是我的要求:

PUT /myIndex
{
"settings": {
"analysis" : {
"analyzer" : {
"kuku" : {
"tokenizer" : "standard",
"filter" : ["delimited_payload_filter"]
}
}
}
},
"mappings": {
"calls" : {
"properties": {
"text": {
"type" : "text",
"analyzer" : "kuku"
}
}
}
}
}

然后我添加以下文档:

PUT /myIndex/calls/1
{
"text" : "the|1 quick|2 fox|3"
}

我希望如果执行以下查询,我会获得成功,但我没有。

GET /myIndex/calls/_search
{
"query": {
"match_phrase": {
"text": "quick fox"
}
}
}

最佳答案

将 tokenizer 更改为“标准”以外的内容,例如“空白”。 “标准”是标记文本并去除“|”在 delimited_pa​​yload 过滤器有机会处理它之前的分隔符。

关于Elasticsearch 分隔有效负载 token 过滤器,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/44680120/

27 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com