gpt4 book ai didi

python - Elasticsearch 无法将来自 pymongo 的日期时间字段解析为对象

转载 作者:行者123 更新时间:2023-11-28 21:51:25 25 4
gpt4 key购买 nike

我正在尝试使用 pymongo 和 Python 客户端 elasticsearch 将数据从 mongoDB 流式传输到 Elasticsearch。

我设置了一个映射,我在这里报告与我感兴趣的领域相关的片段:

"updated_at": { "type": "date", "format": "dateOptionalTime" }

我的脚本使用 pymongo 从 MongoDB 中获取每个文档,并尝试将其索引到 Elasticsearch 中

from elasticsearch import Elasticsearch
from pymongo import MongoClient

mongo_client = MongoClient('localhost', 27017)
es_client = Elasticsearch(hosts=[{"host": "localhost", "port": 9200}])
db = mongo_client['my_db']
collection = db['my_collection']

for doc in collection.find():
es_client.index(
index='index_name',
doc_type='my_type',
id=str(doc['_id']),
body=json.dumps(doc, default=json_util.default)
)

我在运行时遇到的问题是:

elasticsearch.exceptions.RequestError: TransportError(400, u'MapperParsingException[failed to parse [updated_at]]; nested: ElasticsearchIllegalArgumentException[unknown property [$date]]; ')

我认为问题的根源在于 pymongo 将字段 updated_at 序列化为 datetime.datetime 对象,如果我在 for 循环中打印文档,我可以看到:

u'updated_at': datetime.datetime(2014, 8, 31, 17, 18, 13, 17000)

这与 Elasticsearch 查找映射中指定的 date 类型的对象相冲突。

有什么解决办法吗?

最佳答案

您走在正确的道路上,您的 Python datetime 需要序列化为 ISO 8601-compliant日期字符串。因此,您需要在 json.dumps() 调用中添加一个 CustomEncoder。首先,将您的 CustomEncoder 声明为 JSONEncoder 的子类,它将处理 datetimetime 属性的转换,但是将其余部分委托(delegate)给它的父类(super class):

class CustomEncoder(json.JSONEncoder):
def default(self, obj):
if isinstance(obj, datetime):
return obj.strftime('%Y-%m-%dT%H:%M:%S%z')
if isinstance(obj, time):
return obj.strftime('%H:%M:%S')
if hasattr(obj, 'to_json'):
return obj.to_json()
return super(CustomEncoder, self).default(obj)

然后您可以在您的 json.dumps 调用中使用它,如下所示:

...
body=json.dumps(doc, default=json_util.default, cls=CustomEncoder)
...

关于python - Elasticsearch 无法将来自 pymongo 的日期时间字段解析为对象,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/30279852/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com