gpt4 book ai didi

python - 使用 spacy Spanish Tokenizer

转载 作者:太空狗 更新时间:2023-10-30 00:59:18 30 4
gpt4 key购买 nike

我总是使用带有英语或德语的 spacy 库。

为了加载库,我使用了这段代码:

import spacy
nlp = spacy.load('en')

我想使用西类牙语标记器,但我不知道该怎么做,因为 spacy 没有西类牙语模型。这个我试过了

python -m spacy download es

然后:

nlp = spacy.load('es')

但显然没有成功。

有人知道如何以正确的方式用西类牙语标记西类牙语句子吗?

最佳答案

对于 1.6 之前的版本,这段代码可以正常工作:

from spacy.es import Spanish
nlp = Spanish()

但在 1.7.2 版本中需要做一些小改动:

from spacy.es import Spanish
nlp = Spanish(path=None)

来源:gitter 聊天中的@honnibal

关于python - 使用 spacy Spanish Tokenizer,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/42947733/

30 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com