- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我在一台新机器上安装了 python 3.8、pytorch 1.7 和 fairseq 0.10.1,然后从一台运行 python 3.6、pytorch 1.4 和 fairseq 0.9.0 的机器上复制脚本和模型,它正在运行.
模型加载和准备:
model = TransformerModel.from_pretrained(...)
model.eval()
model.cuda()
然后用于:
inputs = [model.binarize(encode(src, str)) for str in texts]
batched_hypos = model.generate(inputs, beam)
inputs
看起来像[张量([ 116, 1864, 181, 6, 2]), 张量([ 5, 432, 7, 2])]
它断言,调用堆栈的最后一位是:
...
batched_hypos = model.generate(inputs, beam)
File "/path/to/fairseq/hub_utils.py", line 125, in generate
sample = self._build_sample(tokens)
File "/path/to/fairseq/hub_utils.py", line 196, in _build_sample
assert torch.is_tensor(src_tokens)
如果我改为从命令行使用 fairseq-interactive
,它会失败并显示 RuntimeError: result type Float can't be cast to the desired output type Long
。 (下面是完整的堆栈跟踪。)
由于使用 cli 也失败了,我的直觉是我用 fairseq 0.9.x 构建的模型不能与 fairseq 0.10.x 一起使用。如果是这样,有没有办法更新模型(即无需重新训练)。如果不是,可能是什么问题,我该如何解决?
顺便说一句,如果我将 --cpu
添加到命令行参数,就会出现完全相同的错误,因此可以排除 GPU 或 cuda 版本作为可能的原因。
$ fairseq-interactive path/to/dicts --path models/big.pt --source-lang ja --target-lang en --remove-bpe sentencepiece
File "/path/to/bin/fairseq-interactive", line 11, in <module>
sys.exit(cli_main())
File "/path/to/lib/python3.8/site-packages/fairseq_cli/interactive.py", line 190, in cli_main
main(args)
File "/path/to/lib/python3.8/site-packages/fairseq_cli/interactive.py", line 149, in main
translations = task.inference_step(generator, models, sample)
File "/path/to/lib/python3.8/site-packages/fairseq/tasks/fairseq_task.py", line 265, in inference_step
return generator.generate(models, sample, prefix_tokens=prefix_tokens)
File "/path/to/lib/python3.8/site-packages/torch/autograd/grad_mode.py", line 26, in decorate_context
return func(*args, **kwargs)
File "/path/to/lib/python3.8/site-packages/fairseq/sequence_generator.py", line 113, in generate
return self._generate(model, sample, **kwargs)
File "/path/to/lib/python3.8/site-packages/torch/autograd/grad_mode.py", line 26, in decorate_context
return func(*args, **kwargs)
File "/path/to/lib/python3.8/site-packages/fairseq/sequence_generator.py", line 376, in _generate
cand_scores, cand_indices, cand_beams = self.search.step(
File "/path/to/lib/python3.8/site-packages/fairseq/search.py", line 81, in step
torch.div(self.indices_buf, vocab_size, out=self.beams_buf)
RuntimeError: result type Float can't be cast to the desired output type Long
最佳答案
(更新:下面的说明在没有 GPU 支持的情况下安装 pytorch。回到使用 pytorch channel 获得 GPU 支持,但 fairseq 再次中断。我还没有破解密码让所有东西一起工作。)
通过删除 conda 并重新启动解决了这个问题;我决定自己回答,而不是删除问题,因为这些错误消息被证明是无用的(礼貌地说),所以也许它会在其他人用谷歌搜索时帮助他们。
首先:我实际上安装了 fairseq 0.9.0。尽管 0.10.1 在 conda-forge 上排在第一位。这显然意味着我的直觉是错误的,并且有更隐蔽的东西在起作用。然后我无法卸载或升级工作。因此我决定彻底删除 anaconda 并重新开始。
其次,我注意到 conda 文档中的一些深层内容说要一次性安装所有内容,以避免冲突。不是我对包管理器应该如何工作的定义,但无论如何。
第三,我创建了一个“测试”conda 环境,而不是使用默认的“基本”环境。我怀疑这与让它正常工作无关,但我提到它是为了以防万一。
所以,我成功的安装命令是:
conda install -c conda-forge pytorch cudatoolkit=11.0 nvidia-apex fairseq==0.10.1 sentencepiece
这给了我 python 3.7.9(不是操作系统安装的 3.8.5)、pytorch 1.7.1、fairseq 0.10.1 和 sentencepiece 0.1.92。
关于pytorch - Fairseq 转换模型不起作用(Float 不能转换为 long),我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/65543178/
我找到了long int long和 int long long可以编译为变量类型。 long int long有什么区别吗, int long long , long long和 long long
我无法找出为什么“加密”函数仍然将“消息”读取为字符串,尽管我已经使用不同的方法将数据类型更改为字节。 错误消息是“Prince 类型中的方法 Encrypt(long, long, long, lo
这个问题在这里已经有了答案: Is "long long" = "long long int" = "long int long" = "int long long"? (4 个答案) 关闭 6 年
我正在从 Java 过渡到 C++,并且对 long 数据类型有一些疑问。在 Java 中,要保存大于 232 的整数,您只需编写 long x;。但是,在 C++ 中,long 似乎既是数据类型又是
clang-tidy 12.0.1 报告了一个相当奇怪的警告。在以下代码中: #include int main() { std::vector v1; const auto a =
我创建了一个 pair 和 long long int 的映射 - map,long long int >; 和一个交互器 - map, long long int >::iterator it1;
我想知道 unsigned long long 和 unsigned long long int 的主要区别。它们可以互换使用吗? 对于像 9223372036854775807 这样的大十进制数的计
我看到的大多数代码都使用缩写类型来声明变量,例如 long long x; // long long int x short y; // short int y 我浏览了 C++11 标准(第 3.9
common_type::type是 unsigned long因为关于积分提升后的操作数,标准说... [...] if the operand that has unsigned integer
long long int A = 3289168178315264; long long int B = 1470960727228416; double D = sqrt(5); long lon
这些新数据类型的目的是什么?我通常只使用“int”或“long”,但为什么会存在这些呢?它们带来了什么新功能或用途? 最佳答案 long int一直是long的全称,只是很少用而已。 long lon
我正在运行以下for循环 for(unsigned long long int i = N-1; i >= 0; i--){ cin>>L[i]; } 当程序到达这个代码段时,它停止响应。但是
最近问了一个关于递归导致这个问题的问题 注意-> count() 函数返回键 K 在 map 容器中出现的次数。如果键存在于容器中,则返回 1,因为映射仅包含唯一键。如果 map 容器中不存在键,则返
好的,所以我正在尝试实现客户端 - 服务器程序(套接字编程)。 我的客户发送一个嵌入字符串中的 long long int,如下所示: char copy[10]; sprintf(send_data
如果我有任务 Long c = a + b; 有没有一种简单的方法来检查 a + b 不大于/小于 Long.MAX_VALUE/Long.MIN_VALUE? 最佳答案 使用 Guava , 就这么
我需要制作一个 Comparator 来根据它的 long 类型的变量之一对我的对象列表进行排序。 public class ParticipantIndexComparator implements
假设我有这两种类型: typedef unsigned long long uint64; typedef signed long long sint64; 我有这些变量: uint64 a = ..
long long 和 long 有什么区别?而且它们都不适用于 12 位数字 (600851475143),我是不是忘记了什么? #include using namespace std; int
当结果将大于 C 中的 long long int 时,是否有可能对两个不同的 long long int 变量求和? 最佳答案 由于 OP 想要“在屏幕上打印结果”,因此将数字分成两部分:Most-
实际上我必须找到从源顶点到所有其他顶点的最短路径。为此,我获得了下面给出的代码模板。我想实现“Bellman–Ford algorithm”。 #include #include #include
我是一名优秀的程序员,十分优秀!