- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我最近经历了Transformer来自 Google Research 的论文描述了自注意力层如何完全取代传统的基于 RNN 的序列编码层以进行机器翻译。在论文的表 1 中,作者比较了不同序列编码层的计算复杂度,并声明(稍后)当序列长度 n
时,自注意力层比 RNN 层更快。小于向量表示的维数 d
.
然而,如果我对计算的理解是正确的,自注意力层的复杂性似乎比声称的要低。让 X
成为自注意力层的输入。然后,X
将有形状 (n, d)
因为有 n
每个维度的词向量(对应于行)d
.计算自注意力的输出需要以下步骤(为了简单起见,考虑单头自注意力):
X
的行计算查询 Q
, 键 K
,和值 V
矩阵,每个矩阵都有形状 (n, d)
.这是通过后乘 X
实现的具有 3 个学习过的形状矩阵 (d, d)
,计算复杂度为 O(n d^2)
. SoftMax(Q Kt / sqrt(d)) V
,其中 softmax 是在每一行上计算的。计算Q Kt
有复杂性 O(n^2 d)
,然后将结果与 V
相乘有复杂性 O(n^2 d)
以及。 O(n^2 d + n d^2)
,这比传统的 RNN 层差。在考虑适当的中间表示维度(
dk
、
dv
)并最终乘以头数
h
后,我也获得了多头注意力的相同结果。 .
n
上是完全可并行化的。位置,但我相信表 1 并没有考虑到这一点。
最佳答案
首先,您的复杂性计算是正确的。那么,困惑的根源是什么?
当原Attention paper首次引入,不需要计算Q
, V
和 K
矩阵,因为这些值直接取自 RNN 的隐藏状态,因此注意力层的复杂性 是 O(n^2·d)
.
现在,了解什么Table 1
请记住大多数人阅读论文的方式:他们阅读标题、摘要,然后查看图表和表格。只有当结果有趣时,他们才会更彻底地阅读论文。所以,Attention is all you need
的主要思想论文是在 seq2seq 设置中用注意力机制完全替换 RNN 层,因为 RNN 训练真的很慢。如果你看 Table 1
在这种情况下,您会看到它比较了 RNN、CNN 和注意力,并突出了本文的动机:使用注意力应该比 RNN 和 CNN 更有利。它应该在3个方面具有优势:计算步数恒定,运算量恒定和 通常的 Google 设置的计算复杂度较低,其中 n ~= 100
和 d ~= 1000
.但正如任何想法一样,它击中了现实的硬墙。实际上,为了让这个伟大的想法发挥作用,他们必须添加位置编码,重新制定注意力并为其添加多个头。结果是 Transformer 架构,其计算复杂度为 O(n^2·d + n·d^2)
仍然比 RNN 快得多(就挂钟时间而言),并产生更好的结果。
所以你的问题的答案是作者在 Table 1
中提到的注意力层。是严格的注意力机制。这不是 Transformer 的复杂性。他们非常清楚他们模型的复杂性(我引用):
Separable convolutions [6], however, decrease the complexityconsiderably, to
O(k·n·d + n·d^2)
. Even withk = n
, however, thecomplexity of a separable convolution is equal to the combination of aself-attention layer and a point-wise feed-forward layer, the approachwe take in our model.
关于machine-learning - Transformer 模型中自注意力的计算复杂性,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/65703260/
我有一段这样的代码。我发现 myResults = writer.getBuffer().toString(); 对某些用例返回 EMPTY STRING,但对其他用例则不返回。 我查看了服务器,但在
如何使用 javascript 通过 id 更改元素中的 -webkit-transform 、-moz-transform 、-o-transform 和 -ms-transform css? 这段
我正在使用 javax.xml.transform.Transformer.transform() 通过 xsl 样式表将一个 xml 转换为另一个 xml。我想以编程方式设置第一级 child 的排
为了使 seaborn.pairplot() 正常工作,在 jupyter notebook 中执行了以下步骤。 /usr/local/lib/python2.7/site-packages/matp
假设这个输入 XML 编写这些代码行: StreamSource source = new StreamSource(new StringReader(/* the above XML*/));
如何在 spring 框架中配置 java.xml.transform.Transformer ?我需要转换器的实例来通过 xslt 将 xml 转换为文本。因此,配置的转换器应该了解 xslt 样式
我一直在核心数据中使用可转换属性,将图像和颜色等复杂对象转换为原始数据。我拿了this ... The idea behind transformable attributes is that you
我正在尝试打开 XML 文件,添加一些更改,然后保存到其他 XML 文件结果。我正在使用标准 javax.xml.parsers.* 和 javax.xml.transform* 类。 但在保存的文档
Transformer(变换方法)对输入源的大小有限制吗? 我正在尝试转换一个相当长的 (18M) XML,但收到一个奇怪的错误 "The element type "HR" must be term
我正在尝试解析一个非常简单的示例: 100 我使用的样式表如下: 这在 libxs
来自文档 for from_pretrained ,我知道我不必每次都下载预训练的向量,我可以使用以下语法保存它们并从磁盘加载: - a path to a `directory` contain
默认缓存目录磁盘容量不足,我需要更改默认缓存目录的配置。 最佳答案 您可以在每次加载模型时指定缓存目录 .from_pretrained通过设置参数cache_dir .您可以通过导出环境变量 TRA
有一个函数,例如: CATransform3DGetAffineTransform Returns the affine transform represented by 't'. If 't' ca
我有一个包含 WCF 设置的配置文件: “add”元素只有一个 baseAddress 属性,所以我不能使用 Match 定位器。一种方法如何像我的示例中那样转换多个元素? 最
在收到下面链接中描述的错误后,我已将实体属性的 Transfomer 设置为 NSSecureUnarchiveFromData(之前为 nil)。 CoreData crash error Xcod
当我写Document时使用 Transformer 的 transform() 方法转换为 XML,生成的 XML 文档的格式很好 - 所有元素都写在单独的行上并缩进。除了第一个元素与定义写在同一行
我不明白 StreamResult 实例会发生什么。我看到 Transformer 对象接收 source 和 streamResult: transformer.transform(sour
从下面的代码片段我应该得出结论,std::transform 比 boost::transform 更受欢迎,因为前者使用更少的初始化和析构函数可能更有效比后者? #include #include
transform() 可以将函数应用到序列的元素上,并将这个函数返回的值保存到另一个序列中,它返回的迭代器指向输出序列所保存的最后一个元素的下一个位置。 这个算法有一个版本和 for_each()
我是 react-native 的新手。在项目上将 react-native 从 0.48.3 升级到 0.62.2 后,运行“react-native run-ios”命令时出现错误:“index.
我是一名优秀的程序员,十分优秀!