- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我对机器学习非常陌生,在尝试制作一个简单的 LSTM 模型时遇到了一个错误,而且我完全不知道如何调试它。我使用的是 Keras 版本 2.2.2。我的代码看起来或多或少像这样:
model = Sequential()
model.add(Embedding(400001, emb_dim, trainable=False, input_length = 56, weights = [emb_matrix]))
model.add(LSTM(128, return_sequences=False))
model.add(Dense(5, activation='softmax'))
model.summary()
model.fit(train_in, train_out, epochs = 50, batch_size = 32, shuffle=True)
我的输入最初是我打算进行情感分析的句子列表,然后我使用 50 个暗淡的 Glove 向量将句子转换为具有形状的向量(样本大小,56, 50),因为我的最大单词数每句话是 56(这个偏高吗?)。
我的模型摘要:
Layer (type) Output Shape Param #
=================================================================
embedding_5 (Embedding) (None, 56, 50) 20000050
_________________________________________________________________
lstm_6 (LSTM) (None, 128) 91648
_________________________________________________________________
dense_4 (Dense) (None, 5) 645
=================================================================
Total params: 20,092,343
Trainable params: 92,293
Non-trainable params: 20,000,050
我的输入:
print(train_in.shape, train_out.shape)
>(156060, 56) (156060, 5)
emb_matrix.shape
>(400001, 50)
print(train_in.dtype, train_out.dtype, emb_matrix.dtype)
>float32 float32 float32
最后是我的错误消息:
---------------------------------------------------------------------------
ValueError Traceback (most recent call last)
c:\users\admin\appdata\local\programs\python\python36\lib\site-packages\tensorflow\python\ops\gradients_impl.py in _MaybeCompile(scope, op, func, grad_fn)
369 try:
--> 370 xla_compile = op.get_attr("_XlaCompile")
371 xla_separate_compiled_gradients = op.get_attr(
c:\users\admin\appdata\local\programs\python\python36\lib\site-packages\tensorflow\python\framework\ops.py in get_attr(self, name)
2172 raise ValueError(
-> 2173 "No attr named '" + name + "' in " + str(self._node_def))
2174 x = self._node_def.attr[name]
ValueError: No attr named '_XlaCompile' in name: "lstm_6/while/TensorArrayWrite/TensorArrayWriteV3"
op: "TensorArrayWriteV3"
input: "lstm_6/while/TensorArrayWrite/TensorArrayWriteV3/Enter"
input: "lstm_6/while/Identity_1"
input: "lstm_6/while/mul_5"
input: "lstm_6/while/Identity_2"
attr {
key: "T"
value {
type: DT_FLOAT
}
}
attr {
key: "_class"
value {
list {
s: "loc:@lstm_6/while/mul_5"
}
}
}
During handling of the above exception, another exception occurred:
ValueError Traceback (most recent call last)
c:\users\admin\appdata\local\programs\python\python36\lib\site-packages\tensorflow\python\framework\op_def_library.py in _apply_op_helper(self, op_type_name, name, **keywords)
509 as_ref=input_arg.is_ref,
--> 510 preferred_dtype=default_dtype)
511 except TypeError as err:
c:\users\admin\appdata\local\programs\python\python36\lib\site-packages\tensorflow\python\framework\ops.py in internal_convert_to_tensor(value, dtype, name, as_ref, preferred_dtype, ctx)
1021 if ret is None:
-> 1022 ret = conversion_func(value, dtype=dtype, name=name, as_ref=as_ref)
1023
c:\users\admin\appdata\local\programs\python\python36\lib\site-packages\tensorflow\python\framework\ops.py in _TensorTensorConversionFunction(t, dtype, name, as_ref)
865 "Tensor conversion requested dtype %s for Tensor with dtype %s: %r" %
--> 866 (dtype.name, t.dtype.name, str(t)))
867 return t
ValueError: Tensor conversion requested dtype int32 for Tensor with dtype int64: 'Tensor("lstm_6/while/maximum_iterations:0", shape=(), dtype=int64)'
During handling of the above exception, another exception occurred:
TypeError Traceback (most recent call last)
<ipython-input-54-936a1189c2d5> in <module>()
----> 1 model.fit(train_in, train_out, epochs = 50, batch_size = 32, shuffle=True)
c:\users\admin\appdata\local\programs\python\python36\lib\site-packages\keras\engine\training.py in fit(self, x, y, batch_size, epochs, verbose, callbacks, validation_split, validation_data, shuffle, class_weight, sample_weight, initial_epoch, steps_per_epoch, validation_steps, **kwargs)
1006 else:
1007 ins = x + y + sample_weights
-> 1008 self._make_train_function()
1009 f = self.train_function
1010
c:\users\admin\appdata\local\programs\python\python36\lib\site-packages\keras\engine\training.py in _make_train_function(self)
496 training_updates = self.optimizer.get_updates(
497 params=self._collected_trainable_weights,
--> 498 loss=self.total_loss)
499 updates = (self.updates +
500 training_updates +
c:\users\admin\appdata\local\programs\python\python36\lib\site-packages\keras\legacy\interfaces.py in wrapper(*args, **kwargs)
89 warnings.warn('Update your `' + object_name +
90 '` call to the Keras 2 API: ' + signature, stacklevel=2)
---> 91 return func(*args, **kwargs)
92 wrapper._original_function = func
93 return wrapper
c:\users\admin\appdata\local\programs\python\python36\lib\site-packages\keras\optimizers.py in get_updates(self, loss, params)
633 @interfaces.legacy_get_updates_support
634 def get_updates(self, loss, params):
--> 635 grads = self.get_gradients(loss, params)
636 self.updates = [K.update_add(self.iterations, 1)]
637
c:\users\admin\appdata\local\programs\python\python36\lib\site-packages\keras\optimizers.py in get_gradients(self, loss, params)
87
88 def get_gradients(self, loss, params):
---> 89 grads = K.gradients(loss, params)
90 if None in grads:
91 raise ValueError('An operation has `None` for gradient. '
c:\users\admin\appdata\local\programs\python\python36\lib\site-packages\keras\backend\tensorflow_backend.py in gradients(loss, variables)
2706 A gradients tensor.
2707 """
-> 2708 return tf.gradients(loss, variables, colocate_gradients_with_ops=True)
2709
2710
c:\users\admin\appdata\local\programs\python\python36\lib\site-packages\tensorflow\python\ops\gradients_impl.py in gradients(ys, xs, grad_ys, name, colocate_gradients_with_ops, gate_gradients, aggregation_method, stop_gradients)
607 # functions.
608 in_grads = _MaybeCompile(
--> 609 grad_scope, op, func_call, lambda: grad_fn(op, *out_grads))
610 else:
611 # For function call ops, we add a 'SymbolicGradient'
c:\users\admin\appdata\local\programs\python\python36\lib\site-packages\tensorflow\python\ops\gradients_impl.py in _MaybeCompile(scope, op, func, grad_fn)
373 xla_scope = op.get_attr("_XlaScope").decode()
374 except ValueError:
--> 375 return grad_fn() # Exit early
376
377 if not xla_compile:
c:\users\admin\appdata\local\programs\python\python36\lib\site-packages\tensorflow\python\ops\gradients_impl.py in <lambda>()
607 # functions.
608 in_grads = _MaybeCompile(
--> 609 grad_scope, op, func_call, lambda: grad_fn(op, *out_grads))
610 else:
611 # For function call ops, we add a 'SymbolicGradient'
c:\users\admin\appdata\local\programs\python\python36\lib\site-packages\tensorflow\python\ops\tensor_array_grad.py in _TensorArrayWriteGrad(op, flow)
129 colocate_with_first_write_call=False)
130 .grad(source=grad_source, flow=flow))
--> 131 grad = g.read(index)
132 return [None, None, grad, flow]
133
c:\users\admin\appdata\local\programs\python\python36\lib\site-packages\tensorflow\python\ops\tensor_array_ops.py in read(self, index, name)
857 The tensor at index `index`.
858 """
--> 859 return self._implementation.read(index, name=name)
860
861 @tf_should_use.should_use_result
c:\users\admin\appdata\local\programs\python\python36\lib\site-packages\tensorflow\python\ops\tensor_array_ops.py in read(self, index, name)
257 flow_in=self._flow,
258 dtype=self._dtype,
--> 259 name=name)
260 if self._element_shape:
261 value.set_shape(self._element_shape[0].dims)
c:\users\admin\appdata\local\programs\python\python36\lib\site-packages\tensorflow\python\ops\gen_data_flow_ops.py in _tensor_array_read_v3(handle, index, flow_in, dtype, name)
4993 _, _, _op = _op_def_lib._apply_op_helper(
4994 "TensorArrayReadV3", handle=handle, index=index, flow_in=flow_in,
-> 4995 dtype=dtype, name=name)
4996 _result = _op.outputs[:]
4997 _inputs_flat = _op.inputs
c:\users\admin\appdata\local\programs\python\python36\lib\site-packages\tensorflow\python\framework\op_def_library.py in _apply_op_helper(self, op_type_name, name, **keywords)
785 op = g.create_op(op_type_name, inputs, output_types, name=scope,
786 input_types=input_types, attrs=attr_protos,
--> 787 op_def=op_def)
788 return output_structure, op_def.is_stateful, op
789
c:\users\admin\appdata\local\programs\python\python36\lib\site-packages\tensorflow\python\framework\ops.py in create_op(self, op_type, inputs, dtypes, input_types, name, attrs, op_def, compute_shapes, compute_device)
3158 input_types=input_types,
3159 original_op=self._default_original_op,
-> 3160 op_def=op_def)
3161 self._create_op_helper(ret, compute_shapes=compute_shapes,
3162 compute_device=compute_device)
c:\users\admin\appdata\local\programs\python\python36\lib\site-packages\tensorflow\python\framework\ops.py in __init__(self, node_def, g, inputs, output_types, control_inputs, input_types, original_op, op_def)
1672 control_flow_util.CheckInputFromValidContext(self, input_tensor.op)
1673 if self._control_flow_context is not None:
-> 1674 self._control_flow_context.AddOp(self)
1675 self._recompute_node_def()
1676
c:\users\admin\appdata\local\programs\python\python36\lib\site-packages\tensorflow\python\ops\control_flow_ops.py in AddOp(self, op)
2249 op_input_ctxt._AddOpInternal(op)
2250 return
-> 2251 self._AddOpInternal(op)
2252
2253 def _AddOpInternal(self, op):
c:\users\admin\appdata\local\programs\python\python36\lib\site-packages\tensorflow\python\ops\control_flow_ops.py in _AddOpInternal(self, op)
2272 for index in range(len(op.inputs)):
2273 x = op.inputs[index]
-> 2274 real_x = self.AddValue(x)
2275 if real_x != x:
2276 op._update_input(index, real_x)
c:\users\admin\appdata\local\programs\python\python36\lib\site-packages\tensorflow\python\ops\control_flow_ops.py in AddValue(self, val)
2205 forward_ctxt = forward_ctxt.GetWhileContext()
2206 if forward_ctxt == grad_ctxt.grad_state.forward_context:
-> 2207 real_val = grad_ctxt.grad_state.GetRealValue(val)
2208 self._external_values[val.name] = real_val
2209 return real_val
c:\users\admin\appdata\local\programs\python\python36\lib\site-packages\tensorflow\python\ops\control_flow_ops.py in GetRealValue(self, value)
1048 # Record the history of this value in forward_ctxt.
1049 self._grad_context.Exit()
-> 1050 history_value = cur_grad_state.AddForwardAccumulator(cur_value)
1051 self._grad_context.Enter()
1052 break
c:\users\admin\appdata\local\programs\python\python36\lib\site-packages\tensorflow\python\ops\control_flow_ops.py in AddForwardAccumulator(self, value, dead_branch)
906 max_size=maximum_iterations,
907 elem_type=value.dtype.base_dtype,
--> 908 name="f_acc")
909 # pylint: enable=protected-access
910 if curr_ctxt: curr_ctxt.Exit()
c:\users\admin\appdata\local\programs\python\python36\lib\site-packages\tensorflow\python\ops\gen_data_flow_ops.py in _stack_v2(max_size, elem_type, stack_name, name)
4014 _, _, _op = _op_def_lib._apply_op_helper(
4015 "StackV2", max_size=max_size, elem_type=elem_type,
-> 4016 stack_name=stack_name, name=name)
4017 _result = _op.outputs[:]
4018 _inputs_flat = _op.inputs
c:\users\admin\appdata\local\programs\python\python36\lib\site-packages\tensorflow\python\framework\op_def_library.py in _apply_op_helper(self, op_type_name, name, **keywords)
531 if input_arg.type != types_pb2.DT_INVALID:
532 raise TypeError("%s expected type of %s." %
--> 533 (prefix, dtypes.as_dtype(input_arg.type).name))
534 else:
535 # Update the maps with the default, if needed.
TypeError: Input 'max_size' of 'StackV2' Op has type int64 that does not match expected type of int32.
最佳答案
我最初使用的是 TF 1.5.0 版本,升级到 v1.8.0 后一切正常。问题已解决。
关于python - 简单LSTM模型: No attr named '_XlaCompile' in name error,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/51990034/
我正在处理一组标记为 160 个组的 173k 点。我想通过合并最接近的(到 9 或 10 个组)来减少组/集群的数量。我搜索过 sklearn 或类似的库,但没有成功。 我猜它只是通过 knn 聚类
我有一个扁平数字列表,这些数字逻辑上以 3 为一组,其中每个三元组是 (number, __ignored, flag[0 or 1]),例如: [7,56,1, 8,0,0, 2,0,0, 6,1,
我正在使用 pipenv 来管理我的包。我想编写一个 python 脚本来调用另一个使用不同虚拟环境(VE)的 python 脚本。 如何运行使用 VE1 的 python 脚本 1 并调用另一个 p
假设我有一个文件 script.py 位于 path = "foo/bar/script.py"。我正在寻找一种在 Python 中通过函数 execute_script() 从我的主要 Python
这听起来像是谜语或笑话,但实际上我还没有找到这个问题的答案。 问题到底是什么? 我想运行 2 个脚本。在第一个脚本中,我调用另一个脚本,但我希望它们继续并行,而不是在两个单独的线程中。主要是我不希望第
我有一个带有 python 2.5.5 的软件。我想发送一个命令,该命令将在 python 2.7.5 中启动一个脚本,然后继续执行该脚本。 我试过用 #!python2.7.5 和http://re
我在 python 命令行(使用 python 2.7)中,并尝试运行 Python 脚本。我的操作系统是 Windows 7。我已将我的目录设置为包含我所有脚本的文件夹,使用: os.chdir("
剧透:部分解决(见最后)。 以下是使用 Python 嵌入的代码示例: #include int main(int argc, char** argv) { Py_SetPythonHome
假设我有以下列表,对应于及时的股票价格: prices = [1, 3, 7, 10, 9, 8, 5, 3, 6, 8, 12, 9, 6, 10, 13, 8, 4, 11] 我想确定以下总体上最
所以我试图在选择某个单选按钮时更改此框架的背景。 我的框架位于一个类中,并且单选按钮的功能位于该类之外。 (这样我就可以在所有其他框架上调用它们。) 问题是每当我选择单选按钮时都会出现以下错误: co
我正在尝试将字符串与 python 中的正则表达式进行比较,如下所示, #!/usr/bin/env python3 import re str1 = "Expecting property name
考虑以下原型(prototype) Boost.Python 模块,该模块从单独的 C++ 头文件中引入类“D”。 /* file: a/b.cpp */ BOOST_PYTHON_MODULE(c)
如何编写一个程序来“识别函数调用的行号?” python 检查模块提供了定位行号的选项,但是, def di(): return inspect.currentframe().f_back.f_l
我已经使用 macports 安装了 Python 2.7,并且由于我的 $PATH 变量,这就是我输入 $ python 时得到的变量。然而,virtualenv 默认使用 Python 2.6,除
我只想问如何加快 python 上的 re.search 速度。 我有一个很长的字符串行,长度为 176861(即带有一些符号的字母数字字符),我使用此函数测试了该行以进行研究: def getExe
list1= [u'%app%%General%%Council%', u'%people%', u'%people%%Regional%%Council%%Mandate%', u'%ppp%%Ge
这个问题在这里已经有了答案: Is it Pythonic to use list comprehensions for just side effects? (7 个答案) 关闭 4 个月前。 告
我想用 Python 将两个列表组合成一个列表,方法如下: a = [1,1,1,2,2,2,3,3,3,3] b= ["Sun", "is", "bright", "June","and" ,"Ju
我正在运行带有最新 Boost 发行版 (1.55.0) 的 Mac OS X 10.8.4 (Darwin 12.4.0)。我正在按照说明 here构建包含在我的发行版中的教程 Boost-Pyth
学习 Python,我正在尝试制作一个没有任何第 3 方库的网络抓取工具,这样过程对我来说并没有简化,而且我知道我在做什么。我浏览了一些在线资源,但所有这些都让我对某些事情感到困惑。 html 看起来
我是一名优秀的程序员,十分优秀!