- android - 多次调用 OnPrimaryClipChangedListener
- android - 无法更新 RecyclerView 中的 TextView 字段
- android.database.CursorIndexOutOfBoundsException : Index 0 requested, 光标大小为 0
- android - 使用 AppCompat 时,我们是否需要明确指定其 UI 组件(Spinner、EditText)颜色
注意:我已经尝试过不同 SO 问题的解决方案,但没有成功,详细信息如下。
我正在学习cleverhans Pyhton 教程,重点关注this代码(keras 模型案例)。我有基本的 keras 知识,但我刚刚开始使用 Tensorflow(完全是新手)。
我正在尝试可视化这段代码中生成的对抗图像(引用自链接的cleverhans来源):
# Initialize the Fast Gradient Sign Method (FGSM) attack object and graph
fgsm = FastGradientMethod(wrap, sess=sess)
fgsm_params = {'eps': 0.3,
'clip_min': 0.,
'clip_max': 1.}
adv_x = fgsm.generate(x, **fgsm_params)
# Consider the attack to be constant
adv_x = tf.stop_gradient(adv_x)
preds_adv = model(adv_x)
据我了解,adv_x
应该包含生成的对抗图像,我尝试将张量转换为 ndarray
为了通过matplot
可视化它。我在 model(adv_x)
之前和之后都尝试过以下操作:
1) adv_x.eval()
2) adv_x.eval(sess)
3) sess.run(adv_x)
4) ..and minor changes
一切都没有按预期工作,我收到各种错误:
ValueError: Cannot evaluate tensor using `eval()`: No default session is registered. Use `with sess.as_default()` or pass an explicit session to `eval(session=sess)`
和
InvalidArgumentError (see above for traceback): You must feed a value for placeholder tensor 'Placeholder' with dtype float and shape [?,28,28,1]
[[Node: Placeholder = Placeholder[dtype=DT_FLOAT, shape=[?,28,28,1], _device="/job:localhost/replica:0/task:0/device:GPU:0"]()]]
和
InvalidArgumentError (see above for traceback): You must feed a value for placeholder tensor 'Placeholder' with dtype float and shape [?,28,28,1]
[[Node: Placeholder = Placeholder[dtype=DT_FLOAT, shape=[?,28,28,1], _device="/job:localhost/replica:0/task:0/device:GPU:0"]()]]
[[Node: strided_slice/_115 = _Recv[client_terminated=false, recv_device="/job:localhost/replica:0/task:0/device:CPU:0", send_device="/job:localhost/replica:0/task:0/device:GPU:0", send_device_incarnation=1, tensor_name="edge_152_strided_slice", tensor_type=DT_FLOAT, _device="/job:localhost/replica:0/task:0/device:CPU:0"]()]]
也尝试过with sess.as_default():
但没有成功。
adv_x
的类型是 <class 'tensorflow.python.framework.ops.Tensor'>
,其形状为TensorShape([Dimension(None), Dimension(28), Dimension(28), Dimension(1)])
。在调试控制台中写入 adv_x,我得到:<tf.Tensor 'StopGradient_4:0' shape=(?, 28, 28, 1) dtype=float32>
我还尝试处理张量的切片 adv_x[0]
,但没有成功。
我有点迷失,我想我错过了一些 TensorFlow 基础知识,或者我误解了教程(adv_x 是否有效地填充了数据?)。
如何转换adv_x
至ndarray
类型?如有任何提示,我们将不胜感激
问候
最佳答案
我已经找到解决办法
看来 Tensor adv_x
更像是一个函数而不是一个值,并且需要输入(我目前不掌握背后的 tensorflow 复杂推理),所以您需要通过提供 session 和字典来调用eval()
。该字典包含一个条目,即 adv_x
输入占位符的名称及其值。就我而言,我提供了 60000 个输入示例(图像)x_train
的列表。
请注意,在我的例子中,占位符名称为 x,但我认为您应该使用在 FastGradientMethod
对象构造函数中提供的占位符的变量名称。
adv_images = adv_x.eval(session=sess, feed_dict={x: x_train})
adv_images
是大小为 (60000,28,28,1) 的数组,ad1 = adv_images[1]
是灰度图像 (28,28,1) .
您可以使用 matplot 但需要稍微更改数组形状。 Matplot 灰度图像应该是 2D 数组:
matplotlib.pyplot.imshow(ad1[:,:,0])
这是我的解决方案,也许并非所有步骤都是强制性的,但是,您知道,您必须小心使用黑魔法:-)
P.s:为了避免内存不足错误,您可以截断x_train,例如x_train2 = xtrain[0:100]
关于python - 如何将 Tensor 转换为 ndarray(内部含有对抗性图像的张量),我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/52443777/
我想矢量化以下代码: def style_noise(self, y, style): n = torch.randn(y.shape) for i in range(n.shape[
对于给定的二维张量,我想检索值为 1 的所有索引。我希望能够简单地使用 torch.nonzero(a == 1).squeeze(),它将返回张量([1, 3, 2])。但是,torch.nonze
如果 x 是 dtype torch.float 的 torch.Tensor 那么操作 x.item() 和 float(x)完全一样? 最佳答案 操作x.item() 和float(x) 是不一样
我正在尝试提取 n 点 3D 坐标和 b 批处理中的特定行。本质上,我的张量 T1 的形状为 b*n*3。我有另一个形状为 b * n 的 bool 张量 T2,指示需要获取 n 的哪些行。本质上我的
以下代码掩码很好 mask = targets >= 0 targets = targets[mask] 但是,当我尝试使用两个条件进行屏蔽时,它会给出 RuntimeError: Boolean v
我正在定义一个简单的 conv2d 函数来计算输入和内核(均为 2D 张量)之间的互相关,如下所示: import torch def conv2D(X, K): h = K.shape[0]
作为训练 CNN 的一部分,我正在使用数组 inputs包含 对象。我想轮换一个人一些随机度数的对象 x ,如下所示: def rotate(inputs, x): # Rotate inpu
我有一个索引列表和一个具有形状的张量: shape = [batch_size, d_0, d_1, ..., d_k] idx = [i_0, i_1, ..., i_k] 有没有办法用索引 i_0
假设我有张量 t = torch.tensor([1,2,3,4,5]) 我想使用相同大小的索引张量来拆分它,该张量告诉我每个元素应该进行哪个拆分。 indices = torch.tensor([0
我尝试从生成器构建一个张量,如下所示: >>> torch.tensor(i**2 for i in range(10)) Traceback (most recent call last): F
假设我有一个一维 PyTorch 张量 end_index长度为L。 我想构造一个 2D PyTorch 张量 T有 L 行,其中 T[i,j] = 2什么时候j < end_index[i]和 T[
我在 pytorch 中有一个张量 x 比方说形状 (5,3,2,6) 和另一个形状 (5,3,2,1) 的张量 idx,其中包含第一个张量中每个元素的索引。我想用第二个张量的索引对第一个张量进行切片
我有以下火炬张量: tensor([[-0.2, 0.3], [-0.5, 0.1], [-0.4, 0.2]]) 以及以下 numpy 数组:(如有必要,我可以将其转换为其他内
tf.data.Dataset的构造函数接受一个参数 variant_tensor ,这只是 documented as : A DT_VARIANT tensor that represents t
我有: inp = torch.randn(4, 1040, 161) 我还有另一个名为 indices 的张量值: tensor([[124, 583, 158, 529], [1
我有一个张量 inps ,其大小为 [64, 161, 1]我有一些新数据d大小为 [64, 161] .如何添加 d至inps这样新的大小是[64, 161, 2] ? 最佳答案 使用 .unsqu
我有张量 t = torch.tensor([[1, 0, 0, 0], [0, 0, 1, 0], [0, 1, 0, 0], [1, 0, 0, 0]]) 和一个查询张量 q = torch.te
给定一个 3d 张量,说:batch x sentence length x embedding dim a = torch.rand((10, 1000, 96)) 以及每个句子的实际长度数组(或张
我想使用 [int, -1] 符号 reshape 张量(例如,压平图像)。但我事先并不知道第一个维度。一个用例是在大批量上进行训练,然后在较小的批量上进行评估。 为什么会出现以下错误:获取包含“_M
我有两个 torch 张量。一个形状为 [64, 4, 300],一个形状为 [64, 300]。我如何连接这两个张量以获得形状为 [64, 5, 300] 的合成张量。我知道用于此的 tensor.
我是一名优秀的程序员,十分优秀!