- ubuntu12.04环境下使用kvm ioctl接口实现最简单的虚拟机
- Ubuntu 通过无线网络安装Ubuntu Server启动系统后连接无线网络的方法
- 在Ubuntu上搭建网桥的方法
- ubuntu 虚拟机上网方式及相关配置详解
CFSDN坚持开源创造价值,我们致力于搭建一个资源共享平台,让每一个IT人在这里找到属于你的精彩世界.
这篇CFSDN的博客文章基于tf.shape(tensor)和tensor.shape()的区别说明由作者收集整理,如果你对这篇文章有兴趣,记得点赞哟.
#tf.shape(tensor)和tensor.shape()的区别 。
1
2
3
4
5
6
7
8
9
10
11
12
13
|
a
=
tf.zeros([
4
,
5
,
4
,
5
,
6
])
print
(
type
(a.shape))
print
(a.shape.ndims)
#多少个维度
print
(a.shape.as_list())
#返回列表
print
(
type
(tf.shape(a)))
print
(
type
(tf.shape(a)[
0
]))
b
=
a.shape.as_list()
c
=
tf.shape(a)
b[
1
]
=
tf.shape(a)[
1
]
print
(b)
sess
=
tf.Session()
d
=
sess.run(c)
print
(d)
|
1
2
3
4
5
6
7
8
|
outputs:
<
class
'tensorflow.python.framework.tensor_shape.TensorShape'
>
5
[
4
,
5
,
4
,
5
,
6
]
<
class
'tensorflow.python.framework.ops.Tensor'
>
<
class
'tensorflow.python.framework.ops.Tensor'
>
[
4
, <tf.Tensor
'strided_slice_1:0'
shape
=
() dtype
=
int32>,
4
,
5
,
6
]
[
4
5
4
5
6
]
|
其中tf.shape(tensor)使用的是动态的,即必须要在session中运行后才能显示出来,但是tensor.shape()是静态的,即通过定义的shape可以惊天的运行出来.
原因:在我们定义的时候,比如进行placeholder的时候我们可能会定义某些维度为None,在静态的时候是看不出来的,只能在运行的时候找到维度.
**使用:**可以在获得某些tensor的维度的时候进行检验,防止维度为None.
补充知识:tensorflow.python.framework.tensor_shape.TensorShape 类 。
TensorShape 是tensorflow中关于张量shape的类(class). 。
使用示例如下:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
|
import
tensorflow.compat.v1 as tf
from
tensorflow.python.framework
import
tensor_shape
from
tensorflow.python.framework
import
constant_op
tensor_test1
=
[
10
,
10
,
10
]
tensor_test2
=
[
None
,
10
,
10
]
p1
=
tensor_shape.as_shape(tensor_test1)
# 得到的是一个类实例,该类实例包含一个属性,是 tensor_test1 的value
const
=
constant_op.constant(p1.as_list())
print
(
"type(p1) = "
,
type
(p1))
print
(
"p1 = "
,p1)
# 使用p1时会自动调用p1中的value属性
print
(
"p1.is_fully_defined() = "
,p1.is_fully_defined())
# is_fully_defined 是 TensorShape 类的一个内部函数
print
(
"p1.ndims = "
,p1.ndims)
# ndims 也是TensorShape的一个属性值
print
(
"p1.as_list() = "
,p1.as_list())
# 把TensorShape的value属性转换成python中的list类型
print
(
"const = "
,const)
|
结果如下:
1
2
3
4
5
6
|
type
(p1)
=
<
class
'tensorflow.python.framework.tensor_shape.TensorShape'
>
p1
=
(
10
,
10
,
10
)
p1.is_fully_defined()
=
True
p1.ndims
=
3
p1.as_list()
=
[
10
,
10
,
10
]
const
=
Tensor(
"Const:0"
, shape
=
(
3
,), dtype
=
int32)
|
以上这篇基于tf.shape(tensor)和tensor.shape()的区别说明就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持我.
原文链接:https://blog.csdn.net/yinheju/article/details/84380913 。
最后此篇关于基于tf.shape(tensor)和tensor.shape()的区别说明的文章就讲到这里了,如果你想了解更多关于基于tf.shape(tensor)和tensor.shape()的区别说明的内容请搜索CFSDN的文章或继续浏览相关文章,希望大家以后支持我的博客! 。
我试图将迁移学习应用于 InceptionV3。这是我的代码: inception_model = InceptionV3(weights='imagenet',include_top=False)
我正在尝试展示 GAN 网络在某些指定时期的结果。打印当前结果的功能以前与 TF 一起使用。我需要换成 pytorch。 def show_result(G_net, z_, num_epoch, s
我对孪生神经网络还很陌生,最近发现了 this example和 Colab notebook . 运行代码时出现以下错误: IndexError: invalid index of a 0-dim
我正在尝试使用在此 PR 中添加的“高级”、numpy 样式的切片,但是我遇到了 same issue as the user here : ValueError: Shape must be ran
我想在 TensorFlow 中做类似这段 Numpy 代码的事情: a = np.zeros([5, 2]) idx = np.random.randint(0, 2, (5,)) row_idx
我有以下特征张量: Eigen::Tensor m(3,10,10); 我想访问第一个矩阵。在 numpy 中我会这样做 m(0,:,:) 我如何在 Eigen 中做到这一点 最佳答案 您可以使用 .
1、问题 模型训练完后进行测试,报错 RuntimeError: Tensor for 'out' is on CPU, Tensor for argument #1 'self' is on CPU
我正在对 TFRecords 进行配对,它为我提供了一个标签作为数值。但是我需要在读取原始记录时将此值转换为分类向量。我怎样才能做到这一点。这是读取原型(prototype)记录的代码片段: def
我正在对 TFRecords 进行配对,它为我提供了一个标签作为数值。但是我需要在读取原始记录时将此值转换为分类向量。我怎样才能做到这一点。这是读取原型(prototype)记录的代码片段: def
我应该如何从 Eigen::Tensor 创建一个 tensorflow::Tensor?我可以一个接一个地复制元素,但我希望有更好的方法。 最佳答案 没有公共(public) api 可以在不复制数
我正在尝试使用 Tensorflow(版本 0.9.0)以与 beginner's tutorial 非常相似的方式训练一个简单的二元逻辑回归分类器。并且在拟合模型时遇到以下错误: ValueErro
从 0.4.0 版本开始,可以使用 torch.tensor 和 torch.Tensor 有什么区别?提供这两个非常相似且令人困惑的替代方案的原因是什么? 最佳答案 在 PyTorch 中,torc
PyTorch0.4中,.data 仍保留,但建议使用 .detach(), 区别在于 .data 返回和 x 的相同数据 tensor, 但不会加入到x的计算历史里,且require s_grad
我有一个参差不齐的张量,在尝试创建模型并使用 model.fit() 时,出现错误:TypeError: Failed to convert object of type to Tensor. Co
我必须用生成器和判别器训练一个 GAN 网络。我的发电机网络如下。 def Generator(image_shape=(512,512,3): inputs = Input(image_shap
我正在使用 Flask 运行 Web 服务器,当我尝试使用 vgg16 时出现错误,vgg16 是 keras 的预训练 VGG16 模型的全局变量。我不知道为什么会出现这个错误,也不知道它是否与 T
我正在使用 keras 的预训练模型,并且在调用 ResNet50(weights='imagenet') 时出现错误。 我在 flask 服务器中有以下代码: def getVGG16Predict
执行以下代码时出现以下错误。 rnn.rnn() 返回张量列表。错误在 convert_to_tensor 行。 TypeError: List of Tensors when single Tens
我有一个fruit_train_net.py 文件,其中包含以下代码 import tensorflow as tf import numpy as np import time import os
我们可以使用 torch.Tensor([1., 2.], device='cuda') 在 GPU 上分配张量.使用这种方式而不是torch.cuda.Tensor([1., 2.])有什么不同吗?
我是一名优秀的程序员,十分优秀!