- VisualStudio2022插件的安装及使用-编程手把手系列文章
- pprof-在现网场景怎么用
- C#实现的下拉多选框,下拉多选树,多级节点
- 【学习笔记】基础数据结构:猫树
人是习惯性动物,当我们第一次用opencv时,肯定会觉得opencv的imread()方式很奇怪,做图像出来天天说图像是RGB图RGB图,可opencv读出来的图,却是BGR的顺序。是不是很奇怪,还不止这一点,opencv读进来的图,你在使用shape函数时,返回的是h,w,c,也就是height是第一个维度,然后是宽度,最后是通道数,就是彩色图是RGB三通道。但是我们在使用的时候,第一个维度又是width的,第二个维度是height。然后利用opencv进行保存和show的时候,也一定要保证是BGR通道的顺序,否则保存和显示出来的图是不对的.
可以跑一下以下代码试试.
import cv2 。
cv2_img=cv2.imread('./demo.jpg') 。
print(type(cv2_img) ) 。
print(cv2_img.shape)# h,w,c 。
print(cv2_img[0,0,:]) # print左上角位置的像素值,一定要看清楚三个通道的值 。
cv2.imwrite('./test_cv2.jpg', cv2_img) 。
cv2_img_ch = cv2_img[:, :, ::-1] # 更改为RGB通道 。
print(cv2_img_ch[0,0,:]) 。
cv2.imwrite('./test_cv2_ch.jpg', cv2_img_ch) # 看一下保存的图像是不是和原图一样?
正是因为这些原因,深度学习的处理图像时会存在是使用BGR还是使用RGB的图这个问题。还有一个另外的原因,那就是早期的深度学习平台caffe是基于opencv来读图的,读图顺序是BGR.
当然有人不喜欢opencv这种读图模式,那就换一种方式,比如最近发现在AGI领域,大家更倾向于用PIL库,用这个库来读图,更符合大家平常习惯的RGB模式,但是这个库也有问题,你如果想像opencv读进来的图像那样用,还要借助numpy进行转一下,因为本身这个函数读进来的并不是一个图向量,可以理解为一个索引.
from PIL import Image 。
import numpy as np 。
pil_img=Image.open('./demo.jpg').convert('RGB') 。
#关于此处convert('RGB')的使用, 如果不使用.convert('RGB')进行转换,读出来的图像是RGBA四通道的,A通道为透明,通过convert('RGB')转成只有RGB三通道的数据。可以不加convert('RGB')打印出来看看.
print(type(pil_img) ) 。
print(pil_img.size)# w,h 没有c 。
print(np.array(pil_img).shape)# h,w,c 但是c是RGB通道的,这里通过np.array转成可以读写的数据结构,原来读进来的是无法直接print打开的 。
print(pil_img[0,0,:]) # print左上角位置的像素值,一定要看清楚三个通道的值 。
#保存图 。
pil_img.save('./pil_img.jpg') 。
目前在diffusers的库中,有个load_image,也就是基于PIL.Image来实现的.
。
另外还有一个做可视化时,大家常常用到的matplotlib.pyplot,这个库也可以读图 。
import matplotlib.pyplot as plt 。
import numpy as np 。
plt_img=plt.imread('./demo.jpg') 。
print(type(plt_img) ) 。
print(plt_img.shape) # h,w,c c上是RGB通道 。
print(plt_img[0,0,:]) # print左上角位置的像素值,一定要看清楚三个通道的值 。
#保存图 。
plt.imsave('./plt_img.jpg', plt_img) 。
。
但是通常深度学习模型,进模型时,通常是b,c,h,w这样的顺序,因此,以上几种方式都需要在维度上对数据进行转换。转换的时候,可以使用transpose(),也可以使用permute(),这两个函数的具体使用方式这里也简单介绍一下.
其中,transpose这个函数,在numpy中,是可以进行超过2个维度的转置的。比如我们对opencv的图进行转置.
import cv2 。
cv2_img=cv2.imread('./demo.jpg') 。
print(type(cv2_img) ) 。
print(cv2_img.shape)# h,w,c 。
print(cv2_img[0,0,:]) # print左上角位置的像素值,一定要看清楚三个通道的值 。
cv2.imwrite('./test.jpg', cv2_img) 。
cv2_img_ch = cv2_img[:, :, ::-1] # 更改为RGB通道 。
print(cv2_img_ch[0,0,:]) 。
cv2.imwrite('./test_ch.jpg', cv2_img_ch) # 看一下保存的图像是不是和原图一样?
t_cv2_img=cv2_img.transpose(2,0,1) 。
print(cv2_img.shape)# c,h,w 。
。
此时最后一行打印出来是c,h,w这样的顺序。numpy的transpose很强大,根据官方的介绍,参数传递时,可以这样的,也就是可以对各个维度进行交换.
Parameters
a array_like 。
Input array. 。
axes tuple or list of ints, optional 。
If specified, it must be a tuple or list which contains a permutation of [0, 1, …, N-1] where N is the number of axes of a. Negative indices can also be used to specify axes. The i-th axis of the returned array will correspond to the axis numbered axes[i] of the input. If not specified, defaults to range(a.ndim)[::-1], which reverses the order of the axes. 。
。
但是我们在做深度学习,通常是基于torch工作时,常常会碰到transpose和permute()这两个函数,这两个和numpy中的tranpose用途是基本一致的。但是torch.transpose只能对两个维度进行交换,而permute可以对多个维度进行交换。比如上面的实验,我们可以这么做.
import cv2 。
import torch 。
cv2_img=cv2.imread('./demo.jpg') 。
print(type(cv2_img) ) 。
print(cv2_img.shape)# h,w,c 。
print(cv2_img[0,0,:]) # print左上角位置的像素值,一定要看清楚三个通道的值 。
cv2.imwrite('./test.jpg', cv2_img) 。
cv2_img_ch = cv2_img[:, :, ::-1] # 更改为RGB通道 。
print(cv2_img_ch[0,0,:]) 。
cv2.imwrite('./test_ch.jpg', cv2_img_ch) # 看一下保存的图像是不是和原图一样?
t_cv2_img=cv2_img.transpose(2,0,1) 。
print(cv2_img.shape)# c,h,w 。
tt_cv2_img=torch.from_numpy(cv2_img).permute(2,0,1) 。
print(tt_cv2_img.shape)# c,h,w 。
tt_cv2_img=torch.from_numpy(cv2_img).transpose(2,0,1) # 此处会提示出错,torch的transpose只能交换两个维度 。
。
也就是说,如果是numpy的维度交换,可以随意用transpose()实现。但是如果你操作的对象是torch.tensor这种数据结构,尽量用permute()函数,用法其实和numpy的transpose()基本上完全一样.
。
PS.题外话:
1. 无论用哪种方式来读图,请确保训练和测试是一定要保持一致.
2. 三种方式在对同一张图读取时,读进来的像素值可能会有差异的。保存时更不用说了,肯定不一样,因为不同的方法保存时,压缩比例不保证一致,所以保存下来的图再读肯定不一样.
3. 无论哪种方式,通常都会归一化,这个地方一定要确保是一致的.
。
最后此篇关于cv2,pil.image,plt.image读图的差异的文章就讲到这里了,如果你想了解更多关于cv2,pil.image,plt.image读图的差异的内容请搜索CFSDN的文章或继续浏览相关文章,希望大家以后支持我的博客! 。
我从NVIDIA手册Eg中复制了以下代码:__threadfence()。他们为什么有 在以下代码中使用了__threadfence()。我认为使用__syncthreads()而不是__thread
我在使用 SVN 更改列表和 svn diff 时遇到了一些麻烦.特别是我想获取特定修订范围的特定文件列表的更改历史记录。 SVN 变更列表似乎是完美的解决方案,所以我的方法是: svn change
我有两个 IP 地址列表。我需要将它们合并到三个文件中,交集,仅来自 list1 的文件和仅来自 list2 的文件。 我可以用 awk/diff 或任何其他简单的 unix 命令来做到这一点吗?如何
假设自上次更新(恢复)到我的 a.b 文件以来我做了一些更改。 此 a.b 文件也在存储库中更改。 现在我想将我所做的更改与 repos 更改进行比较。 如果我 svn revert 文件,我可以看到
关闭。这个问题不符合Stack Overflow guidelines .它目前不接受答案。 我们不允许提问寻求书籍、工具、软件库等的推荐。您可以编辑问题,以便用事实和引用来回答。 关闭 7 年前。
我使用的是 openssl 1.0.1c , linux x86_64 我正在创建包含“hello”的文件(没有换行符) openssl dgst -sha256 hello_file i get :
假设我们有几个库。 有什么区别核心和 普通 图书馆?他们应该如何被认可,我们是否组织了两者的职责? +Common -Class1 +Core -Class2 +Lib1 has : Comm
如何在 SQLite 中计算以毫秒为单位的最小时间间隔? 好的,提供一些背景信息, 这是我的 table 的样子: link_budget table 所以有这个时间列,我想发出一个请求,以毫秒为单位
我想知道,乐观并发控制 (OCC) 和多版本并发控制 (MVCC) 之间的区别是什么? 到目前为止,我知道两者都是基于更新的版本检查。 在 OCC 中,我读到了没有获取读取访问锁的事务,仅适用于以后的
说到 SignalR,我有点菜鸟。刚刚开始四处探索和谷歌搜索它,我想知道是否有人可以向我解释完成的事情之间的一些差异。 在我见过的一些示例中,人们需要创建一个 Startup 类并定义 app.Map
我在 Ogre 工作,但这是一个一般的四元数问题。 我有一个对象,我最初对其应用旋转四元数 Q1。后来,我想让它看起来好像我最初通过不同的四元数 Q2 旋转了对象。 我如何计算四元数,该四元数将采用已
我了解 javascript 模块模式,但我使用两种类型的模块模式,并且想从架构 Angular 了解它们之间的区别。 // PATTERN ONE var module = (function()
我有两个具有完全相同键的 JSON。 val json1 = """{ 'name': 'Henry', 'age' : 26, 'activities' : {
我发现使用 VBA 在 Excel 中复制单个文件有两种不同的方法。一是文件复制: FileCopy (originalPath), (pathToCopyTo) 另一个是名称: Name (orig
我想知道查找两个 float 组之间差异的绝对值的最有效方法是什么? 是否是以下内容: private float absDifference(float[] vector1, float[] vec
我有一个关于 wicket getApplication 的问题。 getApplication() 和 getSession().getApplication 有什么区别? 部署 wicket 应用
我刚刚开始使用activemq,我有一个关于追溯消费者的问题,为了启用这个功能,你需要有一个持久的订阅。但是在主题上启用和不启用追溯的持久订阅有什么区别? activemq 文档说。 http://a
我有两个具有完全相同键的 JSON。 val json1 = """{ 'name': 'Henry', 'age' : 26, 'activities' : {
得到另一个 Erlang 二进制表示查询('因为这就是我最近正在阅读的内容,并且需要二进制协议(protocol)实现)。 如果我正确理解了类型说明符,那么对于“浮点”类型值,8 字节表示似乎很好(这
关闭。这个问题需要多问focused 。目前不接受答案。 想要改进此问题吗?更新问题,使其仅关注一个问题 editing this post . 已关闭 4 年前。 Improve this ques
我是一名优秀的程序员,十分优秀!