- android - 多次调用 OnPrimaryClipChangedListener
- android - 无法更新 RecyclerView 中的 TextView 字段
- android.database.CursorIndexOutOfBoundsException : Index 0 requested, 光标大小为 0
- android - 使用 AppCompat 时,我们是否需要明确指定其 UI 组件(Spinner、EditText)颜色
我想创建颜色映射,定义一些颜色名称和这些颜色应落入的范围内的边界。例如(BGR格式),
colors = {
'red': ((0, 0, 255), (125, 125, 255)),
'blue': ((255, 0, 0), (255, 125, 125)),
'yellow' ....
}
所以如果我收到颜色,比方说 (255, 50, 119) 我可以称它为蓝色。我想至少为彩虹加灰色、黑色、白色的颜色制作这样的映射。使用 Python 和 openCV。
问题是我真的不明白从哪里获得这些边界值,蓝色、红色等是否有最低/最高值?
最佳答案
我建议使用 HSV 颜色空间来比较颜色,因为它对可变光照的敏感度低于 RGB,其中阳光下的绿色可能是 rgb(20,255,10) , 但阴影中的绿色可能是 rgb(3,45,2),而两者在 HSV 色彩空间中将具有非常相似的Hue。
所以,开始吧......
创建一个 10x1 的小 numpy 数组,使第一个像素为红色,第二个为橙色,然后是黄色、绿色、蓝色、靛蓝、紫色,然后是黑色、中灰色和白色。有一张 table here .
然后转换为HSV 色彩空间并记下Hue 值。
我已经开始了一些代码...
#!/usr/local/bin/python3
import numpy as np
import imageio
import cv2
# Create black image 10x1
im = np.zeros([1,10,3], dtype=np.uint8)
# Fill with colours of rainbow and greys
im[0,0,:]=[255,0,0] # red
im[0,1,:]=[255,165,0] # orange
im[0,2,:]=[255,255,0] # yellow
im[0,3,:]=[0,255,0] # green
im[0,4,:]=[0,0,255] # blue
im[0,5,:]=[75,0,130] # indigo
im[0,6,:]=[238,130,238] # violet
im[0,7,:]=[0,0,0] # black
im[0,8,:]=[127,127,127] # grey
im[0,9,:]=[255,255,255] # white
imageio.imwrite("result.png",im)
hsv=cv2.cvtColor(im,cv2.COLOR_RGB2HSV)
print(hsv)
检查图像:
也可以使用 Imagemagick 检查颜色:
convert result.png txt:
# ImageMagick pixel enumeration: 10,1,65535,srgb
0,0: (65535,0,0) #FF0000 red
1,0: (65535,42405,0) #FFA500 orange
2,0: (65535,65535,0) #FFFF00 yellow
3,0: (0,65535,0) #00FF00 lime
4,0: (0,0,65535) #0000FF blue
5,0: (19275,0,33410) #4B0082 indigo
6,0: (61166,33410,61166) #EE82EE violet
7,0: (0,0,0) #000000 black
8,0: (32639,32639,32639) #7F7F7F grey50
9,0: (65535,65535,65535) #FFFFFF white
现在看看下面的 HSV 数组 - 特别是第一列 (Hue)。你可以看到红色的 Hue=0,橙色是 19,黄色是 30 等等。另请注意,黑色、灰色和白色的饱和度均为零,黑色的值较低,灰色的值中等,白色的值较高强>.
[[[ 0 255 255]
[ 19 255 255]
[ 30 255 255]
[ 60 255 255]
[120 255 255]
[137 255 130]
[150 116 238]
[ 0 0 0]
[ 0 0 127]
[ 0 0 255]]]
现在您可以在 Python 中为每种颜色创建一个数据结构来存储:
因此,您可以使用:
... see note at bottom for Red
14,23,"Orange"
25,35,"Yellow"
55,65,"Green"
115,125,"Blue"
...
等等 - 从表中省略黑色、灰色和白色。
那么,您如何使用这个?
好吧,当您获得要检查的颜色时,首先将 R、G 和 B 值转换为 HSV,然后查看生成的饱和度 - 这是对颜色的鲜艳度。花哨的颜色具有高饱和度,而暗淡的灰色具有低饱和度。
因此,查看饱和度是否超过最大可能值的 10%,例如在 0-255 的范围内超过 25。
如果饱和度低于限制,检查值,如果值低则分配黑色,如果中等则分配灰色,如果分配白色>值(value)高。
如果饱和度高于限制,请检查它是否在您记录的色调之一的下限和上限内,并相应地命名。
所以代码是这样的:
def ColorNameFromRGB(R,G,B)
# Calculate HSV from R,G,B - something like this
# Make a single pixel from the parameters
onepx=np.reshape(np.array([R,G,B],dtype=np.uint8),(1,1,3))
# Convert it to HSV
onepxHSV=cv2.cvtColor(onepx,cv2.COLOR_RGB2HSV)
...
...
if S<25:
if V<85:
return "black"
elsif V<170:
return "grey"
return "white"
# This is a saturated colour
Iterate through colour names table and return name of entry with matching Hue
有两点需要注意:
红色的色调值存在不连续性,因为 HSV 色轮是圆形轮,红色的色调值处于 0 角,因此高于 350 和低于 10 的值都是红色。碰巧的是,OpenCV 通过除以 2 来缩放 0-360 范围,这意味着它以 0-180 出现......这正好适合单个无符号字节。因此,对于红色,您需要检查大于 175 且小于 5 的色相。
在查找颜色时请务必始终生成 8 位图像,因为色调值在 16 位和浮点图像上的缩放比例不同。
关于python-3.x - 如何定义 BGR 颜色范围?将颜色代码映射到颜色名称,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/50495608/
我尝试将 BGR 转换为 YCrCb 以增加亮度并将其转换回 BGR cvSplit(亮度, y, cr, cb, 0); << 拆分不需要顺序吧? ...对亮度分量做点什么 cvMerge(temp
我正在将 OpenCV 与 Python 结合使用。我有一张图片,我想要做的是将 BGR 值 [0, 0, 255] 的所有像素设置为 [0, 255, 255]。 我问了一个previous que
java中BufferedImage判断图像通道顺序并转RGB/BGR 一般来说Java ImageIO处理读取图像时,一般是RGB或ARGB格式,但是有的时候,我们需要图像是BGR格式, 比如
我有一张以白纸为背景的叶子图片,我需要去除噪声(黄点)并获取叶子的像素值(bgr)。 我使用绿色阈值来检测叶子并用原始图像对其进行掩蔽。我使用 cv2.mean 来获取像素值,但它计算了所有像素,包括
RGB 颜色由三个分量组成:红色 (0-255)、绿色 (0-255) 和蓝色 (0-255)。 BGR 色彩空间到底是什么?它与 RGB 色彩空间有何不同? 最佳答案 关于字节顺序。 RGB 是一个
我想将(很多)JPEG 图像转换为 Sun Raster 格式(例如,参见 here),因为我的程序只能使用这种格式。 问题是我的程序只允许旧类型的图像 或标准,即像素以 BGR 顺序写入。 (我应该
我有一些 BGR 图片: cv::Mat image; 我想从图像中的所有像素中减去矢量: [10, 103, 196] 意味着所有像素的蓝色 channel 将减少 10,绿色 channel 减少
我正在尝试将图像从 RBG(OpenCV 中的 BGR)手动转换为 YCbCr 色彩空间。 我的图像是一张 png 彩色图像,宽度为 800,高度为 600,3 个 channel ,16 位深度。
我知道如何将字节数组转换为图像。这是我的代码: //Here create the Bitmap to the know height, width and format Bitmap bmp = n
我正在使用 libjpeg 将 jpeg 图像从磁盘解码到堆上分配的内存缓冲区。我使用 jpeg_read_scanlines 从文件中读取和解码每个扫描线。这工作得很好,将每个像素解码为 24 位
我正在使用 OpenCV 库进行图像处理。 我想转换一个 System.Drawing.Bitmap到Image .我该怎么做? 最佳答案 Image 构造函数有一个 Bitmap 重载(假设您正在使
我有一个颜色为 BGR 的图像。如何转换 PIL 图像以高效交换每个像素的 B 和 R 元素? 最佳答案 我知道这是一个老问题,但我遇到了同样的问题并通过以下方法解决了: img = img[:,:,
好吧,我的目标很简单——尝试从包含打包/交错 BGR 数据(也可以是 RGB)的缓冲区创建 JPEG 编码图像。 NVidia 文档包含一个 example ,正确的图像输入基本上描述了here .
根据documentation ,BGR 图像在 OpenCV 中以这种方式表示: (来源:opencv.org) 我的问题:这张图片显示的数组的尺寸是多少? 最佳答案 来自 the docs 图像属
我正在从网络摄像头的缓冲区中获取位图。当我将它们分配给 PictureBox 时,红色和蓝色会颠倒过来。 我可以对位图或 PictureBox 做些什么来使红色和蓝色出现在适当的位置? 最佳答案 以下
这可能很简单,但我正在尝试将提供 RGB 字符串颜色的源转换为 Java 中 BGR 字符串的输出。我一直在为 shifting 和 Long.decode 以及 Long.toHexString 绞
GetDIBits() 没有将正确的 BGR 值传递给 COLORREF 数组: #include #include using namespace std; int main() {int i;
我已经将一些数据记录为 npy 文件。我尝试显示图像 (data[0]) 以检查它是否适用于以下代码 import numpy as np import cv2 train_data = np.loa
文档似乎没有解释 HSV->BGR 转换的预期输入范围。这是一些示例代码,我试图在将其转换为 HSV 后取回原始 BGR 值。有谁知道预期的缩放比例? #include #include cv::
我正在从 YUV420 解码器捕获原始输出。我得到了三个指针:分别是 Y(1920*1080)、U(960*540) 和 V(960*540)。 我想使用 OpenCV 将图像保存为 JPEG。我尝试
我是一名优秀的程序员,十分优秀!