- android - 多次调用 OnPrimaryClipChangedListener
- android - 无法更新 RecyclerView 中的 TextView 字段
- android.database.CursorIndexOutOfBoundsException : Index 0 requested, 光标大小为 0
- android - 使用 AppCompat 时,我们是否需要明确指定其 UI 组件(Spinner、EditText)颜色
我是 Python 新手,正在尝试使用 PIL 执行 Arduino 项目所需的解析任务。这个问题与 Image.convert()
方法以及调色板、抖动等选项有关。
我有一些硬件一次只能显示 16 种颜色的图像(但它们可以指定为 RGB 三元组)。因此,我想自动执行以下任务:拍摄任意真彩色 PNG 图像,选择“最佳”16 色调色板来表示它,并将图像转换为仅包含 16 种颜色的调色板。
我想使用抖动。问题是,image.convert()
方法似乎有点古怪。它的参数没有完整记录 ( PIL documentation for Image.convert() ),所以我不知道这是我的错还是该方法有问题。
我的代码的一个简单版本如下:
import Image
MyImageTrueColor = Image.new('RGB',100,100) # or whatever dimension...
# I paste some images from several other PNG files in using MyImageTrueColor.paste()
MyImageDithered = MyImageTrueColor.convert(mode='P',
colors=16,
dither=1
)
根据我所做的一些搜索(例如:How to reduce color palette with PIL),我认为这种方法应该可以满足我的要求,但运气不好。它会使图像抖动,但会产生超过 16 种颜色的图像。
为了确定,我删除了“dither”参数。相同的输出。
我重新添加了“dither=1”参数并加入了 Image.ADAPTIVE 参数(如上面的链接所示)只是为了看看发生了什么。这导致图像包含 16 种颜色,但没有抖动。
我是不是漏掉了什么? PIL 有问题吗?我想出的解决方案是执行 2 个步骤,但这似乎草率且不必要。我想弄清楚如何正确地做到这一点 :-) 为了完整起见,这里是我的代码版本,它产生了正确的结果——但它以一种草率的方式做到了。 (第一步生成超过 16 种颜色的抖动图像,第二步生成仅包含 16 种颜色的图像。)
MyImage_intermediate = MyImageTrueColor.convert(mode='P',
colors=16
)
MyImageDithered = MyImage_intermediate.convert(mode='P',
colors=16,
dither=1,
palette=Image.ADAPTIVE
)
谢谢!
最佳答案
好吧,你没有正确调用,所以它不应该工作......但即使我们调用正确,我也不确定它是否有效。
首先,PIL 手册的“官方”免费版本既不完整又过时;草稿版本在 http://effbot.org/imagingbook/image.htm不太完整和过时。
im.convert(“P”, **options) ⇒ image
Same, but provides better control when converting an “RGB” image to an 8-bit palette image. Available options are:
dither=. Controls dithering. The default is FLOYDSTEINBERG, which distributes errors to neighboring pixels. To disable dithering, use NONE.
palette=. Controls palette generation. The default is WEB, which is the standard 216-color “web palette”. To use an optimized palette, use ADAPTIVE.
colors=. Controls the number of colors used for the palette when palette is ADAPTIVE. Defaults to the maximum value, 256 colors.
所以,首先,如果没有ADAPTIVE
,您就不能使用colors
——原因很明显:唯一的选择是WEB
,它只处理固定的 216 色调色板。
其次,您不能将 1
传递给 dither
。如果它恰好是 FLOYDSTEINBERG
的值,那可能会起作用,但那是 3
。因此,您正在传递一个未记录的值;谁知道那会做什么?特别是因为,查看所有听起来像是抖动算法可能名称的常量,没有一个值是 1。
因此,您可以尝试将其更改为 dither=Image.FLOYDSTEINBERG
(连同 palette=Image.ADAPTIVE
),看看是否会有所不同。
但是,看看代码,看起来这不会有任何好处:
if mode == "P" and palette == ADAPTIVE:
im = self.im.quantize(colors)
return self._new(im)
这发生在我们到达抖动代码之前。所以它与调用(现已弃用/私有(private))方法 quantize 完全相同。
多个线程表明高级 convert
函数仅用于公开“抖动到 web 调色板”或“映射到最近的 N 种颜色”。这似乎在 1.1.6 及更高版本中略有变化,但文档和实现仍然不完整。在 http://comments.gmane.org/gmane.comp.python.image/2947其中一位开发人员建议阅读 PIL/Image.py 源代码。
看来这就是您需要做的。无论 Image.convert
在 Image.WEB
模式下做什么,您都想这样做——但是要使用由 Image.quantize(colors)< 生成的调色板
,而不是 Web 调色板。
当然,大部分内容都发生在 C 代码中(在 self.im.quantize
、self.im.convert
等下),但是您也许可以做类似这样的伪代码:
dummy = img.convert(mode='P', paletter='ADAPTIVE', colors=16)
intermediate = img.copy()
intermediate.setpalette(dummy.palette)
dithered = intermediate._new(intermediate.im.convert('P', Image.FLOYDSTEINBERG))
话又说回来,你可能不会。您可能需要查看 C header 甚至源代码才能找到答案。或者在 PIL 邮件列表上提问。
PS,如果您不熟悉 PIL 的内部结构,img.im
是 PIL Image 对象 img
下的 C 成像对象。根据我过去的经验,前 3 次浏览 PIL 代码时并不清楚这一点,然后突然间一切都变得更有意义了。
关于python - PIL - 需要抖动,但限制调色板会导致问题,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/12645492/
在 python 解释器中: >>> import PIL >>> PIL.Image Traceback (most recent call last): File "", line 1, in
我在 Pillow 中遇到过这个奇怪的错误,其中导入名称 PIL 需要全部小写而不是全部大写,但我从未见过 pil在任何地方都使用小写字母。这意味着我使用的导入 PIL 的所有 python 包和文件
有没有办法使用 PIL 截取驻留在我的服务器上的指定 HTML/Javascript 页面的屏幕截图? 我想编写一个脚本来更改该 HTML 页面上的一些参数,然后让 PIL 对其进行屏幕截图。 有什么
这是我所做的描述。 我正在尝试使用 PIL 编写程序,但是在尝试导入它时(如下所示),出现错误(也如下所示)。 from PIL import Image Here is the error. Tra
我正在尝试对图像进行简单的裁剪。这是代码 from PIL.Image import Image def get_image_half(image, half="upper"): if hal
我是一名新的Python用户,也是“Stack Overflow”中的新用户,当我尝试编译 tensorflow 代码时,我遇到了一些问题,并且我无法从网站上找到答案,所以我想从这里获得一些帮助,先谢
我知道 stackoverflow 上已经有很多与此问题相关的问题,我已经阅读了所有问题,但我仍然没有成功解决此问题。我希望有人能帮我解决这个问题。 我已经安装并重新安装了 Pillow 10 次。我
我得到错误: --------------------------------------------------------------------------- ImportError
我是机器学习的初学者,所以我试图创建一个模型来识别 Keras 博客中引用的图像。我已经在 Windows 10 上安装了 Anaconda 3 以及所有软件包,如tensorflow、keras、s
我正在尝试使用过滤器 FIND_EDGES 从图片中获取边缘,它在我的 Windows PC 上工作,但是当我在我的 Raspberry Pi 上运行相同的代码时,它给出了图像模式错误的错误。 最佳答
这个问题在 Python 环境中有一些答案,但这些解决方案不适用于我的 RStudio 环境。这是我的代码: library(keras) library(tensorflow) use_condae
我正在使用 Mac OS x 10.10.3 Yosemite 和 Python 2.7.9 |Anaconda 2.2.0 (x86_64) 来处理很多 python 的东西。我正在使用 Eclip
我正在遵循这个 SageMaker 指南并使用 1.12 cpu docker 文件。 https://github.com/aws/sagemaker-tensorflow-serving-cont
`from PIL import Image, ImageDraw, ImageFont image = Image.new('RGB', (950, 250), color=(255, 255, 2
我知道如何从图片中找到边缘。但我希望轮廓边缘更厚,例如宽度 9。 from PIL import Image, ImageFilter image = Image.open('your
我有多个白色背景的 PNG 图像,并且图像的某些部分充满了图案(可能是不同的颜色,黑色、蓝色、红色、黄色等)。 如何使用 Python PIL 库将所有这些图像合并为一张图像,以便所有非白色部分出
目前我正在尝试裁剪以下地址下文件夹内的所有图像:C:\\Users\\xie\\Desktop\\tiff\\Bmp然后将它们重新保存到同一个文件夹中。下面是我试图试验的代码,两者都运行没有错误但什么
虽然它们非常相似,但我确信 Pearson 相关相似度和调整余弦相似度之间存在一些差异,因为所有的论文和网页都将它们分为两种不同的类型。 然而,它们都没有提供明确的定义。 Here是其中一页。 谁能说
这是我的forms.py: class UploadImageForm(forms.ModelForm): class Meta: model = UserImages
关闭。这个问题需要更多 focused .它目前不接受答案。 想改进这个问题?更新问题,使其仅关注一个问题 editing this post . 4年前关闭。 Improve this questi
我是一名优秀的程序员,十分优秀!