gpt4 book ai didi

ios - 将图像转换为 CVPixelBuffer 用于机器学习 Swift

转载 作者:IT王子 更新时间:2023-10-29 05:12:55 27 4
gpt4 key购买 nike

我正在尝试让在 2017 年 WWDC 上演示的 Apple 样本 Core ML 模型正常运行。我正在使用 GoogLeNet 尝试对图像进行分类(请参阅 Apple Machine Learning Page)。该模型将 CVPixelBuffer 作为输入。我有一个名为 imageSample.jpg 的图像,用于此演示。我的代码如下:

        var sample = UIImage(named: "imageSample")?.cgImage
let bufferThree = getCVPixelBuffer(sample!)

let model = GoogLeNetPlaces()
guard let output = try? model.prediction(input: GoogLeNetPlacesInput.init(sceneImage: bufferThree!)) else {
fatalError("Unexpected runtime error.")
}

print(output.sceneLabel)

我总是在输出中遇到意外的运行时错误,而不是图像分类。我转换图像的代码如下:

func getCVPixelBuffer(_ image: CGImage) -> CVPixelBuffer? {
let imageWidth = Int(image.width)
let imageHeight = Int(image.height)

let attributes : [NSObject:AnyObject] = [
kCVPixelBufferCGImageCompatibilityKey : true as AnyObject,
kCVPixelBufferCGBitmapContextCompatibilityKey : true as AnyObject
]

var pxbuffer: CVPixelBuffer? = nil
CVPixelBufferCreate(kCFAllocatorDefault,
imageWidth,
imageHeight,
kCVPixelFormatType_32ARGB,
attributes as CFDictionary?,
&pxbuffer)

if let _pxbuffer = pxbuffer {
let flags = CVPixelBufferLockFlags(rawValue: 0)
CVPixelBufferLockBaseAddress(_pxbuffer, flags)
let pxdata = CVPixelBufferGetBaseAddress(_pxbuffer)

let rgbColorSpace = CGColorSpaceCreateDeviceRGB();
let context = CGContext(data: pxdata,
width: imageWidth,
height: imageHeight,
bitsPerComponent: 8,
bytesPerRow: CVPixelBufferGetBytesPerRow(_pxbuffer),
space: rgbColorSpace,
bitmapInfo: CGImageAlphaInfo.premultipliedFirst.rawValue)

if let _context = context {
_context.draw(image, in: CGRect.init(x: 0, y: 0, width: imageWidth, height: imageHeight))
}
else {
CVPixelBufferUnlockBaseAddress(_pxbuffer, flags);
return nil
}

CVPixelBufferUnlockBaseAddress(_pxbuffer, flags);
return _pxbuffer;
}

return nil
}

我从之前的 StackOverflow 帖子(最后一个答案 here)中获得了这段代码。我知道代码可能不正确,但我不知道自己该怎么做。我相信这是包含错误的部分。该模型需要以下类型的输入:Image<RGB,224,224>

最佳答案

你不需要自己做一堆图像处理来使用带有图像的 Core ML 模型——新的 Vision framework可以为您做到这一点。

import Vision
import CoreML

let model = try VNCoreMLModel(for: MyCoreMLGeneratedModelClass().model)
let request = VNCoreMLRequest(model: model, completionHandler: myResultsMethod)
let handler = VNImageRequestHandler(url: myImageURL)
handler.perform([request])

func myResultsMethod(request: VNRequest, error: Error?) {
guard let results = request.results as? [VNClassificationObservation]
else { fatalError("huh") }
for classification in results {
print(classification.identifier, // the scene label
classification.confidence)
}

}

WWDC17 session on Vision应该有更多信息 — 明天下午。

关于ios - 将图像转换为 CVPixelBuffer 用于机器学习 Swift,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/44400741/

27 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com