gpt4 book ai didi

ios - Swift 中图像的一致二进制数据

转载 作者:搜寻专家 更新时间:2023-10-31 22:59:41 25 4
gpt4 key购买 nike

对于一个小项目,我正在制作一个 iOS 应用程序,它应该做两件事:

  1. 拍照
  2. 从图片数据中提取哈希值(并将其打印到 xcode 控制台)

然后,我想将图片导出到我的笔记本电脑并确认哈希值。我尝试通过 AirDrop、Photos.app、电子邮件和 iCloud 导出(Photos.app 压缩照片,iCloud 将其转换为 .png)。

问题是,我无法重新生成哈希。这意味着导出的图片与应用程序中的图片不同。我试图一一排除一些变数。要从图片中获取 NSData,可以使用 UIImagePNGRepresentationUIImageJPEGRepresentation 函数,在提取数据之前强制图像采用格式表示。老实说,我不完全确定这些函数做了什么(除了转换为 NSData),但它们做的事情与其他函数不同,因为它们相互比较并给出不同的结果导出的数据(.jpg)。

有些事情我不清楚 Swift/Apple 在导出时对我的(图片)数据做了什么。我在几个地方读到 Apple 转换(或删除)EXIF,但对我来说不清楚是哪一部分。我试图通过在应用程序(通过函数 ImageHelper.removeExifData(找到 here )和通过命令行上的 exiftools )进行哈希处理之前自己明确删除 EXIF 数据来预测这一点,但是没有用。

我尝试对手机上的现有照片进行散列处理。我有一张通过邮件发送给我的照片,但在我的应用程序和命令行中对其进行散列处理给出了不同的结果。 string 在应用程序和命令行中给出了类似的结果,因此散列函数不是问题。

所以我的问题是:

  1. 导出照片时有没有办法防止变形
  2. UIImagePNGRepresentation/UIImageJPEGRepresentation 函数是否有替代方案

(3. 这完全有可能还是 iOS/Apple 的黑盒子太多了?)

非常感谢任何帮助或指向更多文档的指针!


这是我的代码

//
// ViewController.swift
// camera test

import UIKit
import ImageIO

// extension on NSData format, to enable conversion to String type
extension NSData {
func toHexString() -> String {
var hexString: String = ""
let dataBytes = UnsafePointer<CUnsignedChar>(self.bytes)
for (var i: Int=0; i<self.length; ++i) {
hexString += String(format: "%02X", dataBytes[i])
}
return hexString
}
}

// function to remove EXIF data from image
class ImageHelper {
static func removeExifData(data: NSData) -> NSData? {
guard let source = CGImageSourceCreateWithData(data, nil) else {
return nil
}
guard let type = CGImageSourceGetType(source) else {
return nil
}
let count = CGImageSourceGetCount(source)
let mutableData = NSMutableData(data: data)
guard let destination = CGImageDestinationCreateWithData(mutableData, type, count, nil) else {
return nil
}
// Check the keys for what you need to remove
// As per documentation, if you need a key removed, assign it kCFNull
let removeExifProperties: CFDictionary = [String(kCGImagePropertyExifDictionary) : kCFNull, String(CGImagePropertyOrientation): kCFNull]

for i in 0..<count {
CGImageDestinationAddImageFromSource(destination, source, i, removeExifProperties)
}

guard CGImageDestinationFinalize(destination) else {
return nil
}

return mutableData;
}
}



class ViewController: UIViewController, UINavigationControllerDelegate, UIImagePickerControllerDelegate, MFMailComposeViewControllerDelegate {

@IBOutlet weak var imageView: UIImageView!

// creats var for picture
var imagePicker: UIImagePickerController!

override func viewDidLoad() {
super.viewDidLoad()
// Do any additional setup after loading the view, typically from a nib.
}

override func didReceiveMemoryWarning() {
super.didReceiveMemoryWarning()
// Dispose of any resources that can be recreated.
}

// calls Camera function and outputs picture to imagePicker
@IBAction func cameraAction(sender: UIButton) {
imagePicker = UIImagePickerController()
imagePicker.delegate = self
imagePicker.sourceType = .Camera

presentViewController(imagePicker, animated: true, completion: nil)
}

// calls camera app, based on cameraAction
func imagePickerController(picker: UIImagePickerController, didFinishPickingMediaWithInfo info: [String : AnyObject]) {
imagePicker.dismissViewControllerAnimated(true, completion: nil)
imageView.image = info[UIImagePickerControllerOriginalImage] as? UIImage
}

// calls photoHash function based on button hashAction
@IBAction func hashAction(sender: AnyObject) {
photoHash()
}


// converts latest picture to binary to sha256 hash and outputs to console
func photoHash(){
let img = ImageHelper.removeExifData(UIImagePNGRepresentation(imageView.image!)!)
let img2 = ImageHelper.removeExifData(UIImageJPEGRepresentation(imageView.image!, 1.0)!)
let imgHash = sha256_bin(img!)
let imgHash2 = sha256_bin(img2!)
print(imgHash)
print(imgHash2)

// write image to photo library
UIImageWriteToSavedPhotosAlbum(imageView.image!, nil, nil, nil)
}

// Digests binary data from picture into sha256 hash, output: hex string
func sha256_bin(data : NSData) -> String {
var hash = [UInt8](count: Int(CC_SHA256_DIGEST_LENGTH), repeatedValue: 0)
CC_SHA256(data.bytes, CC_LONG(data.length), &hash)
let res = NSData(bytes: hash, length: Int(CC_SHA256_DIGEST_LENGTH))

let resString = res.toHexString()
return resString
}



}

规范:

MacBook Pro 视网膜 2013,OS X 10.11.5
xcode 版本 7.3.1
swift 2
iPhone 5S
通过 shasum -a 256 filename.jpg

在命令行上散列

最佳答案

自从上周发布我的问题后,我了解到 Apple 将图像数据与元数据分开(图像数据存储在 UIIMage 对象 中),因此散列 UIImage 对象永远不会 产生的散列与在命令行(或 python 或任何地方)上消化的散列相同。这是因为对于 python/perl/等,元数据存在(即使使用 Exiftool 工具,exif 数据已标准化但仍然存在,而在 app 环境中,exif 数据只是不在那里,我想这与低级语言和高级语言有关但不确定)。

虽然有一些方法可以访问 UIImage 的 EXIF 数据(或一般的元数据),但这并不容易。这是保护用户隐私(除其他事项外)的功能。

解决方案

我通过不同的途径找到了解决我们特定问题的方法:事实证明,iOS 确实将所有图像数据和元数据保存在磁盘上的一个位置以用于照片。通过使用 Photos API,我可以通过这个调用访问这些(我在 SO 的一个答案中找到了这个,但我只是不记得我是怎么到那里的。如果你认得这个片段,请告诉我):

func getLastPhoto() {
let fetchOptions = PHFetchOptions()
fetchOptions.sortDescriptors = [NSSortDescriptor(key: "creationDate", ascending: true)]

let fetchResult = PHAsset.fetchAssetsWithMediaType(PHAssetMediaType.Image, options: fetchOptions)

if let lastAsset: PHAsset = fetchResult.lastObject as? PHAsset {
let manager = PHImageManager.defaultManager()
let imageRequestOptions = PHImageRequestOptions()

manager.requestImageDataForAsset(lastAsset, options: imageRequestOptions) {
(let imageData: NSData?, let dataUTI: String?,
let orientation: UIImageOrientation,
let info: [NSObject : AnyObject]?) -> Void in

// Doing stuff to the NSDAta in imageData

}
}

按日期倒序排序,第一个条目(显然)是最新的照片。只要我不将它加载到 imageView 中,我就可以根据需要处理数据(在本例中将其发送到哈希函数)。

所以流程是这样的:用户拍照,照片保存到图库并导入到imageView。然后用户按下散列按钮,最近添加的照片(在 imageView 中的照片)从磁盘中获取元数据和所有内容。然后我可以通过空投从库中导出照片(目前,稍后在体育场进行 https 请求)并在我的笔记本电脑上重现哈希。

关于ios - Swift 中图像的一致二进制数据,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/38488765/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com