- iOS/Objective-C 元类和类别
- objective-c - -1001 错误,当 NSURLSession 通过 httpproxy 和/etc/hosts
- java - 使用网络类获取 url 地址
- ios - 推送通知中不播放声音
我一直在尝试使用 AWSRekognition SDK 来比较人脸。但是,Amazon 没有关于如何将他们的 SDK 与 iOS 集成的文档。他们的链接显示了如何使用 Recognition ( Developer Guide ),示例仅在 Java 中且非常有限。
我想知道是否有人知道如何在 Swift 3 中集成 AWS Rekognition。如何初始化它并使用图像发出请求,接收带有标签的响应。
我有 AWS 签名 AccessKey、SecretKey、AWS 区域、服务名称。还有正文
{
"SourceImage": {
"S3Object": {
"Bucket": "bucketName",
"Name": "ios/sample.jpg"
}
},
"TargetImage": {
"S3Object": {
"Bucket": "buketName",
"Name": "ios/target.JPG"
}
}
}
如何初始化 Rekognition 并构建请求。
谢谢!
最佳答案
实例化 Rekognition 客户端,这里我使用默认配置的客户端。
let rekognitionClient:AWSRekognition = AWSRekognition.default()
否则,您可以按如下方式使用凭据:
let credentialsProvider = AWSCognitoCredentialsProvider(
regionType: AWSRegionType.usEast2,
identityPoolId: "us-east-2_myPoolID")
let configuration = AWSServiceConfiguration(
region: AWSRegionType.usEast2,
credentialsProvider: credentialsProvider)
AWSServiceManager.default().defaultServiceConfiguration = configuration
let rekognitionClient:AWSRekognition = AWSRekognition.default()
现在构建请求并在其中设置图像。
let image = UIImage(named: "MyImage")
let request = AWSRekognitionDetectLabelsRequest()
request.image = image
request.maxLabels = <num_labels_needed>
request.minConfidence = <confidence_interval_needed>
现在要比较人脸,请阅读 CompareFacesRequest:https://github.com/aws/aws-sdk-ios/blob/master/AWSRekognition/AWSRekognitionService.m#L288
SDK 中有一个示例测试可以比较 ObjC 中的两个面孔,但您可以在 Swift 中进行翻译:
let key = "testCompareFaces"
let configuration = AWSServiceConfiguration(region: AWSRegionUSEast2, credentialsProvider: nil)
AWSRekognition.register(with: configuration, forKey: key)
AWSRekognition(for: key).compareFaces(AWSRekognitionCompareFacesRequest()).continue(withBlock: {(_ task: AWSTask) -> Any in
print("completed")
关于ios - 如何使用 AWS Rekognition 在 Swift 3 中比较人脸,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/46483447/
我正在使用 AWS Rekognition 构建应用程序,我意识到每次我向服务发出请求时,都会重新建立与 AWS 的连接,这会降低性能。有什么方法可以建立在整个 session 期间持续存在的单一连接
我正在使用 boto3 调用识别的检测标签方法,该方法将图像(以 base64 编码字节的形式)作为输入。但是我不断收到 InvalidImageFormatException ,我不明白为什么。我已
Amazon Rekognition Celebrity Detection Ios:通过相机和照片库使用提供的图像完成人脸检测。 尝试使用视频(来自 bundle 或实时 URL)进行管理,以检测视
我正在尝试从我的网络摄像头向 aws rekognition 发送图片,以使用 python 检测坐在它前面的人的事件。 为此,我每 5 秒拍一张照片并将其发送到 aws。但是当我这样做时,他似乎总是
我目前正在移植一个用 Swift 构建的 iOS 应用程序。很快,我们可以通过以下方式进行重新识别调用: 将包导入到 podfile 后首先初始化客户端: rekognitionClient = AW
The docs在 detect_faces 的响应中提及 AgeRange。 但是,使用 Python SDK (boto3),我无法在响应中看到它。 我错过了什么吗?该功能是否在文档中但尚未投入生
我正尝试按照 AWS 文档中的说明使用 AWS Rekognition 通过 Python boto3 比较人脸。 我的 API 调用是: client = boto3.client('rekogni
我创建了一组图像,这些图像都是个人的面孔。现在我的要求是拍摄一个包含多人的图像,并根据创建的集合在此图像中找到人。 但是 SearchFacesByImage API 从输入图像中只提取了 1 张面孔
我有收据的图像,我想单独存储图像中的文本。是否可以使用 Amazon Rekognition 从图像中检测文本? 最佳答案 2017 年 11 月更新: Amazon Rekognition anno
使用 React 构建简单的 AWS Rekognition 演示,使用 获取Invalid image encoding错误。 let file = e.target.files[0]; let
尝试使用 aws rekognition 访问我的 s3 存储桶时出现以下错误: message: 'Unable to get object metadata from S3. Check obje
我尝试将 AWS 识别与 Java SDK 结合使用。我有下面的代码,但它抛出异常: private static final EnvironmentVariableCredentialsPr
我正在创建一个识别人的深层项目,当一组人被相机扫描时。 该项目使用 lambda,它处理图像并触发“rekognition”aws api。 在 AWS lambda 控制台(具有 1.8.9 bot
关于图像中 AWS iOS 文本识别的文档似乎很少甚至没有。我已经完成了 AWS 创建 IAM 的过程,并获得了执行 Rekognition 等权限,我从该配置文件在 AWS 上创建了我的“移动应用程
我正在尝试使用 AWS Image Rekognition API 检测图像中的人脸。但是出现以下错误: 错误1: ClientError: An error occurred (InvalidS3O
AWS Rekognition Javascript API声明对于 rekognition.compareFaces(params,...)方法中,SourceImage 和 TargetImage
我正在使用和启动 Amazon Rekognition 对我使用 python 上传到我的 S3 的视频。每个视频都使用 FFMPEG 转换为 AAC音频编解码器和 H264视频编解码器,然后提供给
如何确定何时使用Amazon Textract和Amazon Rekognition的TextDetect方法? 我的用例是来自移动设备的点击图片,然后将图像数据转换为文本并存储到AWS RDS中。
我一直在使用 Amazon 的新 rekognition API,但在运行其 example 时遇到问题来自 IntelliJ 的 Java 应用程序。我使用 Maven 构建项目,并将 AWS SD
我在将图像发送到 AWS Rekognition 进行识别时遇到错误。这是我使用的代码: val byteBuffer = ByteBuffer.allocate(facePictur
我是一名优秀的程序员,十分优秀!