- iOS/Objective-C 元类和类别
- objective-c - -1001 错误,当 NSURLSession 通过 httpproxy 和/etc/hosts
- java - 使用网络类获取 url 地址
- ios - 推送通知中不播放声音
我有一个视觉上相当复杂的应用程序,它有一个基本的 UIViewController 和几个 UIViews(由我子类化和扩展)。我会定期抛出 UIAlertViews 和 UIPopOverControllers。
我正在努力开发一种视频录制解决方案,以便在用户使用该应用程序时,它会记录正在发生的事情以供日后汇报。
我有一个部分有效的解决方案,但它非常慢(每秒不能超过 1 帧),有一些问题(图像当前旋转和倾斜,但我想我可以解决这个问题)这不是我认为的理想解决方案。
我跳出了那个思路,开始实现一个使用 UIGetImageFromCurrentImageContext() 的解决方案,但它一直给我 nil
图像,即使是从 drawRect:
中调用时也是如此>.
不过,我突然想到,我不想一直调用 drawRect:
只是为了截屏!我不想实际启动任何额外的绘图,只是捕捉屏幕上的内容。
我很高兴发布我正在使用的代码,但它还没有真正起作用。有谁知道一个好的解决方案来做我正在寻找的事情?
我找到的一个解决方案并不完全适合我,因为它似乎从未捕获 UIAlertViews 和其他重叠 View 。
有什么帮助吗?
谢谢!
颠簸
最佳答案
我无法进行全尺寸实时视频编码。但是,作为替代方案,请考虑这一点。
不记录帧,而是记录发生的 Action (带有时间戳)。然后,当你想回放时,只需重放 Action 即可。您已经有了代码,因为您在“现实生活”中执行了它。
您所做的就是及时重播这些相同的 Action 。
编辑
如果你想尝试录音,这就是我所做的(注意,我放弃了它......这是一个正在进行的实验,所以就拿它作为我如何接近它的例子......没有什么是生产 -准备好)。我能够以 640x360 的分辨率录制实时音频/视频,但分辨率对我来说太低了。在 iPad 上看起来不错,但当我将视频移到我的 Mac 上观看时就很糟糕了。
我在使用更高的分辨率时遇到了问题。我从 RosyWriter 示例项目中改编了大部分代码。以下是设置 Assets 编写器、开始录制以及将 UIImage 添加到视频流的主要例程。
祝你好运。
CGSize const VIDEO_SIZE = { 640, 360 };
- (void) startRecording
{
dispatch_async(movieWritingQueue, ^{
NSLog(@"startRecording called in state 0x%04x", state);
if (state != STATE_IDLE) return;
state = STATE_STARTING_RECORDING;
NSLog(@"startRecording changed state to 0x%04x", state);
NSError *error;
//assetWriter = [[AVAssetWriter alloc] initWithURL:movieURL fileType:AVFileTypeQuickTimeMovie error:&error];
assetWriter = [[AVAssetWriter alloc] initWithURL:movieURL fileType:AVFileTypeMPEG4 error:&error];
if (error) {
[self showError:error];
}
[self removeFile:movieURL];
[self resumeCaptureSession];
[self.delegate recordingWillStart];
});
}
// TODO: this is where we write an image into the movie stream...
- (void) writeImage:(UIImage*)inImage
{
static CFTimeInterval const minInterval = 1.0 / 10.0;
static CFAbsoluteTime lastFrameWrittenWallClockTime;
CFAbsoluteTime thisFrameWallClockTime = CFAbsoluteTimeGetCurrent();
CFTimeInterval timeBetweenFrames = thisFrameWallClockTime - lastFrameWrittenWallClockTime;
if (timeBetweenFrames < minInterval) return;
// Not really accurate, but we just want to limit the rate we try to write frames...
lastFrameWrittenWallClockTime = thisFrameWallClockTime;
dispatch_async(movieWritingQueue, ^{
if ( !assetWriter ) return;
if ((state & STATE_STARTING_RECORDING) && !(state & STATE_MASK_VIDEO_READY)) {
if ([self setupAssetWriterImageInput:inImage]) {
[self videoIsReady];
}
}
if (state != STATE_RECORDING) return;
if (assetWriter.status != AVAssetWriterStatusWriting) return;
CGImageRef cgImage = CGImageCreateCopy([inImage CGImage]);
if (assetWriterVideoIn.readyForMoreMediaData) {
CVPixelBufferRef pixelBuffer = NULL;
// Resize the original image...
if (!CGSizeEqualToSize(inImage.size, VIDEO_SIZE)) {
// Build a context that's the same dimensions as the new size
CGRect newRect = CGRectIntegral(CGRectMake(0, 0, VIDEO_SIZE.width, VIDEO_SIZE.height));
CGContextRef bitmap = CGBitmapContextCreate(NULL,
newRect.size.width,
newRect.size.height,
CGImageGetBitsPerComponent(cgImage),
0,
CGImageGetColorSpace(cgImage),
CGImageGetBitmapInfo(cgImage));
// Rotate and/or flip the image if required by its orientation
//CGContextConcatCTM(bitmap, transform);
// Set the quality level to use when rescaling
CGContextSetInterpolationQuality(bitmap, kCGInterpolationHigh);
// Draw into the context; this scales the image
//CGContextDrawImage(bitmap, transpose ? transposedRect : newRect, imageRef);
CGContextDrawImage(bitmap, newRect, cgImage);
// Get the resized image from the context and a UIImage
CGImageRef newImageRef = CGBitmapContextCreateImage(bitmap);
CGContextRelease(bitmap);
CGImageRelease(cgImage);
cgImage = newImageRef;
}
CFDataRef image = CGDataProviderCopyData(CGImageGetDataProvider(cgImage));
int status = CVPixelBufferPoolCreatePixelBuffer(kCFAllocatorDefault, self.assetWriterPixelBufferAdaptor.pixelBufferPool, &pixelBuffer);
if(status != 0){
//could not get a buffer from the pool
NSLog(@"Error creating pixel buffer: status=%d", status);
}
// set image data into pixel buffer
CVPixelBufferLockBaseAddress( pixelBuffer, 0 );
uint8_t* destPixels = CVPixelBufferGetBaseAddress(pixelBuffer);
// Danger, Will Robinson!!!!! USE_BLOCK_IN_FRAME warning...
CFDataGetBytes(image, CFRangeMake(0, CFDataGetLength(image)), destPixels);
if(status == 0){
//CFAbsoluteTime thisFrameWallClockTime = CFAbsoluteTimeGetCurrent();
CFTimeInterval elapsedTime = thisFrameWallClockTime - firstFrameWallClockTime;
CMTime presentationTime = CMTimeAdd(firstBufferTimeStamp, CMTimeMake(elapsedTime * TIME_SCALE, TIME_SCALE));
BOOL success = [self.assetWriterPixelBufferAdaptor appendPixelBuffer:pixelBuffer withPresentationTime:presentationTime];
if (!success)
NSLog(@"Warning: Unable to write buffer to video");
}
//clean up
CVPixelBufferUnlockBaseAddress( pixelBuffer, 0 );
CVPixelBufferRelease( pixelBuffer );
CFRelease(image);
CGImageRelease(cgImage);
} else {
NSLog(@"Not ready for video data");
}
});
}
-(BOOL) setupAssetWriterImageInput:(UIImage*)image
{
NSDictionary* videoCompressionProps = [NSDictionary dictionaryWithObjectsAndKeys:
[NSNumber numberWithDouble:1024.0*1024.0], AVVideoAverageBitRateKey,
nil ];
NSDictionary* videoSettings = [NSDictionary dictionaryWithObjectsAndKeys:
AVVideoCodecH264, AVVideoCodecKey,
//[NSNumber numberWithInt:image.size.width], AVVideoWidthKey,
//[NSNumber numberWithInt:image.size.height], AVVideoHeightKey,
[NSNumber numberWithInt:VIDEO_SIZE.width], AVVideoWidthKey,
[NSNumber numberWithInt:VIDEO_SIZE.height], AVVideoHeightKey,
videoCompressionProps, AVVideoCompressionPropertiesKey,
nil];
NSLog(@"videoSettings: %@", videoSettings);
assetWriterVideoIn = [AVAssetWriterInput assetWriterInputWithMediaType:AVMediaTypeVideo outputSettings:videoSettings];
NSParameterAssert(assetWriterVideoIn);
assetWriterVideoIn.expectsMediaDataInRealTime = YES;
NSDictionary* bufferAttributes = [NSDictionary dictionaryWithObjectsAndKeys:
[NSNumber numberWithInt:kCVPixelFormatType_32ARGB], kCVPixelBufferPixelFormatTypeKey, nil];
self.assetWriterPixelBufferAdaptor = [AVAssetWriterInputPixelBufferAdaptor assetWriterInputPixelBufferAdaptorWithAssetWriterInput:assetWriterVideoIn sourcePixelBufferAttributes:bufferAttributes];
//add input
if ([assetWriter canAddInput:assetWriterVideoIn]) {
[assetWriter addInput:assetWriterVideoIn];
}
else {
NSLog(@"Couldn't add asset writer video input.");
return NO;
}
return YES;
}
关于iOS 截图/App 录制技巧,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/9823242/
IO 设备如何知道属于它的内存中的值在memory mapped IO 中发生了变化? ? 例如,假设内存地址 0 专用于保存 VGA 设备的背景颜色。当我们更改 memory[0] 中的值时,VGA
我目前正在开发一个使用Facebook sdk登录(通过FBLoginView)的iOS应用。 一切正常,除了那些拥有较旧版本的facebook的人。 当他们按下“使用Facebook登录”按钮时,他
假设我有: this - is an - example - with some - dashesNSRange将使用`rangeOfString:@“-”拾取“-”的第一个实例,但是如果我只想要最后
Card.io SDK提供以下详细信息: 卡号,有效期,月份,年份,CVV和邮政编码。 如何从此SDK获取国家名称。 - (void)userDidProvideCreditCardInfo:(Car
iOS 应用程序如何从网络服务下载图片并在安装过程中将它们安装到用户的 iOS 设备上?可能吗? 最佳答案 您无法控制应用在用户设备上的安装,因此无法在安装过程中下载其他数据。 只需在安装后首次启动应
我曾经开发过一款企业版 iOS 产品,我们公司曾将其出售给大型企业,供他们的员工使用。 该应用程序通过 AppStore 提供,企业用户获得了公司特定的配置文件(包含应用程序配置文件)以启用他们有权使
我正在尝试将 Card.io SDK 集成到我的 iOS 应用程序中。我想为 CardIO ui 做一个简单的本地化,如更改取消按钮标题或“在此保留信用卡”提示文本。 我在 github 上找到了这个
我正在使用 CardIOView 和 CardIOViewDelegate 类,没有可以设置为 YES 的 BOOL 来扫描 collectCardholderName。我可以看到它在 CardIOP
我有一个集成了通话工具包的 voip 应用程序。每次我从我的 voip 应用程序调用时,都会在 native 电话应用程序中创建一个新的最近通话记录。我在 voip 应用程序中也有自定义联系人(电话应
iOS 应用程序如何知道应用程序打开时屏幕上是否已经有键盘?应用程序运行后,它可以接收键盘显示/隐藏通知。但是,如果应用程序在分屏模式下作为辅助应用程序打开,而主应用程序已经显示键盘,则辅助应用程序不
我在模拟器中收到以下错误: ImageIO: CGImageReadSessionGetCachedImageBlockData *** CGImageReadSessionGetCachedIm
如 Apple 文档所示,可以通过 EAAccessory Framework 与经过认证的配件(由 Apple 认证)进行通信。但是我有点困惑,因为一些帖子告诉我它也可以通过 CoreBluetoo
尽管现在的调试器已经很不错了,但有时找出应用程序中正在发生的事情的最好方法仍然是古老的 NSLog。当您连接到计算机时,这样做很容易; Xcode 会帮助弹出日志查看器面板,然后就可以了。当您不在办公
在我的 iOS 应用程序中,我定义了一些兴趣点。其中一些有一个 Kontakt.io 信标的名称,它绑定(bind)到一个特定的 PoI(我的意思是通常贴在信标标签上的名称)。现在我想在附近发现信标,
我正在为警报提示创建一个 trigger.io 插件。尝试从警报提示返回数据。这是我的代码: // Prompt + (void)show_prompt:(ForgeTask*)task{
您好,我是 Apple iOS 的新手。我阅读并搜索了很多关于推送通知的文章,但我没有发现任何关于 APNS 从 io4 到 ios 6 的新更新的信息。任何人都可以向我提供 APNS 如何在 ios
UITabBar 的高度似乎在 iOS 7 和 8/9/10/11 之间发生了变化。我发布这个问题是为了让其他人轻松找到答案。 那么:在 iPhone 和 iPad 上的 iOS 8/9/10/11
我想我可以针对不同的 iOS 版本使用不同的 Storyboard。 由于 UI 的差异,我将创建下一个 Storyboard: Main_iPhone.storyboard Main_iPad.st
我正在写一些东西,我将使用设备的 iTunes 库中的一部分音轨来覆盖 2 个视频的组合,例如: AVMutableComposition* mixComposition = [[AVMutableC
我创建了一个简单的 iOS 程序,可以顺利编译并在 iPad 模拟器上运行良好。当我告诉 XCode 4 使用我连接的 iPad 设备时,无法编译相同的程序。问题似乎是当我尝试使用附加的 iPad 时
我是一名优秀的程序员,十分优秀!