- objective-c - iOS 5 : Can you override UIAppearance customisations in specific classes?
- iphone - 如何将 CGFontRef 转换为 UIFont?
- ios - 以编程方式关闭标记的信息窗口 google maps iOS
- ios - Xcode 5 - 尝试验证存档时出现 "No application records were found"
我使用下面的代码在视频上添加图像叠加层,然后将新生成的视频导出到文档目录。但奇怪的是,视频会旋转 90 度。
- (void)buildTransitionComposition:(AVMutableComposition *)composition andVideoComposition:(AVMutableVideoComposition *)videoComposition
{
CMTime nextClipStartTime = kCMTimeZero;
NSInteger i;
// Make transitionDuration no greater than half the shortest clip duration.
CMTime transitionDuration = self.transitionDuration;
for (i = 0; i < [_clips count]; i++ ) {
NSValue *clipTimeRange = [_clipTimeRanges objectAtIndex:i];
if (clipTimeRange) {
CMTime halfClipDuration = [clipTimeRange CMTimeRangeValue].duration;
halfClipDuration.timescale *= 2; // You can halve a rational by doubling its denominator.
transitionDuration = CMTimeMinimum(transitionDuration, halfClipDuration);
}
}
// Add two video tracks and two audio tracks.
AVMutableCompositionTrack *compositionVideoTracks[2];
AVMutableCompositionTrack *compositionAudioTracks[2];
compositionVideoTracks[0] = [composition addMutableTrackWithMediaType:AVMediaTypeVideo preferredTrackID:kCMPersistentTrackID_Invalid];
compositionVideoTracks[1] = [composition addMutableTrackWithMediaType:AVMediaTypeVideo preferredTrackID:kCMPersistentTrackID_Invalid];
compositionAudioTracks[0] = [composition addMutableTrackWithMediaType:AVMediaTypeAudio preferredTrackID:kCMPersistentTrackID_Invalid];
compositionAudioTracks[1] = [composition addMutableTrackWithMediaType:AVMediaTypeAudio preferredTrackID:kCMPersistentTrackID_Invalid];
CMTimeRange *passThroughTimeRanges = alloca(sizeof(CMTimeRange) * [_clips count]);
CMTimeRange *transitionTimeRanges = alloca(sizeof(CMTimeRange) * [_clips count]);
// Place clips into alternating video & audio tracks in composition, overlapped by transitionDuration.
for (i = 0; i < [_clips count]; i++ ) {
NSInteger alternatingIndex = i % 2; // alternating targets: 0, 1, 0, 1, ...
AVURLAsset *asset = [_clips objectAtIndex:i];
NSValue *clipTimeRange = [_clipTimeRanges objectAtIndex:i];
CMTimeRange timeRangeInAsset;
if (clipTimeRange)
timeRangeInAsset = [clipTimeRange CMTimeRangeValue];
else
timeRangeInAsset = CMTimeRangeMake(kCMTimeZero, [asset duration]);
AVAssetTrack *clipVideoTrack = [[asset tracksWithMediaType:AVMediaTypeVideo] objectAtIndex:0];
[compositionVideoTracks[alternatingIndex] insertTimeRange:timeRangeInAsset ofTrack:clipVideoTrack atTime:nextClipStartTime error:nil];
/*
CGAffineTransform t = clipVideoTrack.preferredTransform;
NSLog(@"Transform1 : %@",t);
*/
AVAssetTrack *clipAudioTrack = [[asset tracksWithMediaType:AVMediaTypeAudio] objectAtIndex:0];
[compositionAudioTracks[alternatingIndex] insertTimeRange:timeRangeInAsset ofTrack:clipAudioTrack atTime:nextClipStartTime error:nil];
// Remember the time range in which this clip should pass through.
// Every clip after the first begins with a transition.
// Every clip before the last ends with a transition.
// Exclude those transitions from the pass through time ranges.
passThroughTimeRanges[i] = CMTimeRangeMake(nextClipStartTime, timeRangeInAsset.duration);
if (i > 0) {
passThroughTimeRanges[i].start = CMTimeAdd(passThroughTimeRanges[i].start, transitionDuration);
passThroughTimeRanges[i].duration = CMTimeSubtract(passThroughTimeRanges[i].duration, transitionDuration);
}
if (i+1 < [_clips count]) {
passThroughTimeRanges[i].duration = CMTimeSubtract(passThroughTimeRanges[i].duration, transitionDuration);
}
// The end of this clip will overlap the start of the next by transitionDuration.
// (Note: this arithmetic falls apart if timeRangeInAsset.duration < 2 * transitionDuration.)
nextClipStartTime = CMTimeAdd(nextClipStartTime, timeRangeInAsset.duration);
nextClipStartTime = CMTimeSubtract(nextClipStartTime, transitionDuration);
// Remember the time range for the transition to the next item.
transitionTimeRanges[i] = CMTimeRangeMake(nextClipStartTime, transitionDuration);
}
// Set up the video composition if we are to perform crossfade or push transitions between clips.
NSMutableArray *instructions = [NSMutableArray array];
// Cycle between "pass through A", "transition from A to B", "pass through B", "transition from B to A".
for (i = 0; i < [_clips count]; i++ ) {
NSInteger alternatingIndex = i % 2; // alternating targets
// Pass through clip i.
AVMutableVideoCompositionInstruction *passThroughInstruction = [AVMutableVideoCompositionInstruction videoCompositionInstruction];
passThroughInstruction.timeRange = passThroughTimeRanges[i];
AVMutableVideoCompositionLayerInstruction *passThroughLayer = [AVMutableVideoCompositionLayerInstruction videoCompositionLayerInstructionWithAssetTrack:compositionVideoTracks[alternatingIndex]];
/*
CGAffineTransform rotationTransform = CGAffineTransformMakeRotation(M_PI_2);
CGAffineTransform rotateTranslate = CGAffineTransformTranslate(rotationTransform,320,0);
[passThroughLayer setTransform:rotateTranslate atTime:kCMTimeZero];
*/
passThroughInstruction.layerInstructions = [NSArray arrayWithObject:passThroughLayer];
[instructions addObject:passThroughInstruction];
if (i+1 < [_clips count]) {
// Add transition from clip i to clip i+1.
AVMutableVideoCompositionInstruction *transitionInstruction = [AVMutableVideoCompositionInstruction videoCompositionInstruction];
transitionInstruction.timeRange = transitionTimeRanges[i];
AVMutableVideoCompositionLayerInstruction *fromLayer = [AVMutableVideoCompositionLayerInstruction videoCompositionLayerInstructionWithAssetTrack:compositionVideoTracks[alternatingIndex]];
AVMutableVideoCompositionLayerInstruction *toLayer = [AVMutableVideoCompositionLayerInstruction videoCompositionLayerInstructionWithAssetTrack:compositionVideoTracks[1-alternatingIndex]];
if (self.transitionType == SimpleEditorTransitionTypeCrossFade) {
// Fade out the fromLayer by setting a ramp from 1.0 to 0.0.
[fromLayer setOpacityRampFromStartOpacity:1.0 toEndOpacity:0.0 timeRange:transitionTimeRanges[i]];
}
else if (self.transitionType == SimpleEditorTransitionTypePush) {
// Set a transform ramp on fromLayer from identity to all the way left of the screen.
[fromLayer setTransformRampFromStartTransform:CGAffineTransformIdentity toEndTransform:CGAffineTransformMakeTranslation(-composition.naturalSize.width, 0.0) timeRange:transitionTimeRanges[i]];
// Set a transform ramp on toLayer from all the way right of the screen to identity.
[toLayer setTransformRampFromStartTransform:CGAffineTransformMakeTranslation(+composition.naturalSize.width, 0.0) toEndTransform:CGAffineTransformIdentity timeRange:transitionTimeRanges[i]];
}
transitionInstruction.layerInstructions = [NSArray arrayWithObjects:fromLayer, toLayer, nil];
[instructions addObject:transitionInstruction];
}
}
videoComposition.instructions = instructions;
}
请帮忙,因为我无法以正确的模式导出肖像视频。感谢任何帮助。谢谢。
最佳答案
默认情况下,当您使用 AVAssetExportSession 导出视频时,视频将从其原始方向旋转。你必须应用它的转换来设置它的精确方向。你可以尝试下面的代码来做同样的事情。
- (AVMutableVideoCompositionLayerInstruction *)layerInstructionAfterFixingOrientationForAsset:(AVAsset *)inAsset
forTrack:(AVMutableCompositionTrack *)inTrack
atTime:(CMTime)inTime
{
//FIXING ORIENTATION//
AVMutableVideoCompositionLayerInstruction *videolayerInstruction = [AVMutableVideoCompositionLayerInstruction videoCompositionLayerInstructionWithAssetTrack:inTrack];
AVAssetTrack *videoAssetTrack = [[inAsset tracksWithMediaType:AVMediaTypeVideo] objectAtIndex:0];
UIImageOrientation videoAssetOrientation_ = UIImageOrientationUp;
BOOL isVideoAssetPortrait_ = NO;
CGAffineTransform videoTransform = videoAssetTrack.preferredTransform;
if(videoTransform.a == 0 && videoTransform.b == 1.0 && videoTransform.c == -1.0 && videoTransform.d == 0) {videoAssetOrientation_= UIImageOrientationRight; isVideoAssetPortrait_ = YES;}
if(videoTransform.a == 0 && videoTransform.b == -1.0 && videoTransform.c == 1.0 && videoTransform.d == 0) {videoAssetOrientation_ = UIImageOrientationLeft; isVideoAssetPortrait_ = YES;}
if(videoTransform.a == 1.0 && videoTransform.b == 0 && videoTransform.c == 0 && videoTransform.d == 1.0) {videoAssetOrientation_ = UIImageOrientationUp;}
if(videoTransform.a == -1.0 && videoTransform.b == 0 && videoTransform.c == 0 && videoTransform.d == -1.0) {videoAssetOrientation_ = UIImageOrientationDown;}
CGFloat FirstAssetScaleToFitRatio = 320.0 / videoAssetTrack.naturalSize.width;
if(isVideoAssetPortrait_) {
FirstAssetScaleToFitRatio = 320.0/videoAssetTrack.naturalSize.height;
CGAffineTransform FirstAssetScaleFactor = CGAffineTransformMakeScale(FirstAssetScaleToFitRatio,FirstAssetScaleToFitRatio);
[videolayerInstruction setTransform:CGAffineTransformConcat(videoAssetTrack.preferredTransform, FirstAssetScaleFactor) atTime:kCMTimeZero];
}else{
CGAffineTransform FirstAssetScaleFactor = CGAffineTransformMakeScale(FirstAssetScaleToFitRatio,FirstAssetScaleToFitRatio);
[videolayerInstruction setTransform:CGAffineTransformConcat(CGAffineTransformConcat(videoAssetTrack.preferredTransform, FirstAssetScaleFactor),CGAffineTransformMakeTranslation(0, 160)) atTime:kCMTimeZero];
}
[videolayerInstruction setOpacity:0.0 atTime:inTime];
return videolayerInstruction;
}
希望对您有所帮助。
AVAssetTrack *assetTrack = [[inAsset tracksWithMediaType:AVMediaTypeVideo] objectAtIndex:0];
AVMutableCompositionTrack *mutableTrack = [mergeComposition mutableTrackCompatibleWithTrack:assetTrack];
AVMutableVideoCompositionLayerInstruction *assetInstruction = [self layerInstructionAfterFixingOrientationForAsset:inAsset forTrack:myLocalVideoTrack atTime:videoTotalDuration];
上面是调用上述方法的代码,其中 inAsset
是您的视频 Assets ,videoTotalDuration
是您在 CMTime.mergeComposition
中的视频总时长是AVMutableComposition
类的对象。
希望这会有所帮助。
编辑:这不是任何回调方法或事件,您必须使用上面提到的所需参数按预期调用它。
关于iphone - AVMutableVideoComposition 以纵向模式捕获的旋转视频,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/12136841/
关闭。这个问题不符合Stack Overflow guidelines .它目前不接受答案。 这个问题似乎是题外话,因为它缺乏足够的信息来诊断问题。 更详细地描述您的问题或include a mi
如何将我的 phonegap 应用程序的方向锁定为纵向? 我当前的 config.xml正在使用此首选项: 但这没有什么区别,我仍然可以通过旋转我的移动测试设备来在两个方向上定位我的应用程序。 此外
我正在用Xcode 7开发一个iPhone应用程序,该应用程序只能以纵向模式打开。我的问题是我是否还需要为横向模式提供启动/启动/默认屏幕,或者以各种纵向模式提供它就足够了吗? 最佳答案 我认为只添加
我正在试用 BluetoothChat sample ,问题是,当您在纵向/横向模式之间切换时,它会断开连接。我需要做什么才能通过该更改来维护连接和数据? 最佳答案 几个选项: 将所有蓝牙通信位移动到
所以我仍在学习移动设备的 css/html。我有一个网站,在桌面上看起来不错。当您在移动设备上将其拉起时,菜单消失了。如果你进入景观模式,菜单就会出现。对原因有什么帮助吗? 菜单代码。
我们的 React 应用程序有大约 10 个不同的路由,我们希望它们都可以打印。我们正在使用 css 打印媒体查询来清理样式以进行打印,并且前端有一个调用 window.print() 的按钮。单击时
我想让我的按钮为我的纵向 View 和横向 View 以不同的方式排列。我还希望能够将现在可能在我的纵向 View 中的东西添加到我的横向 View 中。我知道这是可能的原因显然是每部 iphone
我正在使用 jQuery 为交互式网站触发不同的 css 转换,例如单击时将对象 A 移动到位置 1。现在这些选项在不同的视口(viewport)上应该是不同的。 虽然在 css 中使用类很容易实现这
我正在开发一个画廊,我想根据图片方向自动旋转 View 。例如,两张照片: 1200 宽 x 800 高像素 550 宽 x 800 高像素 现在要确定哪个是肖像,我只需要检查是否高度>宽度?这是唯一
我有一个简单的幻灯片(列表项),但结合了纵向和横向图像。我在流体网格上工作,所以一切基本上都是 100% 的。 我想知道是否有一种方法可以让所有图像保持相同的高度,但宽度保持符合它们的比例。所有图片在
我想仅在平板电脑中为我的应用程序启用屏幕方向更改,同时将手机中的布局限制为仅纵向。你是怎么做到的? 最佳答案 无论如何,请阅读this .它应该给你一个关于如何去做的想法。 标签允许您声明您希望您的应
我正在使用 UIImagePickerController 拍摄和编辑照片。它在风景中工作正常,但在肖像中它会将图片裁剪成正方形(不允许像在风景中那样缩小图像以完全适合方形裁剪区域。有什么想法吗? 代
根据产品要求,我必须将应用程序的方向保持为手机纵向和平板电脑横向。在调用 super.onCreate() 之前,使用以下代码为 onCreate() 回调中的每个 Activity 设置方向 pub
我的网站在 iPad 上显示不正确 - 纵向模式。它在横向模式下看起来很好,但是当我将它变成纵向模式时,我最终得到一个凌乱的网站。所有元素散布在整个站点。我怎样才能解决这个问题?请帮我。 这是我网站的
我已经为网页设置了背景,并且通过提供媒体查询来响应它。当我在 ipadpeek.com 上查看结果时(请查看网站 here 一次以查看原始纵向模式背景和横向模式背景) 对于 ipad 的分辨率,它在横
即使我的设备旋转(纵向->横向->纵向),我也需要始终以横向模式录制视频。 取角度很简单,我用的是hyroscope。我的问题是总是横向录制视频。需要任何建议。 我正在使用 AVCaptureSess
我正在从 PHAsset 中获取视频,以便用户可以选择视频并导入以执行编辑。但是用户应该只能选择横向视频,如果用户选择纵向视频,她/他会收到警告消息,说明其纵向视频因此无法导入进行编辑。 实现此目的的
如果你去here在 iPad 上,点击 Chapter1 > Chapter 1 > Get started... 您将在加载屏幕后看到第 1 章页面。 基本上,这是将 html 嵌入到由 HTML5
我有一个可以纵向或横向启动的应用程序。我希望 Default.png 文件(应用程序启动时出现的初始图像)以正确的方向显示图像,因此我希望我需要使用两个不同的图像(不同尺寸)。但是,我不知道如何让应用
我正在寻找一个脚本来检测屏幕是横向还是纵向,而无需旋转手机(如果需要,则为初始屏幕尺寸),以便在游戏为横向游戏时显示图像以旋转设备(并且页面的初始加载是纵向的)。 我找到了很多有关“方向更改”事件的信
我是一名优秀的程序员,十分优秀!