之前各种事情在身,发现好久没更新文章了,临近年末,就把最近做的视频处理相关的内容整理一下吧~

最近在做视频编辑处理相关的开发,其中之一就是音视频合成,需求是用户可以选择将相册中的视频,然后将一段音乐片段加入其中,并可以实时调整视频原声以及添加的音乐音量,最后合成为一个视频。

分析

首先对于视频处理,万能的ffmpeg肯定可以实现,但依赖ffmpeg并用一段magic一样的语句维护扩展都十分有限,对ffmpeg结构不熟悉的话大量c的api也会无从下手,适合熟悉ffmpeg并且对AVFoundation陌生者使用。

其次的最优方案就是AVFoundation了,作为苹果音视频编辑的利器可谓十分强大,官方有一 demo利用AVAudioEngine来实现音频的混音,甚至可以对pcm数据进行编辑,但是缺点也很明显:1 和视频没什么关系,还得启一个AVAudioPlayerNode来播放(那还不如单独用AVAudioPlayer得了) 2 并没有对音频如“美声,变音”之类的需求。所以不作为考虑范围,不过可以实现一些特殊音效还是很厉害的,感兴趣可以下来官方demo-Using AVAudioEngine for Playback, Mixing and Recording (AVAEMixerSample) 看看。

我最后选用的方案就是AVAudioMix,熟悉AVPlayer以及AVPlayerItem的话可能会注意到AVAudioMix 是作为属性存在于AVPlayerItem的分类中。

/*!
 @property audioMix
 @abstract Indicates the audio mix parameters to be applied during playback
 @discussion
  The inputParameters of the AVAudioMix must have trackIDs that correspond to a track of the receiver's asset. Otherwise they will be ignored. (See AVAudioMix.h for the declaration of AVAudioMixInputParameters and AVPlayerItem's asset property.)
 */
@property (nonatomic, copy, nullable) AVAudioMix *audioMix;

"Indicates the audio mix parameters to be applied during playback" 表明audioMix是可以在播放的时设置,需要注意的就是trackID需要对应。

补充:可能有人觉得最简单的是同时创建一个AVPlayer负责播放视频,一个AVAudioPlayer播放音乐;当然这种方法是可以实现基本需求,但完美出同步这俩个播放器的状态会是一个问题,而且最终还是要经历混音写文件过程,从逻辑上看十分糟糕。

播放实现

为了表述清晰下面省略AVPlayer等没太大关系的代码,同样也可以下载我的 demo 来查看所有内容。

流程如下:
1 创建视频以及音频的AVURLAsset

AVURLAsset *videoAsset = [AVURLAsset assetWithURL:[NSURL fileURLWithPath:[[NSBundle mainBundle] pathForResource:@"demo" ofType:@"mp4"]]];
AVURLAsset *musicAsset = [AVURLAsset assetWithURL:[NSURL fileURLWithPath:[[NSBundle mainBundle] pathForResource:@"music" ofType:@"mp3"]]];

2 声明并实例化音视频处理的核心类

@property (nonatomic, readwrite, strong) AVMutableComposition *composition;
@property (nonatomic, readwrite, strong) AVMutableVideoComposition *videoComposition;
@property (nonatomic, readwrite, strong) AVMutableAudioMix *audioMix;
AVMutableComposition *composition = [AVMutableComposition composition];
AVMutableVideoComposition *videoComposition = [AVMutableVideoComposition videoComposition];
AVMutableAudioMix *audioMix = [AVMutableAudioMix audioMix];

3 创建1条视频处理轨道以及2条音频处理轨道(视频原声 添加的音乐这俩条音轨)

AVMutableCompositionTrack *compositionVideoTracks = [composition addMutableTrackWithMediaType:AVMediaTypeVideo preferredTrackID:kCMPersistentTrackID_Invalid];
AVMutableCompositionTrack *compositionAudioTracks[2];
compositionAudioTracks[0] = [composition addMutableTrackWithMediaType:AVMediaTypeAudio preferredTrackID:kCMPersistentTrackID_Invalid];
compositionAudioTracks[1] = [composition addMutableTrackWithMediaType:AVMediaTypeAudio preferredTrackID:kCMPersistentTrackID_Invalid];

4 根据之前创建好的视频以及音频资源(AVURLAsset)实例化一条视频轨道以及2条音频轨道

AVAssetTrack *videoTrack = [[asset tracksWithMediaType:AVMediaTypeVideo] objectAtIndex:0];
[compositionVideoTracks insertTimeRange:self.videoTimeRange ofTrack:videoTrack atTime:kCMTimeZero error:&error];
    
AVAssetTrack *audioTrack = [[asset tracksWithMediaType:AVMediaTypeAudio] objectAtIndex:0];
[_comTrack1 insertTimeRange:self.videoTimeRange ofTrack:audioTrack atTime:kCMTimeZero error:&error];
    
AVAssetTrack *musicTrack = [[self.musicAsset tracksWithMediaType:AVMediaTypeAudio] objectAtIndex:0];
[_comTrack2 insertTimeRange:self.videoTimeRange ofTrack:musicTrack atTime:kCMTimeZero error:&error];

5 配置AVMutableAudioMix参数,注意这里的trackID一定得是上面创建的AVMutableCompositionTrack对应的trackID,而不是AVAssetTrack中的trackID,之前使用AVAssetTrack出过很奇怪的问题,而后在StackOverFlow上找到了这个解决方案

 NSMutableArray<AVAudioMixInputParameters *> *trackMixArray = [NSMutableArray<AVAudioMixInputParameters *> array];
  {
    AVMutableAudioMixInputParameters *trackMix1 = [AVMutableAudioMixInputParameters audioMixInputParametersWithTrack:_comTrack1];
    trackMix1.trackID = _comTrack1.trackID;
    [trackMix1 setVolume:_videoVolume atTime:kCMTimeZero];
    [trackMixArray addObject:trackMix1];
    
    AVMutableAudioMixInputParameters *trackMix2 = [AVMutableAudioMixInputParameters audioMixInputParametersWithTrack:_comTrack2];
    trackMix2.trackID = _comTrack2.trackID;
    [trackMix2 setVolume:_musicVolume atTime:kCMTimeZero];
    [trackMixArray addObject:trackMix2];
  }
  
 audioMix.inputParameters = trackMixArray;

6 构建AVPlayerItem, 设置asset以及最重要的audioMix,然后交给AVPlayer就可以同时播放视频与音乐了!

- (AVPlayerItem *)playerItem {
  if (!_currentItem) {
    AVPlayerItem *playerItem = [AVPlayerItem playerItemWithAsset:self.composition];
    playerItem.videoComposition = self.videoComposition;
    playerItem.audioMix = self.audioMix;
    _currentItem = playerItem;
  }
  return _currentItem;
}

7 播放时调整音量,这里其实和第5步一样,重新配置AVMutableAudioMix参数后赋值给AVPlayerItem,设置音乐音量同理

- (void)setVideoVolume:(CGFloat)volume {
  NSMutableArray *allAudioParams = [NSMutableArray array];
  
  AVMutableAudioMixInputParameters *audioInputParams =
  [AVMutableAudioMixInputParameters audioMixInputParameters];
  [audioInputParams setTrackID:_comTrack1.trackID];
  _videoVolume = volume;
  [audioInputParams setVolume:_videoVolume atTime:kCMTimeZero];
  [allAudioParams addObject:audioInputParams];
  
  AVMutableAudioMixInputParameters *audioInputParams2 =
  [AVMutableAudioMixInputParameters audioMixInputParameters];
  [audioInputParams2 setTrackID:_comTrack2.trackID];
  [audioInputParams2 setVolume:_musicVolume atTime:kCMTimeZero];
  [allAudioParams addObject:audioInputParams2];
  
  AVMutableAudioMix *audioMix = [AVMutableAudioMix audioMix];
  [audioMix setInputParameters:allAudioParams];
  
  [_currentItem setAudioMix:audioMix];
}

导出实现

这里直接使用AVAssetExportSession来导出视频,与设置AVPlayerItem的audioMix属性相同,将audioMix设置给AVAssetExportSession实例即可导出混合的视频了

  NSURL *outputFileUrl = [NSURL fileURLWithPath:outputPath];  
  AVAssetExportSession *_assetExport =[[AVAssetExportSession alloc]initWithAsset:self.composition presetName:AVAssetExportPreset1280x720];
  _assetExport.outputFileType = AVFileTypeMPEG4;
  _assetExport.audioMix = _currentItem.audioMix;
  _assetExport.outputURL = outputFileUrl;
  _assetExport.shouldOptimizeForNetworkUse = YES;  
  [_assetExport exportAsynchronouslyWithCompletionHandler:^{
    //
  }];

最后贴上Demo地址 https://github.com/lucifron1994/VideoMixAudioDemo

以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持Devmax。

iOS视频编辑之添加音轨的方法的更多相关文章

  1. HTML5在微信内置浏览器下右上角菜单的调整字体导致页面显示错乱的问题

    HTML5在微信内置浏览器下,在右上角菜单的调整字体导致页面显示错乱的问题,本文给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的朋友参考下吧

  2. iOS实现拖拽View跟随手指浮动效果

    这篇文章主要为大家详细介绍了iOS实现拖拽View跟随手指浮动,文中示例代码介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们可以参考一下

  3. ios – containerURLForSecurityApplicationGroupIdentifier:在iPhone和Watch模拟器上给出不同的结果

    我使用默认的XCode模板创建了一个WatchKit应用程序.我向iOSTarget,WatchkitAppTarget和WatchkitAppExtensionTarget添加了应用程序组权利.(这是应用程序组名称:group.com.lombax.fiveminutes)然后,我尝试使用iOSApp和WatchKitExtension访问共享文件夹URL:延期:iOS应用:但是,测试NSURL

  4. ios – Testflight无法安装应用程序

    我有几个测试人员注册了testflight并连接了他们的设备……他们有不同的ios型号……但是所有这些都有同样的问题.当他们从“safari”或“testflight”应用程序本身单击应用程序的安装按钮时……达到约90%并出现错误消息…

  5. ibm-mobilefirst – 在iOS 7.1上获取“无法安装应用程序,因为证书无效”错误

    当我的客户端将他们的设备更新到iOS7.1,然后尝试从AppCenter更新我们的应用程序时,我收到了上述错误.经过一番搜索,我找到了一个类似问题的帖子here.但是后来因为我在客户端使用AppCenter更新应用程序的环境中,我无法使用USB插件并为他们安装应用程序.在发布支持之前,是否有通过AppCenter进行下载的解决方法?

  6. ios – 视图的简单拖放?

    我正在学习iOS,但我找不到如何向UIView添加拖放行为.我试过了:它说“UIView没有可见的接口声明选择器addTarget”此外,我尝试添加平移手势识别器,但不确定这是否是我需要的它被称为,但不知道如何获得事件的坐标.在iOS中注册移动事件回调/拖放操作的标准简单方法是什么?

  7. ios – 什么控制iTunes中iPhone应用程序支持的语言列表?

    什么控制iPhone应用程序的iTunes页面中支持的语言?

  8. ios – 获得APNs响应BadDeviceToken或Unregistered的可能原因是什么?

    我知道设备令牌在某些时候是有效的.用户如何使其设备令牌变坏?从关于“未注册”的文档:Thedevicetokenisinactiveforthespecifiedtopic.这是否意味着应用程序已被删除?.您应该看到四种分发方法:如果您选择AppStore或Enterprise,您将在后面的对话框中看到Xcode将APNS权利更改为生产:如果选择AdHoc或Development,则aps-environment下的文本将是开发,然后应与后端的配置匹配.

  9. ios – 当我关闭应用程序时,我从调试器获得消息:由于信号15而终止

    我怎么能解决这个问题,我不知道这个链接MypreviousproblemaboutCoredata对我的问题有影响吗?当我cmd应用程序的Q时,将出现此消息.Messagefromdebugger:Terminatedduetosignal15如果谁知道我以前的问题的解决方案,请告诉我.解决方法>来自调试器的消息:每当用户通过CMD-Q(退出)或STOP手动终止应用程序(无论是在iOS模拟器中还是

  10. ios – NSUbiquityIdentityDidChangeNotification和SIGKILL

    当应用程序被发送到后台时,我们会删除观察者吗?我遇到的问题是,当UbiquityToken发生变化时,应用程序终止,因为用户已经更改了iCloud设置.你们如何设法订阅这个通知,如果你不这样做,你会做什么来跟踪当前登录的iCloud用户?

随机推荐

  1. iOS实现拖拽View跟随手指浮动效果

    这篇文章主要为大家详细介绍了iOS实现拖拽View跟随手指浮动,文中示例代码介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们可以参考一下

  2. iOS – genstrings:无法连接到输出目录en.lproj

    使用我桌面上的项目文件夹,我启动终端输入:cd然后将我的项目文件夹拖到终端,它给了我路径.然后我将这行代码粘贴到终端中找.-name*.m|xargsgenstrings-oen.lproj我在终端中收到此错误消息:genstrings:无法连接到输出目录en.lproj它多次打印这行,然后说我的项目是一个目录的路径?没有.strings文件.对我做错了什么的想法?

  3. iOS 7 UIButtonBarItem图像没有色调

    如何确保按钮图标采用全局色调?解决方法只是想将其转换为根注释,以便为“回答”复选标记提供更好的上下文,并提供更好的格式.我能想出这个!

  4. ios – 在自定义相机层的AVFoundation中自动对焦和自动曝光

    为AVFoundation定制图层相机创建精确的自动对焦和曝光的最佳方法是什么?

  5. ios – Xcode找不到Alamofire,错误:没有这样的模块’Alamofire’

    我正在尝试按照github(https://github.com/Alamofire/Alamofire#cocoapods)指令将Alamofire包含在我的Swift项目中.我创建了一个新项目,导航到项目目录并运行此命令sudogeminstallcocoapods.然后我面临以下错误:搜索后我设法通过运行此命令安装cocoapodssudogeminstall-n/usr/local/bin

  6. ios – 在没有iPhone6s或更新的情况下测试ARKit

    我在决定下载Xcode9之前.我想玩新的框架–ARKit.我知道要用ARKit运行app我需要一个带有A9芯片或更新版本的设备.不幸的是我有一个较旧的.我的问题是已经下载了新Xcode的人.在我的情况下有可能运行ARKit应用程序吗?那个或其他任何模拟器?任何想法或我将不得不购买新设备?解决方法任何iOS11设备都可以使用ARKit,但是具有高质量AR体验的全球跟踪功能需要使用A9或更高版本处理器的设备.使用iOS11测试版更新您的设备是必要的.

  7. 将iOS应用移植到Android

    我们制作了一个具有2000个目标c类的退出大型iOS应用程序.我想知道有一个最佳实践指南将其移植到Android?此外,由于我们的应用程序大量使用UINavigation和UIView控制器,我想知道在Android上有类似的模型和实现.谢谢到目前为止,guenter解决方法老实说,我认为你正在计划的只是制作难以维护的糟糕代码.我意识到这听起来像很多工作,但从长远来看它会更容易,我只是将应用程序的概念“移植”到android并从头开始编写.

  8. ios – 在Swift中覆盖Objective C类方法

    我是Swift的初学者,我正在尝试在Swift项目中使用JSONModel.我想从JSONModel覆盖方法keyMapper,但我没有找到如何覆盖模型类中的Objective-C类方法.该方法的签名是:我怎样才能做到这一点?解决方法您可以像覆盖实例方法一样执行此操作,但使用class关键字除外:

  9. ios – 在WKWebView中获取链接URL

    我想在WKWebView中获取tapped链接的url.链接采用自定义格式,可触发应用中的某些操作.例如HTTP://我的网站/帮助#深层链接对讲.我这样使用KVO:这在第一次点击链接时效果很好.但是,如果我连续两次点击相同的链接,它将不报告链接点击.是否有解决方法来解决这个问题,以便我可以检测每个点击并获取链接?任何关于这个的指针都会很棒!解决方法像这样更改addobserver在observeValue函数中,您可以获得两个值

  10. ios – 在Swift的UIView中找到UILabel

    我正在尝试在我的UIViewControllers的超级视图中找到我的UILabels.这是我的代码:这是在Objective-C中推荐的方式,但是在Swift中我只得到UIViews和CALayer.我肯定在提供给这个方法的视图中有UILabel.我错过了什么?我的UIViewController中的调用:解决方法使用函数式编程概念可以更轻松地实现这一目标.

返回
顶部