当前位置:   article > 正文

三.音视频编辑-媒体组合-导出

三.音视频编辑-媒体组合-导出

引言

一个可以播放的媒体组合我们已经创建好了,不过如果不能把这个组合的结果导出那么组合的价值就不那么突出,所以我们还要学习如何将组合的媒体进行导出。

时间处理

有了上篇博客做基础,导出功能就显得容易许多,所以我们在这篇博客中稍微介绍一下在视频编辑以及视频播放中时间和时间范围相关的知识。

CMTime

通常来讲我们在日常开发中都是通过浮点数来表示时间,或者使用NSTimerInterval。实际上,AV Foundation在AVAudioPlayer和AVAudioRecorder中处理时间问题时本身也会使用这个类型。虽然很多通用的开发环境使用双精度表示时间已经足够满足要求了,不过其天然的不精确性导致双精度类型无法应用于更多的高级时基媒体的开发中。比如,一个单一舍入错误就会导致丢帧或音频丢失。相反,苹果公司使用Core Media框架定义的CMTime数据类型作为时间格式。结构如下:

  1. /**
  2. @typedef CMTime
  3. @abstract Rational time value represented as int64/int32.
  4. */
  5. @available(iOS 4.0, *)
  6. public struct CMTime {
  7. public init()
  8. public init(value: CMTimeValue, timescale: CMTimeScale, flags: CMTimeFlags, epoch: CMTimeEpoch)
  9. /**< The value of the CMTime. value/timescale = seconds */
  10. public var value: CMTimeValue
  11. /**< The timescale of the CMTime. value/timescale = seconds. */
  12. public var timescale: CMTimeScale
  13. /**< The flags, eg. kCMTimeFlags_Valid, kCMTimeFlags_PositiveInfinity, etc. */
  14. public var flags: CMTimeFlags
  15. /**< Differentiates between equal timestamps that are actually different because
  16. of looping, multi-item sequencing, etc.
  17. Will be used during comparison: greater epochs happen after lesser ones.
  18. Additions/subtraction is only possible within a single epoch,
  19. however, since epoch length may be unknown/variable */
  20. public var epoch: CMTimeEpoch
  21. }

上面结构中与时间最相关的三个属性分别是:value、timescale、flags。

value-CMTimeValue:64位有符号整型变量。

timescale-CMTimeScale:32位有符号整型变量。

分别是CMTime元素分数形式的分子和分母。

flags-CMTimeFlags:是一个位掩码,用于表示时间的指定状态,比如判断数据是否有效、不确定或是否出现舍入值等。

CMTime实例可标记特定的时间点或用于表示持续时间。

创建CMTime

有多种方法可以创建CMTime实例,不过最常见的方法是使用CMTimeMake函数,指定一个64位的value参数和一个32位的timescale参数。

下面的三种创建方式都表示一个3秒的CMTime。

  1. let time1 = CMTimeMake(value: 3, timescale: 1)
  2. let time2 = CMTimeMake(value: 6, timescale: 2)
  3. let time3 = CMTime(value: 9, timescale: 3)

显示CMTime

使用CMTimeShow函数来显示这些时间。

  1. CMTimeShow(time1)
  2. CMTimeShow(time2)
  3. CMTimeShow(time3)

CMTimeRange

Core Media框架还为时间范围提供了一个数据类型,称为CMTimeRange,它在有关资源编辑的API中扮演着重要角色。CMTimeRange由两个CMTime值组成,第一个值定义时间范围的起点,第二个值定义时间范围的持续时间。

  1. public struct CMTimeRange {
  2. public init()
  3. public init(start: CMTime, duration: CMTime)
  4. /**< The start time of the time range. */
  5. public var start: CMTime
  6. /**< The duration of the time range. */
  7. public var duration: CMTime
  8. }

创建CMTimeRange的一个方法是使用CMTimeRangeMake函数,它的第一个参数是定义时间范围起点的CMTime值,第二个参数是表示范围持续时长的CMTime值。比如,如果我们要创建一个时间范围,从时间轴5秒位置开始,持续时长5秒,则创建方法如下所示:

  1. let fiveSecondsTime = CMTimeMake(value: 5, timescale: 1)
  2. let timeRange = CMTimeRange(start: fiveSecondsTime, duration: fiveSecondsTime)
  3. CMTimeRangeShow(timeRange)

另一种创建时间范围的方法是使用CMTimeRangeFromTimetoTime函数。该函数通过表示范围起点和终点的CMTime值来创建一个CMTimeRange。比如,上面的示例还可以这样实现:

  1. let fiveSecondsTime = CMTimeMake(value: 5, timescale: 1)
  2. let tenSecondsTime = CMTimeMake(value: 10, timescale: 1)
  3. let timeRange = CMTimeRangeFromTimeToTime(start: fiveSecondsTime, end: tenSecondsTime)
  4. CMTimeRangeShow(timeRange)

CMTimeRange还提供了大量的函数来处理时间范围相关的运算和比较。

如果希望创建一个两个时间交叉的时间范围,或者希望得到两个时间范围的总和,可以尝试下面给出的实现方法。

  1. let range1 = CMTimeRange(start: CMTime.zero, duration: CMTimeMake(value: 5, timescale: 1))
  2. let range2 = CMTimeRange(start: CMTimeMake(value: 2, timescale: 1), duration: CMTimeMake(value: 5, timescale: 1))
  3. let intersectionRange = CMTimeRangeGetIntersection(range1, otherRange: range2)
  4. CMTimeRangeShow(intersectionRange)
  5. let unionRange = CMTimeRangeGetUnion(range1, otherRange: range2)
  6. CMTimeRangeShow(unionRange)

创建AVAssetExportSession

PHComposition协议中声明了两个协议方法,之前播放组合我们在PHBaseComposition中实现了其中一个生成视频的可播放版本,接下来我们来实现另外一个方法生成媒体资源的可导出版本。

  1. //MARK: PHComposition - 生成 AVAssetExportSession
  2. func makeAssetExportSession() -> AVAssetExportSession? {
  3. var assetExportSession:AVAssetExportSession? = nil
  4. if let compostion = compostion {
  5. let prset = AVAssetExportPresetHighestQuality
  6. assetExportSession = AVAssetExportSession(asset: compostion.copy() as! AVAsset, presetName: prset)
  7. }
  8. return assetExportSession
  9. }

使用AVMutableComposition的副本,创建一个新的AVAssetExportSession实例。

开始导出

创建一个PHCompositionExporter类专门负责媒体资源的导出。

  1. private var composition:PHComposition!
  2. /// 视频导出类
  3. private var exportSession:AVAssetExportSession?
  4. /// 是否正在导出
  5. private var exporting:Bool = false
  6. /// 延迟任务
  7. private var afterTask:PHAfterTask?
  8. /// 进度
  9. private var progress:Double = 0.0
  10. init(composition: PHComposition!) {
  11. self.composition = composition
  12. }
  1. composition:负责创建视频的可导出版本。
  2. exporsession:负责视频的导出。
  3. exporting:标记是否正在导出,用于监听导出过程。
  4. afterTask:延迟任务类,在监听媒体导出过程的时候我们会运用到延迟执行方法,这个类在之前的博客可中有过相关介绍,目的是为了解决延迟方法导致对self的延迟释放问题。
  5. progress:媒体资源的导出进度。
  6. 一个自定义的初始化,传入PHComposition类的实例对象。

另外声明一个开始导出的方法

  1. /// 开始导出
  2. public func beginExport() {
  3. self.exportSession = self.composition.makeAssetExportSession()
  4. guard let exportSession = exportSession else { return }
  5. exportSession.outputURL = exportURL()
  6. exportSession.outputFileType = .mp4
  7. exportSession.exportAsynchronously {[weak self] in
  8. guard let self = self else { return }
  9. guard let exportSession = self.exportSession else { return }
  10. let status = exportSession.status
  11. if status == .completed {
  12. //成功导出,存储到相册
  13. writeExportedVideoToPhotoLibrary()
  14. }
  15. }
  16. exporting = true
  17. monitorExportProgress()
  18. }
  19. /// 获取视频导出地址
  20. /// - Returns: 视频导出地址
  21. private func exportURL() -> URL {
  22. var filePath:String? = nil
  23. let count:UInt = 0
  24. repeat {
  25. let temp = NSTemporaryDirectory()
  26. let number = String(format: "-%li", count)
  27. let fileName = String(format: "Masterpice-%@mp4", number)
  28. filePath = String(format: "%@/%@", temp,fileName)
  29. } while (FileManager.default.fileExists(atPath: filePath!))
  30. return URL(filePath: filePath!)
  31. }
  1. 首先获取一个组合的可导出版本,这会返回一个AVAssetExportSession实例,这个实例有基础AVComposition实例,且具有相应的话预设值。我们为这个会话动态生成一个唯一的输出URL并设置输出文件类型。
  2. 调用exportAsynchronouslyWithCompletionHandler:方法开始导出过程。
  3. 设置exporting属性为YES。PHMainViewController会监听该属性的变化,并呈现用户界面的进展。
  4. 最后,调用monitorExportProgress方法,轮询导出会话的状态来确定当前进度。继续看一下monitorExportProgress方法的实现。

监听导出进度

monitorExportProgress方法实现

  1. /// 监听视频导出进度
  2. @objc private func monitorExportProgress() {
  3. guard let exportSession = exportSession else { return }
  4. let status = exportSession.status
  5. if status == .exporting {
  6. self.progress = Double(exportSession.progress)
  7. self.afterTask = PHAfterTask(after: 0.1, target: self, selector: #selector(monitorExportProgress))
  8. } else {
  9. exporting = false
  10. }
  11. }
  1. 通过检查导出绘画的status属性来确定当前的状态,如果状态返回.exporting,则使用当前的导出绘画的进度值来在更新progres熟悉,并递归调用monitorExportProgress方法。否则则设置exporting为false,导出过程结束不再进行递归。

保存到相册

保存到相册需要使用到Photos框架中的知识,将视频保存到相册需要提前申请相册的权限,接下来我们看一下保存到相册的代码实现。

  1. /// 保存到相册
  2. private func writeExportedVideoToPhotoLibrary() {
  3. let url = self.exportSession?.outputURL
  4. let photoLibrary = PHPhotoLibrary.shared()
  5. DispatchQueue.main.async {[weak self] in
  6. guard let self = self else { return }
  7. var assetId = ""
  8. var assetCollectionId = ""
  9. do {
  10. try photoLibrary.performChangesAndWait {
  11. assetId = PHAssetChangeRequest.creationRequestForAssetFromVideo(atFileURL: url!)?.placeholderForCreatedAsset!.localIdentifier ?? ""
  12. }
  13. var createAssetCollection = self.fetchAssetCollection(title: "Masterpice")
  14. if createAssetCollection == nil {
  15. try photoLibrary.performChangesAndWait {
  16. assetCollectionId = PHAssetCollectionChangeRequest.creationRequestForAssetCollection(withTitle: "Masterpice").placeholderForCreatedAssetCollection.localIdentifier
  17. }
  18. //获取刚刚创建的相册
  19. createAssetCollection = PHAssetCollection.fetchAssetCollections(withLocalIdentifiers: [assetCollectionId], options: nil).firstObject
  20. }
  21. //保存
  22. try photoLibrary.performChangesAndWait {
  23. let asset = PHAsset.fetchAssets(withLocalIdentifiers: [assetId], options: nil).firstObject
  24. let collectionChangeRequest = PHAssetCollectionChangeRequest(for: createAssetCollection!)
  25. collectionChangeRequest?.addAssets([asset!] as NSFastEnumeration)
  26. }
  27. } catch {
  28. print("writeExportedVideoToPhotoLibrary error")
  29. }
  30. }
  31. }
  32. /// 获取相册
  33. /// - Parameter title: 相册名
  34. /// - Returns: 相册
  35. private func fetchAssetCollection(title:String) -> PHAssetCollection? {
  36. let fetchOptions = PHFetchOptions()
  37. fetchOptions.predicate = NSPredicate(format: "title = %@", title)
  38. let fetchResult = PHAssetCollection.fetchAssetCollections(with: .album, subtype: .any, options: fetchOptions)
  39. if fetchResult.count > 0 {
  40. return fetchResult.firstObject
  41. }
  42. return nil
  43. }

以上代码将导出的视频保存到了一个自定义名为Masterpice的相册中,具体细节在这里就不过多介绍。

结语

学习AV Foundation的编辑功能,其中最重要的一点就是熟练掌握CMTime和CMTimeRange的知识,需要对相关知识多加练习。现在我们应用已经具备了创建组合和导出组合的功能,下面的博客我们将继续讨论如何先剪切编辑,处理音频等诸多高级功能。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/繁依Fanyi0/article/detail/423361
推荐阅读
相关标签
  

闽ICP备14008679号