1. 程式人生 > >iOS 音視訊合成

iOS 音視訊合成

前言

因為最近做專案有遇到音視訊合成的需求,但是網上的教程某些地方總是寫的很模糊,所以自己調研完成之後決定寫一篇部落格分享出來,供大家一起學習進步

音視訊主要是利用AVFoundation框架下的AVMutableComposition來合成音視訊.

在AVMutableComposition中傳入兩個資料流,一個是音訊一個是視訊,之後呼叫合成方法就可以了

上程式碼

storyBoard中拖入一個button,一個imageView


這裡寫圖片描述

為了效果好可以將IamgeView的背景色調為黑色

然後在ViewController中新增以下程式碼

#import "ViewController.h"
#import <AVFoundation/AVFoundation.h> #import "MBProgressHUD+MJ.h" @interface ViewController () /** 用於播放 */ @property (weak, nonatomic) IBOutlet UIImageView *imageView; @end @implementation ViewController - (void)viewDidLoad { [super viewDidLoad]; } - (IBAction)mergeAction:(UIButton *)sender { [self
merge]; } // 混合音樂 - (void)merge{ // mbp提示框 [MBProgressHUD showMessage:@"正在處理中"]; // 路徑 NSString *documents = [NSHomeDirectory() stringByAppendingPathComponent:@"Documents"]; // 聲音來源 NSURL *audioInputUrl = [NSURL fileURLWithPath:[[NSBundle mainBundle] pathForResource:@"五環之歌" ofType:@"mp3"
]]; // 視訊來源 NSURL *videoInputUrl = [NSURL fileURLWithPath:[[NSBundle mainBundle] pathForResource:@"myPlayer" ofType:@"mp4"]]; // 最終合成輸出路徑 NSString *outPutFilePath = [documents stringByAppendingPathComponent:@"merge.mp4"]; // 新增合成路徑 NSURL *outputFileUrl = [NSURL fileURLWithPath:outPutFilePath]; // 時間起點 CMTime nextClistartTime = kCMTimeZero; // 建立可變的音視訊組合 AVMutableComposition *comosition = [AVMutableComposition composition]; // 視訊採集 AVURLAsset *videoAsset = [[AVURLAsset alloc] initWithURL:videoInputUrl options:nil]; // 視訊時間範圍 CMTimeRange videoTimeRange = CMTimeRangeMake(kCMTimeZero, videoAsset.duration); // 視訊通道 列舉 kCMPersistentTrackID_Invalid = 0 AVMutableCompositionTrack *videoTrack = [comosition addMutableTrackWithMediaType:AVMediaTypeVideo preferredTrackID:kCMPersistentTrackID_Invalid]; // 視訊採集通道 AVAssetTrack *videoAssetTrack = [[videoAsset tracksWithMediaType:AVMediaTypeVideo] firstObject]; // 把採集軌道資料加入到可變軌道之中 [videoTrack insertTimeRange:videoTimeRange ofTrack:videoAssetTrack atTime:nextClistartTime error:nil]; // 聲音採集 AVURLAsset *audioAsset = [[AVURLAsset alloc] initWithURL:audioInputUrl options:nil]; // 因為視訊短這裡就直接用視訊長度了,如果自動化需要自己寫判斷 CMTimeRange audioTimeRange = videoTimeRange; // 音訊通道 AVMutableCompositionTrack *audioTrack = [comosition addMutableTrackWithMediaType:AVMediaTypeAudio preferredTrackID:kCMPersistentTrackID_Invalid]; // 音訊採集通道 AVAssetTrack *audioAssetTrack = [[audioAsset tracksWithMediaType:AVMediaTypeAudio] firstObject]; // 加入合成軌道之中 [audioTrack insertTimeRange:audioTimeRange ofTrack:audioAssetTrack atTime:nextClistartTime error:nil]; // 建立一個輸出 AVAssetExportSession *assetExport = [[AVAssetExportSession alloc] initWithAsset:comosition presetName:AVAssetExportPresetMediumQuality]; // 輸出型別 assetExport.outputFileType = AVFileTypeQuickTimeMovie; // 輸出地址 assetExport.outputURL = outputFileUrl; // 優化 assetExport.shouldOptimizeForNetworkUse = YES; // 合成完畢 [assetExport exportAsynchronouslyWithCompletionHandler:^{ // 回到主執行緒 dispatch_async(dispatch_get_main_queue(), ^{ // 呼叫播放方法 [self playWithUrl:outputFileUrl]; }); }]; } /** 播放方法 */ - (void)playWithUrl:(NSURL *)url{ // 傳入地址 AVPlayerItem *playerItem = [AVPlayerItem playerItemWithURL:url]; // 播放器 AVPlayer *player = [AVPlayer playerWithPlayerItem:playerItem]; // 播放器layer AVPlayerLayer *playerLayer = [AVPlayerLayer playerLayerWithPlayer:player]; playerLayer.frame = self.imageView.frame; // 視訊填充模式 playerLayer.videoGravity = AVLayerVideoGravityResizeAspect; // 新增到imageview的layer上 [self.imageView.layer addSublayer:playerLayer]; // 隱藏提示框 開始播放 [MBProgressHUD hideHUD]; [MBProgressHUD showSuccess:@"合成完成"]; // 播放 [player play]; }

MBP是一個第三方提示類,如果不關心這個功能可以刪除這三行程式碼和標頭檔案

// mbp提示框
    [MBProgressHUD showMessage:@"正在處理中"];
// 隱藏提示框 開始播放
    [MBProgressHUD hideHUD];
    [MBProgressHUD showSuccess:@"合成完成"];

效果圖

因為是gif..請自己yy出Uber視訊配上五環之歌(我感覺還挺配的)


這裡寫圖片描述