1. 程式人生 > >iOS與Android的音訊互通

iOS與Android的音訊互通

2015-06-08

音訊的基本知識

聲音是波的一種,頻率和振幅是描述波的重要屬性,頻率的大小與我們通常所說的音高對應,而振幅影響聲音的大小。頻率的單位是赫茲,赫茲是電、磁、聲波和機械振動週期迴圈時頻率的單位,即每秒的週期次數(週期/秒)。對於聲音,人類的聽覺範圍為20Hz~20000Hz,低於這個範圍叫做次聲波,高於這個範圍的叫做超聲波。

數碼錄音最關鍵一步就是要把模擬訊號轉換為數碼訊號,就電腦而言是把模擬聲音訊號錄製成為音訊檔案。

描述音訊檔案主要有兩個指標,一個是取樣頻率,或稱取樣率、採率,另一個是取樣精度也就是位元率。

取樣,指把時間域或空間域的連續量轉化成離散量的過程。每秒鐘的取樣樣本數叫做取樣頻率。取樣頻率越高,數字化後聲波就越接近於原來的波形,即聲音的保真度越高,但量化後聲音資訊量的儲存量也越大,而人的耳朵已經很難分辨。根據取樣定理,只有當取樣頻率高於聲音訊號最高頻率的兩倍時,才能把離散模擬訊號表示的聲音訊號唯一地還原成原來的聲音。我們最常用的取樣頻率是44.1kHz,它的意思是每秒取樣44100次。

位元率是指每秒傳送的位元(bit)數,單位為 bps(Bit Per Second)。位元率越高,傳送資料速度越快。聲音中的位元率是指將模擬聲音訊號轉換成數字聲音訊號後,單位時間內的二進位制資料量。位元率其實就是表示振幅,位元率越大,能夠表示聲音的響度越清晰。

iOS音訊的基礎

接著我們要整體瞭解下iOS為我們提供處理音訊的基礎技術,核心音訊(Core Audio)。

Core Audio 是IOS和 MAC 的關於數字音訊處理的基礎,它提供應用程式用來處理音訊的一組軟體框架,所有關於IOS音訊開發的介面都是由Core Audio來提供或者經過它提供的介面來進行封裝的,按照官方的說法是集播放,音訊處理錄製為一體的專業技術,通過它我們的程式可以同時錄製,播放一個或者多個音訊流,自動適應耳機,藍芽耳機等硬體,響應各種電話中斷,靜音,震動等,甚至提供3D效果的音樂播放。

Core Audio有5個框架:1.Core Audio.framework,2.AudioToolbox.framework,3.AudioUnit.framework ,4.AVFoundation.framework,5.OpenAL.framework。

Core Audio.framework並不提供服務,僅提供其他框架可以使用的標頭檔案和資料型別。這其中AVFoundation 框架 (AVFoundation.framework)提供一組播放、記錄和管理聲音和視訊內容的Objective-C類,因此下面我就簡單介紹一下他就可以了。

AVFoundation的錄音和播放

音訊的錄製與播放主要和三個類有關AVAudioSession,AVAudioRecorder,AVAudioPlayer。

AVAudioSession

AVAudioSession類由AVFoundation框架引入,每個iOS應用都有一個音訊會話,這個會話可以被AVAudioSession類的sharedInstance類方法訪問,如下:

AVAudioSession *audioSession = [AVAudioSession sharedInstance];

在獲得一個AVAudioSession類的例項後,你就能通過呼叫音訊會話物件的setCategory:error:例項方法,來從IOS應用可用的不同類別中作出選擇。

AVAudioRecorder

在使用AVAudioRecorder進行音訊錄製的時候,需要設定一些引數,下面就是引數的說明,並且寫下了音訊錄製的程式碼:

//音訊開始錄製
- (void)startRecordWithFilePath:(NSString *)path{
    [[AVAudioSession sharedInstance] setCategory: AVAudioSessionCategoryPlayAndRecord error:nil];
    [[AVAudioSession sharedInstance] setActive:YES error:nil];

    /**
     *
     AVFormatIDKey  音樂格式,這裡採用PCM格式
     AVSampleRateKey 取樣率
     AVNumberOfChannelsKey 音樂通道數
     AVLinearPCMBitDepthKey,取樣位數 預設 16
     AVLinearPCMIsFloatKey,取樣訊號是整數還是浮點數
     AVLinearPCMIsBigEndianKey,大端還是小端 是記憶體的組織方式
     AVEncoderAudioQualityKey,音訊編碼質量

     */

    NSDictionary *recordSetting = @{
                                    AVFormatIDKey               : @(kAudioFormatLinearPCM),
                                    AVSampleRateKey             : @(8000.f),
                                    AVNumberOfChannelsKey       : @(1),
                                    AVLinearPCMBitDepthKey      : @(16),
                                    AVLinearPCMIsNonInterleaved : @NO,
                                    AVLinearPCMIsFloatKey       : @NO,
                                    AVLinearPCMIsBigEndianKey   : @NO
                                    };

    //初始化錄音
    self.recorder = [[AVAudioRecorder alloc]initWithURL:[NSURL URLWithString:path]
                                                settings:recordSetting
                                                   error:nil];
    _recorder.delegate = self;
    _recorder.meteringEnabled = YES;

    [_recorder prepareToRecord];
    [_recorder record];
}

//音訊停止錄製
- (void)stopRecord
{

    [self.recorder stop];
    self.recorder = nil;

}

AVAudioPlayer

AVAudioPlayer類是音訊播放的類,一個AVAudioPlayer只能播放一個音訊,如果你想混音你可以建立多個AVAudioPlayer例項,每個相當於混音板上的一個軌道,下面就是音訊播放的方法。

//音訊開始播放

- (void)startPlayAudioFile:(NSString *)fileName{
    //初始化播放器
    player = [[AVAudioPlayer alloc]init];

    player = [player initWithContentsOfURL:[NSURL URLWithString:fileName] error:nil];
    self.player.delegate = self;
    [player play];


}

//音訊停止播放
- (void)stopPlay{
    if (self.player) {
        [self.player stop];
        self.player.delegate = nil;
        self.player = nil;
    }
}

轉碼

上面我們用iOS錄製了一個音訊檔案,並且錄製成了wav格式,然而現在的情況確實安卓不支援wav格式,並且蘋果的格式安卓全不支援,看好是全不,不是全部,反過來安卓的格式,蘋果基本也不支援。

這裡可以讓伺服器去轉碼,不過伺服器的壓力會增加,這裡我們可以讓客戶端進行轉碼。amr格式的音訊檔案是安卓系統中預設的錄音檔案,也算是安卓支援的很方便的音訊檔案,這裡就把iOS錄製的wav檔案轉成amr,我們採用的是libopencore框架。 關於libopencore,Jeans有對它進行了一個比較好的Demo,大家可以參考他的Demo,iOS音訊格式AMR和WAV互轉(支援64位)

在他的AmrWavConverter程式碼Demo裡面有掩飾這兩個轉碼工作。

//轉換amr到wav
+ (int)ConvertAmrToWav:(NSString *)aAmrPath wavSavePath:(NSString *)aSavePath{

    if (! DecodeAMRFileToWAVEFile([aAmrPath cStringUsingEncoding:NSASCIIStringEncoding], [aSavePath cStringUsingEncoding:NSASCIIStringEncoding]))
        return 0;

    return 1;
}

//轉換wav到amr
+ (int)ConvertWavToAmr:(NSString *)aWavPath amrSavePath:(NSString *)aSavePath{

    if (! EncodeWAVEFileToAMRFile([aWavPath cStringUsingEncoding:NSASCIIStringEncoding], [aSavePath cStringUsingEncoding:NSASCIIStringEncoding], 1, 16))
        return 0;

    return 1;
}