1. 程式人生 > >使用MediaCodec和RTMP做直播推流

使用MediaCodec和RTMP做直播推流

目前開源的專案或市面上的Android直播客戶端主要是用ffmpeg來實現推流的。本文將介紹使用Android原生的視訊編碼類MediaCodec實現直播推流。

資料流及大致原理

這裡所說的直播,就是將你的客戶端產生的視訊資料,實時傳送到伺服器上。伺服器上的資料再實時地傳送到播放客戶端上。

  • 以視訊資料為例:

獲取Camera畫面
首先是攝像頭拍攝得到原始畫面資料,這裡原始畫面資料的格式我們不用管,因為我們使用的是MediaCodec,所以我們會使用
camera.setPreviewTexture(surfaceTexture)
來利用Camera獲取到的畫面。

此處的原理可忽略,大致說明的話,就是Camera會把獲得的畫面儲存為OpenGL的一個紋理,我們使用這個紋理就能使用Camera的畫面。

繪製畫面
在獲得畫面之後,我們要把這個畫面(紋理)“畫”到MediaCodec上。

如何畫?
MediaCodec提供一張’白紙’,也就是一個Surface,供我們把紋理畫到上面。此處的API是
MediaCodec.createInputSurface()

怎麼畫?用Canvas畫。當然不是一般的Canvas,我用了這個開源專案android-openGL-canvas

H264資料
畫上去後,MediaCodec就會幫我們把原始畫面資料,壓縮成相應的視訊資料,目前我這裡是壓縮成H264資料。
所謂的H264資料,其實只是一堆堆的byte[]陣列。在專案的例子,我把H264資料寫成了檔案,可以用某些播放器播放(例如PotPlayer)。

總結
資料流可以這樣看
Camera -> SurfaceTexture -> Surface -> MediaCodec -> encode data(byte[]) -> RTMPMuxer -> Server

  • 音訊資料:

相對簡單一些,就是從AudioRecord裡獲取原始音訊資料(byte[]),編碼成AAC資料(也是byte[]),然後給RTMPMuxer,封裝成RTMP包,發到伺服器

麥克風MIC -> AudioRecord -> voice data(就是byte[]) -> MediaCodec -> encode data(就是byte[]) -> RTMPMuxer -> Server

  • Muxer

前面有提到有視訊的RTMP包和音訊的RTMP包,分別是將單元H264和單元AAC封裝成RTMP包,發到伺服器。這些包之間有什麼規律?
這些包之間是按時間順序排列的,MediaCodec返回編碼資料時,會返回編碼資料的時間戳。但注意編碼成RTMP包時,取的是相對時間戳,也就是說取到時間戳時,需要計算與上一個包的時間戳的差值,寫到RTMP包裡。

另外RTMP流本質上是FLV格式的音視訊,這裡也提供了寫成FLV檔案的功能。

效果圖

PC播放端

PC播放端
Android推流端

process

視訊幀影象處理

關鍵程式碼如下:

    ...
    streamPublisher.prepareEncoder(streamPublisherParam, new H264Encoder.OnDrawListener() {
        @Override
        public void onGLDraw(ICanvasGL canvasGL, SurfaceTexture surfaceTexture, RawTexture rawTexture, @Nullable SurfaceTexture outsideSurfaceTexture, @Nullable BasicTexture outsideTexture) {
            drawVideoFrame(canvasGL, outsideSurfaceTexture, outsideTexture);

            Loggers.i("DEBUG", "gl draw");
        }
    });
    ...

    private void drawVideoFrame(ICanvasGL canvasGL, @Nullable SurfaceTexture outsideSurfaceTexture, @Nullable BasicTexture outsideTexture) {
        // Here you can do video process
        // 此處可以視訊處理,例如加水印等等
        TextureFilter textureFilterLT = new BasicTextureFilter();
        TextureFilter textureFilterRT = new HueFilter(180);
        int width = outsideTexture.getWidth();
        int height = outsideTexture.getHeight();
        canvasGL.drawSurfaceTexture(outsideTexture, outsideSurfaceTexture, 0, 0, width /2, height /2, textureFilterLT);
        canvasGL.drawSurfaceTexture(outsideTexture, outsideSurfaceTexture, 0, height/2, width/2, height, textureFilterRT);

    }
    ...

如上所示,可以使用各種Filter實現對視訊幀影象的處理。總而言之,可以像Canvas那樣在視訊幀上繪製各種東西。當然要在圖上畫文字就只能用bitmap代替了。

位元速率bit/s

在使用MediaCodec時,需要設定位元速率。這個位元速率是根據視訊解析度,色彩格式算出來的。

    public H264Encoder(int width, int height, int bitRate, int frameRate, int iframeInterval, final EglContextWrapper eglCtx) throws IOException

其中bitRate就是位元速率,單位bit/s

一些計算方法可以參考此文:
What bitrate should I use when encoding my video?
Output size Bitrate Filesize
320x240 pixels 400 kbps 3MB / minute
480x270 pixels 700 kbps 5MB / minute
1024 x 576 pixels 1500 kbps 11MB / minute
1280x720 pixels 2500 kbps 19MB / minute
1920x1080 pixels 4000 kbps 30MB / minute

此方法大部分情況下夠用,但是對於複雜視訊處理還欠缺。
例如
對比下圖的無處理效果(一張紋理)

one

對於下圖這樣處理效果(2個畫面用的是與上圖同樣大小的紋理,雖然我設定顯示的尺寸不一樣),位元速率是上圖的2倍左右。
process_material.png

測試伺服器

需要測試的話,請自行搭建RTMP伺服器。我用的是自己搭建的Nginx伺服器,用的Module是nginx-rtmp-module。搭建伺服器不需要寫程式碼,根據教程敲幾行命令就行。
可以用開源直播軟體OBS對比播放效果。
播放器用各種都行,VLC,PotPlayer,ffplay都可以。
我用的是ffplay,注意,因為只是簡單的伺服器,所以要先開播放器連線後再開始啟動推流。
我使用的命令是 .\ffplay.exe “rtmp://localhost:19305/live/room live=1”

另外可以使用一下軟體檢視生成的檔案的詳情。

h264

flv

感謝雷神。

宣告

本專案完全開源,專案Github地址:AndroidInstantVideo
本專案為個人開源專案,目前只做過簡單的測試,如果要使用的話,請自行多測試,有問題可以到我的Github專案地址提出。

最後

您的打賞是對作者的最大支援(左側欄目)!!當然在Github上點個Star也是很大的支援哈哈。