1. 程式人生 > >ffmpeg處理RTMP流媒體的命令 傳送流媒體的命令(UDP,RTP,RTMP)

ffmpeg處理RTMP流媒體的命令 傳送流媒體的命令(UDP,RTP,RTMP)

將檔案當做直播送至live ffmpeg -re -i localFile.mp4 -c copy -f flv rtmp://server/live/streamName   re限制輸出速率,按照幀率輸出 將直播媒體儲存至本地檔案 ffmpeg -i rtmp://server/live/streamName -c copy dump.flv   將其中一個直播流,視訊改用h264壓縮,音訊不變,送至另外一個直播服務流 ffmpeg -i rtmp://server/live/originalStream -c:a copy -c:v libx264 -vpre slow -f flv rtmp://server/live/h264Stream  
將其中一個直播流,視訊不變,音訊改用faac壓縮,送至另外一個直播服務流 ffmpeg -i rtmp://server/live/originalStream -acodec libfaac -ar 44100 -ab 48k -vcodec copy -f flv rtmp://server/live/h264_AAC_Stream 將其中一個直播流,視訊改用h264壓縮,音訊改用faac壓縮,送至另外一個直播服務流 ffmpeg -i rtmp://server/live/originalStream -c:a libfaac -ar 44100 -ab 48k -c:v libx264 -vpre slow -vpre baseline -f flv rtmp://server/live/h264Stream  
將一個高清流,複製為幾個不同視訊清晰度的流重新發布,其中音訊不變 ffmpeg -re -i rtmp://server/live/high_FMLE_stream -acodec copy -vcodec x264lib -s 640×360 -b 500k -vpre medium -vpre baseline rtmp://server/live/baseline_500k -acodec copy -vcodec x264lib -s 480×272 -b 300k -vpre medium -vpre baseline rtmp://server/live/baseline_300k -acodec copy -vcodec x264lib -s 320×200 -b 150k -vpre medium -vpre baseline rtmp://server/live/baseline_
150k -acodec libfaac -vn -ab 48k rtmp://server/live/audio_only_AAC_48k   功能一樣,只是採用-x264opts選項 ffmpeg -re -i rtmp://server/live/high_FMLE_stream -c:a copy -c:v x264lib -s 640×360 -x264optsbitrate=500:profile=baseline:preset=slow rtmp://server/live/baseline_500k -c:a copy -c:v x264lib -s 480×272 -x264opts bitrate=300:profile=baseline:preset=slow rtmp://server/live/baseline_300k -c:a copy -c:v x264lib -s 320×200 -x264opts bitrate=150:profile=baseline:preset=slow rtmp://server/live/baseline_150k -c:a libfaac -vn -b:a 48k rtmp://server/live/audio_only_AAC_48k  將當前攝像頭及音訊通過DSSHOW採集,視訊h264、音訊faac壓縮後釋出 ffmpeg -r 25 -f dshow -s 640×480 -i video=”video source name”:audio=”audio source name” -vcodec libx264 -b 600k -vpre slow -acodec libfaac -ab 128k -f flv rtmp://server/application/stream_name   將一個JPG圖片經過h264壓縮迴圈輸出為mp4視訊 ffmpeg -i INPUT.jpg -an -vcodec libx264 -coder 1 -flags +loop -cmp +chroma -subq 10 -qcomp 0.6 -qmin 10 -qmax 51 -qdiff 4 -flags2 +dct8x8 -trellis 2 -partitions +parti8x8+parti4x4 -crf 24 -threads 0 -r 25 -g 25 -y OUTPUT.mp4  將普通流視訊改用h264壓縮,音訊不變,送至高清流服務(新版本FMS live=1) ffmpeg -i rtmp://server/live/originalStream -c:a copy -c:v libx264 -vpre slow -f flv “rtmp://server/live/h264Stream live=1″   傳送流媒體的命令(UDP,RTP,RTMP) 1.      UDP 1.1. 傳送H.264裸流至組播地址 注:組播地址指的範圍是224.0.0.0—239.255.255.255 下面命令實現了傳送H.264裸流“chunwan.h264”至地址udp://233.233.233.223:6666
  1. ffmpeg -re -i chunwan.h264 -vcodec copy -f h264 udp://233.233.233.223:6666  
注1:-re一定要加,代表按照幀率傳送,否則ffmpeg會一股腦地按最高的效率傳送資料。 注2:-vcodec copy要加,否則ffmpeg會重新編碼輸入的H.264裸流。 1.2. 播放承載H.264裸流的UDP
  1. ffplay -f h264 udp://233.233.233.223:6666  
注:需要使用-f說明資料型別是H.264 播放的時候可以加一些引數,比如-max_delay,下面命令將-max_delay設定為100ms:
  1. ffplay -max_delay 100000 -f h264 udp://233.233.233.223:6666  
1.3. 傳送MPEG2裸流至組播地址 下面的命令實現了讀取本地攝像頭的資料,編碼為MPEG2,傳送至地址udp://233.233.233.223:6666。
  1. ffmpeg -re -i chunwan.h264 -vcodec mpeg2video -f mpeg2video udp://233.233.233.223:6666  
1.4.  播放MPEG2裸流 指定-vcodec為mpeg2video即可。
  1. ffplay -vcodec mpeg2video udp://233.233.233.223:6666  
2.      RTP 2.1. 傳送H.264裸流至組播地址。 下面命令實現了傳送H.264裸流“chunwan.h264”至地址rtp://233.233.233.223:6666
  1. ffmpeg -re -i chunwan.h264 -vcodec copy -f rtprtp://233.233.233.223:6666>test.sdp  
注1:-re一定要加,代表按照幀率傳送,否則ffmpeg會一股腦地按最高的效率傳送資料。 注2:-vcodec copy要加,否則ffmpeg會重新編碼輸入的H.264裸流。 注3:最右邊的“>test.sdp”用於將ffmpeg的輸出資訊儲存下來形成一個sdp檔案。該檔案用於RTP的接收。當不加“>test.sdp”的時候,ffmpeg會直接把sdp資訊輸出到控制檯。將該資訊複製出來儲存成一個字尾是.sdp文字檔案,也是可以用來接收該RTP流的。加上“>test.sdp”後,可以直接把這些sdp資訊儲存成文字。 2.2. 播放承載H.264裸流的RTP。
  1. ffplay test.sdp  
3.      RTMP 3.1. 傳送H.264裸流至RTMP伺服器(FlashMedia Server,Red5等) 傳送H.264裸流“chunwan.h264”至主機為localhost,Application為oflaDemo,Path為livestream的RTMP URL。
  1. ffmpeg -re -i chunwan.h264 -vcodec copy -f flv rtmp://localhost/oflaDemo/livestream  
rtmp://10.50.8.10/socketTest/streamName 3.2. 播放RTMP
  1. ffplay “rtmp://localhost/oflaDemo/livestream live=1”  
注:ffplay播放的RTMP URL最好使用雙引號括起來,並在後面新增live=1引數,代表實時流。實際上這個引數是傳給了ffmpeg的libRTMP的 4.      測延時 4.1.測延時 測延時有一種方式,即一路播放傳送端視訊,另一路播放流媒體接收下來的流。播放傳送端的有2種方式:FFmpeg和FFplay。 通過FFplay播放是一種眾所周知的方法,例如:
  1. ffplay -f dshow -i video="Integrated Camera"  
即可播放本地名稱為“Integrated Camera”的攝像頭。 此外通過FFmpeg也可以進行播放,通過指定引數“-f sdl”即可。例如:
  1. ffmpeg -re -i chunwan.h264 -pix_fmt yuv420p –f sdl xxxx.yuv -vcodec copy -f flv rtmp://localhost/oflaDemo/livestream  
就可以一邊通過SDL播放視訊,一邊傳送視訊流至RTMP伺服器。 注1:sdl後面指定的xxxx.yuv並不會輸出出來。 注2:FFmpeg本身是可以指定多個輸出的。本命令相當於指定了兩個輸出。 參考