1. 程式人生 > >利用ffmpeg進行攝像頭提取視訊編碼為h264通過RTP傳送資料到指定的rtp地址

利用ffmpeg進行攝像頭提取視訊編碼為h264通過RTP傳送資料到指定的rtp地址

話不多說命令如下:

ffmpeg -f dshow -i video="Logitech QuickCam Easy/Cool" -vcodec libx264 -preset:v ultrafast -tune:v zerolatency -f rtp rtp://127.0.0.1:6666>sd.sdp

用此命令可以產生264的rtp流, video="Logitech QuickCam Easy/Cool" 為攝像頭的名字,-vcodec libx264表示採用264編碼器,-preset:v ultrafast -tune:v zerolatency表示實時編碼,>sd.sdp表示產生sdp,此sdp的作用是提供給接收rtp流的資訊,接收rtp流的一方讀取這個檔案就可以接受流顯示。

但是因為此命令產生的h264流是用yuv444編碼的,所以接收方要想儲存h264流的話,得在傳送方的命令加一個引數:

-pixfmt YUV420P

至於有人問怎麼知道攝像頭的名字,用這個命令就好了:

ffmpeg -list_devices true -f dshow -i dummy

基本這樣就大功告成了~

from: http://www.aichengxu.com/other/1438151.htm

Streaming a simple RTP audio stream from FFmpeg ¶

FFmpeg can stream a single stream using the 

RTP protocol. In order to avoid buffering problems on the other hand, the streaming should be done through the -re option, which means that the stream will be streamed in real-time (i.e. it slows it down to simulate a live streaming source.

For example the following command will generate a signal, and will stream it to the port 1234 on localhost:

ffmpeg -re -f lavfi -i aevalsrc="sin(400*2*PI*t)" -ar 8000 -f mulaw -f rtp rtp://127.0.0.1:1234

To play the stream with ffplay (which has some caveats, see above), run the command:

ffplay rtp://127.0.0.1:1234

Note that rtp by default uses UDP, which, for large streams, can cause packet loss. See the "point to point" section in this document for hints if this ever happens to you.


from:https://trac.ffmpeg.org/wiki/StreamingGuide

相關推薦

利用ffmpeg進行攝像頭提取視訊編碼h264通過RTP傳送資料指定rtp地址

話不多說命令如下: ffmpeg -f dshow -i video="Logitech QuickCam Easy/Cool" -vcodec libx264 -preset:v ultrafast -tune:v zerolatency -f rtp rtp://127

ffmpeg 壓縮攝像頭採集的圖片*.H264檔案

主要用opencv開啟攝像頭,採集到資料後,傳輸給ffmpeg ,壓縮為h264資料,h264的檔案可以直接拖到vcl播放器播放 MyEncoder.h #pragma once extern "C" { #include <libavcodec/av

利用FFmpeg進行視訊檔案進行分割

利用FFMPEG命令進行檔案分割 ffmpeg -ss 00:00:00 -i input.mp4 -c copy -t 60 output.mp4 -ss 表示視訊分割的起始時間,-t 表示分割時長,同時也可以用 00:01:00表示 注意 :-ss 要放在 -i 之前 對於普通的視訊分

ffmpeg學習八:軟體生成yuv420p視訊並將其編碼H264格式

通過前面對ffmpeg中常用的幾個api的原始碼分析,從而對api有了更好的理解。之前已經做過視訊的解碼了,今天來嘗試視訊的編碼。ffmpeg已經給我們提供了相應的可供參考的程式:doc/examples/decoding_encoding.c檔案就是解碼和編碼

利用ffmpeg進行視訊推拉流

使用FFMPEG命令列進行推拉流的操作 最新在公司實習,小組安排的技術需求第一階段,使用ffmpeg進行推拉流的處理以及自動化指令碼的編寫 在這裡記錄一下 ffmpeg工具去官網下載編譯即可(265格式需要自己寫相關程式碼並進行編譯) 首先是推流的指

利用FFmpeg玩轉Android視訊錄製與壓縮(三)

前言 上一回說到啊,這千秋月沒是佳人離別,時逢枯枝落舊城,卻待新蘭滿長街,戰場上還未至瑞雪,各位看官不好意思,今日帝都又霧霾,來聽小老二說書的別忘了加個口罩。在利用FFmpeg玩轉Android視訊錄製與壓縮(二)中我們基本編寫完了所有模組兒程式碼,但是沒有整合在

ffmpeg-python 任意提取視訊

▶ 環境準備 1、安裝 FFmpeg 音/視訊工具 FFmpeg 簡易安裝文件 2、安裝 ffmpeg-python pip3

webrtc 視訊編碼h264 自動調節解析度一

webrtc 內部支援 vp8,vp9,h264 視訊編碼,由於業務需要和出於通用性考慮,我選擇了 h264 編碼,webrtc集成了openh264,ffmpeg用於h264的編解碼。當然在移動平臺也集成了硬體編解碼,但是測試發現在ios上硬體編碼還算可以,android上

視訊編碼H264概述)

編碼中預設值為0,當網路識別此單元中存在位元錯誤時,可將其設為1,以便接收方丟掉該單元,主要用於適應不同種類的網路環境(比如有線無線相結合的環境)。例如對於從無線到有線的閘道器,一邊是無線的非IP環境,一邊是有線網路的無位元錯誤的環境。假設一個NAL單元到達無線那邊時,校驗和檢測失敗,閘道器可以選擇從NAL流

嵌入式 視訊編碼H264)hi3518

8.獲取/釋放編碼的碼流HI_S32 HI_MPI_VENC_GetStream(VENC_CHN VeChn, VENC_STREAM_S *pstStream, HI_U32 u32BlockFlag); HI_S32 HI_MPI_VENC_ReleaseStream(VENC_CHN VeChn, V

YUV編碼H264 H264封裝MP4

在專案中經常需要進行視訊解碼、編碼和封裝等操作,本文主要闡述”YUV編碼為H264”和”H264封裝為MP4”兩個過程。 1 YUV編碼為H264 YUV編碼為H264有兩種方式: (1)基於FFMPEG呼叫libx264實現YUV420P的畫素資料編

android平臺下基於ffmpeg對相機採集的NV21資料編碼MP4視訊檔案

音視訊實踐學習 android全平臺編譯ffmpeg以及x264與fdk-aac實踐 ubuntu下使用nginx和nginx-rtmp-module配置直播推流伺服器 android全平臺編譯ffmpeg合併為單個庫實踐 android-studio使用c

最簡單的基於FFMPEG視訊編碼器(YUV編碼H.264)

                =====================================================最簡單的基於FFmpeg的視訊編碼器文章列表:=====================================================本文介紹一個最簡單的

【java小程式】利用ffmpeg視訊進行截圖操作

ffmpeg程式對視訊進行的截圖的命令如下語法如下: ffmpeg.exe -ss 00:00:01 -i spring.mp4 -vframes 1 bb.jpg 00:00:01 擷取視訊圖片的時間。 spring.map4 需要擷取的視訊名稱。 1

使用FFmpeg類庫實現YUV視訊序列編碼視訊

也歡迎大家轉載本篇文章。分享知識,造福人民,實現我們中華民族偉大復興!                搞視訊處理的朋友肯定比較熟悉YUV視訊序列,很多測試庫提供的視訊資料都是YUV視訊序列,我們這裡就用用YUV視訊序列來做視訊。關於YUV視訊序列,我就不多講了,

Android利用mediacodec進行視訊H264編碼解碼播放

H264是目前最常用的視訊壓縮格式之一,可以將視訊、圖片、音訊等轉換為字串流形式,以此可以進行再次編輯、傳輸等。詳情參考http://blog.csdn.net/lcalqf/article/det

[原]從管道傳送資料到ffmpeg進行視訊編碼

在windows編譯ffmpeg,一般的方法是mingw+msys,編譯出來的是windows的可執行檔案ffmpeg.exe。 閱讀 ffmpeg 原始碼的時候,發現 ffmpeg 支援 pipe,也就是說,傳遞給ffmpeg.exe程序的輸入檔案引數和輸出檔案引數不需

FFMpeg視訊開發與應用基礎】二、呼叫FFmpeg SDK對YUV視訊序列進行編碼

《FFMpeg視訊開發與應用基礎——使用FFMpeg工具與SDK》視訊教程已經在“CSDN學院”上線,視訊中包含了從0開始逐行程式碼實現FFMpeg視訊開發的過程,歡迎觀看!連結地址:FFMpeg視訊開發與應用基礎——使用FFMpeg工具與SDK

FFmpeg淺嘗輒止(二)——YUV視訊序列編碼視訊

上一篇已經寫了如何配置好開發環境,這次就先小試牛刀,來個視訊的編碼。搞視訊處理的朋友肯定比較熟悉YUV視訊序列,很多測試庫提供的視訊資料都是YUV視訊序列,我們這裡就用用YUV視訊序列來做視訊。關於YUV視訊序列,我就不多講了,可以看書學習,通常的視訊序列都是YUV420格

FFmpeg獲取攝像頭資料編碼H.264

       ffmpeg的視音訊編解碼功能非常強大,可以說包括了所有的視音訊編碼標準。在這裡我主要是呼叫ffmpeg工程裡的ffmpeg.exe檔案,呼叫之後,會自動完成編碼的操作。內部編碼的具體流程,以後再慢慢的看。1.介紹       先介紹下ffmpeg裡面的三個ex