1. 程式人生 > >Android & IOS視訊錄製技術方案

Android & IOS視訊錄製技術方案



轉載文章請註明出處:http://write.blog.csdn.net/postedit/48104617

移動端視訊錄製的技術方案,我所能想到並且嘗試過的,有如下幾種:

方案一: 用系統開發sdk錄製的介面。


弊端:

 1):不能更改視訊比例,一般都有該手機螢幕解析度所對應得視訊錄製解析度,另外手機系統提供得解析度一般為4:3或接近4:3,即全屏錄製。為了保證使用者錄製時看到的視訊視訊和最終生成得視訊一致,那麼在錄製介面上也需要全屏顯示才行。(IOS可以再生成視訊之後呼叫系統介面裁剪,不過在Iphone6上一份中視訊也要使用者等待大約十秒鐘才能裁剪完成,畢竟解碼+處理+編碼是很耗時得操作。後面具體說),方案三四五可以解決。
 2):(僅Android系統,IOS不純在該問題)豎屏錄製生成的視訊拿到pc端用大多數播放器播放出來都是被旋轉的。
其實並不是視訊被播放器旋轉了,而是視訊本身就是旋轉的。因為手機預設是橫屏錄製,也就是無論你怎麼拿著手機,傳送到視訊壓縮時候,每一幀都是橫著的,所以假如視訊是豎屏錄製,被傳送過去時候會被旋轉,旋轉的度數取決於使用者攝像頭的方向。之所以手機上播放是正常得,那是因為Android會在錄製時候呼叫重力感應判斷出方向,並且在視訊流的標頭檔案中填入度數,在呼叫android開發sdk所提供得介面播放視訊得時候,會解析該角度,並在播放時候作出旋轉,而大多數播放器是忽視該引數的,比如:Mplayer  VLC 都不會作出旋轉。解析視訊標頭檔案的開源庫應該都能解析該引數,列出ffmpeg解析該引數得程式碼:

/*
*read rotation angle by video param and key
*return angle in [0,360]
*/
char* get_video_metadate(char* key ,AVFormatContext *ic, AVStream *video_st)
{
	char *value; 	
	if (!ic) {
		return 0;
	}

	if (key) {
		if (av_dict_get(ic->metadata, key, NULL, AV_DICT_IGNORE_SUFFIX)) {
			value =av_dict_get(ic->metadata, key, NULL, AV_DICT_IGNORE_SUFFIX)->value;
		}else if (video_st && av_dict_get(video_st->metadata, key, NULL,
		AV_DICT_IGNORE_SUFFIX)) {
			value = av_dict_get(video_st->metadata, key, NULL,
			AV_DICT_IGNORE_SUFFIX)->value;
		}
	}
	return value;
	
}

/*
*read rotation angle by param
*@param ic :the context of video
*@param video_st: the video avstream 
*@return angle in [0,360]
*/
int get_rotation_byparam(AVFormatContext *ic, AVStream *video_st)
{
	char * value;
	int ret;
	value = get_video_metadate("rotate",ic,video_st);
    if(value ==NULL)
        return 0;
    else if((strcmp(value,"90")&&strcmp(value,"180")&&strcmp(value,"270")))
		ret = 0;
	else
    {
	    ret = chartoint(value);
        
    }
	if(ret!=90&&ret!=180&&ret!=270)
		ret = 0;
    dmprint("[@metadate]the rotation angle is ",ret);
	return (ret > 0 && ret < 360) ? ret : 0;
}
其實就是解析標頭檔案中"rotate"所對應的value。另外標頭檔案中還有很多內容,例如解析度、時長、日期、地址等。這是使用ffmpeg,Android上使用mp4info這個第三方jar包也可已實現,而且輕量級,比ffmpeg小很多。(方案二三四五可以解決)。

3) 檔案過大。Android端可選攝像頭所採用的解析度,通過:Camera.Parameters 中的setPreviewSize(w,h);方法定義。但是前提是系統必須擁有該解析度選項,並不是該解析度是可以你隨意填寫的, 需要事先通過 getSupportedPictureSizes() 方法獲取所支援的解析度,然後從中挑選一個最理想的。但是有一些手機所支援得解析度組合很少,比如魅族的那個魅藍,如果沒有記錯只支援一個:1920*1280,再加上一般手機錄製得視訊幀率是30 等等這些引數的預設值,雖然Android預設是h264高效率壓縮編碼,但是用系統預設引數所錄製的視訊也是很大的。很多手機錄製1分鐘視訊大小近百兆。假如想要通過網路上傳,這種方案基本就可以斃掉了。(使用方案三四五可以解決)。

4)(IOS不存在該問題)不支援斷點錄製。
現在移動端大多短視訊錄製的APP都支援斷點錄製,而用使用Android系統封裝得介面錄製時候,每次錄製都要重定向一個輸出檔案(使用方案二三四五可以解決)。

優點:
1)因為有硬體加速,所以速度很快,而且質量很好。
2)開發輕鬆,有現成介面可呼叫。

實現:
現成介面,網上資料很多,還有官方文件,不再列出。

方案二:(針對Android 不支援斷點錄製和視訊旋轉的問題) 使用系統錄製介面+mp4parser

使用者點選暫停時候,重定向mp4檔案,然後通過mp4parser合併每段mp4.

mp4parser是個輕量級的jar包,android上可以直接匯入使用。所提供的介面可以實現拼接分割mp4檔案。它並沒有更改幀得內容,只是再解析mp4得各種BOX,然後更改pts和標頭檔案,分割,合併。所以速度還是可以接受的。

缺點:
1)仍然存在檔案過大得問題。
2)仍然侷限於系統提供得解析度。

優點:
1)匯入的庫較小。
2)速度理想。


實現:
錄製視訊程式碼省去,列出拼接mp4程式碼:
List<String> fileList = new ArrayList<String>();
List<Movie> moviesList = new LinkedList<Movie>();
fileList.add("/1387865774255.mp4");
fileList.add("/1387865800664.mp4");

try
{
	for (String file : fileList)
	{
		moviesList.add(MovieCreator.build(file));
	}
}
catch (IOException e)
{
	e.printStackTrace();
}
		
List<Track> videoTracks = new LinkedList<Track>();
List<Track> audioTracks = new LinkedList<Track>();
for (Movie m : moviesList)
{
	for (Track t : m.getTracks())
	{
		if (t.getHandler().equals("soun"))
		{
			audioTracks.add(t);
		}
		if (t.getHandler().equals("vide"))
		{
			videoTracks.add(t);
		}
	}
}

Movie result = new Movie();

try
{
	if (audioTracks.size() > 0) 
	{
		result.addTrack(new AppendTrack(audioTracks.toArray(new Track[audioTracks.size()])));
	}
	if (videoTracks.size() > 0) 
	{
		result.addTrack(new AppendTrack(videoTracks.toArray(new Track[videoTracks.size()])));
	}
}
catch (IOException e)
{
	// TODO Auto-generated catch block
	e.printStackTrace();
}

Container out = new DefaultMp4Builder().build(result);

try
{
	FileChannel fc = new RandomAccessFile("output.mp4", "rw").getChannel();
	out.writeContainer(fc);
	fc.close();
}
catch (Exception e)
{
	// TODO Auto-generated catch block
	e.printStackTrace();
}
		
moviesList.clear();
fileList.clear();
此部分程式碼出自: http://cstriker1407.info/blog/android-application-development-notes-mp4parser/。
簡單看了下,用了這麼多movie和集合,效率較低,有時間換成自己優化後的程式碼。

另外他也可以實現視訊旋轉:

IsoFile isoFile = new IsoFile(getCompleteFilePath(i));
        Movie m = new Movie();

        List<TrackBox> trackBoxes = isoFile.getMovieBox().getBoxes(
                TrackBox.class);

        for (TrackBox trackBox : trackBoxes) {

            trackBox.getTrackHeaderBox().setMatrix(Matrix.ROTATE_90);
            m.addTrack(new Mp4TrackImpl(trackBox));

        }
        inMovies[i - 1] = m;


方案三:(IOS不可用)mp4parser+mp4v2 + x264+系統錄音

用x264壓縮每幀資料,通過系統錄製aac,使用mp4v2合併每段音視訊,再通過mp4parser拼接每段mp4.
缺點:

1)開發複雜,無論是UI還是ndk都是比較麻煩的,而且涉及到音視訊同步得問題。

優點:
1)匯入的庫較小
2)解決方案一中所提到的所有弊端

實現:

步驟一:
先要交叉編譯mp4V2 和 x264.
步驟二:
android上從攝像頭定時(時間間隔控制不好,視訊會出現假卡頓現象)獲取影象data,獲取得資料沒有yuv420p的,所以需要格式轉換,為了令使用者錄製時候看到得視訊和生成視訊一致,需要ui作出遮擋,然後裁剪。java層通過重力感應判斷攝像頭方向進行旋轉。網上現有的得演算法效率太低,日後會給出優化後的針對android的演算法。
步驟三:
通過jni傳送給x264進行編碼,列出jni關鍵程式碼:
準備:
JNIEXPORT jint JNICALL Java_com_dangyutao_test_encode_startEncode(
		JNIEnv *env, jclass class, jstring jstr, jint w, jint h, jint o,jboolean inv) {
	//定義螢幕錄製方向
	if(o!=3&&o!=0)
	{
		isInversion = inv;
		orientation = o;
	}

	//初始化編碼器
	WIDTH = w;
	HEIGHT = h;
	yuv_size = w * h * 3 / 2;
	x264_param_t param;
	x264_param_default(@param);
	x264_param_default_preset(@param, "ultrafast", "zerolatency");

	param.i_threads = ENCODE_THREAD;
	param.i_width = WIDTH;
	param.i_height = HEIGHT;
	param.i_fps_num = FPS;
	param.i_fps_den = 1;
	param.i_frame_total = 0;
	param.i_csp = CSP;
	param.i_keyint_min = FPS*3;
	param.i_keyint_max = FPS*10;
	param.i_bframe=30;
	param.i_bframe_bias = 100;
	param.rc.i_qp_min = 25;
	param.rc.i_qp_max =50;

	param.rc.i_rc_method = X264_RC_CRF;//引數i_rc_method表示位元速率控制,CQP(恆定質量/視訊很大,位元速率 和 影象效果引數失效),CRF(恆定位元速率/會根據引數定義),ABR(平均位元速率/會根據引數設定)

	param.rc.i_bitrate = 2000000;
	//圖片質量損失損失  越小越清晰,預設23 最小0
	param.rc.f_rf_constant = 3;


	//流引數*/
	/*
	 param.i_bframe = 5;
	 param.b_open_gop = 0;
	 param.i_bframe_pyramid = 0;
	 param.i_bframe_adaptive = X264_B_ADAPT_TRELLIS;

	 param.b_annexb = 1;
	 */
	x264_param_apply_profile(&param, "baseline");
	encoder = x264_encoder_open(&param);

	 //初始化輸入檔案描述符
	 outf = open(jstringTostring(env, jstr), O_CREAT | O_WRONLY, 444);
	 if (outf < 0) {
		 x264_encoder_close(encoder);
		 free(yuv_buffer);
		 close(inf);
		 return -1;
	 }
 	//申請處理的快取記憶體
	 yuv = (uint8_t *) malloc(WIDTH * HEIGHT * 3 / 2);
	 return 0;
}


新增幀資料:

JNIEXPORT jint JNICALL Java_com_dangyutao_test_encode_addDetailFrameByBuff(
		JNIEnv *env, jclass class, jbyteArray jb, jint nw, jint nh, jint w,
		jint h, jboolean isFrontCamera) {
	jbyte* dataPtr = (*env)->GetByteArrayElements(env, jb, NULL);
	uint8_t* buffer = (uint8_t*) dataPtr;

	detailYuvPic(buffer, yuv, nw, nh, w, h, isFrontCamera);

	//初始化pic——in
	x264_picture_alloc(&pic_in, CSP, WIDTH, HEIGHT);

	//用java傳來的buff,將yuvbuff填充,
	yuv_buffer = (uint8_t*) yuv;

	/*
	 //rgb:
	 pic_in.img.i_plane = 1;
	 pic_in.img.plane[0] = yuv_buffer;
	 pic_in.img.i_stride[0] = 3 * WIDTH;
	 */

	//yuv420:將yuvbuff 填充進pic_in
	pic_in.img.plane[0] = yuv_buffer;
	pic_in.img.plane[1] = &yuv_buffer[WIDTH * HEIGHT];

	pic_in.img.plane[2] = &yuv_buffer[WIDTH * HEIGHT * 5 / 4];

	pic_in.img.i_plane = 3;
	/*
	 pic_in.img.i_stride[0] = WIDTH;
	 pic_in.img.i_stride[1] = WIDTH / 2;
	 pic_in.img.i_stride[2] = WIDTH / 2;
	 */
	pic_in.img.i_csp = CSP;
	//pic_in.i_type = X264_TYPE_AUTO;
	//編碼

	x264_nal_t *nals;
	int nnal;
	pic_in.i_pts = i_pts++;

	x264_encoder_encode(encoder, &nals, &nnal, &pic_in, &pic_out);
	x264_nal_t *nal;
	for (nal = nals; nal < nals + nnal; nal++) {
		write(outf, nal->p_payload, nal->i_payload);
	}

	//釋放多餘記憶體
	(*env)->ReleaseByteArrayElements(env, jb, dataPtr, JNI_ABORT);
	//LOG("ENCODE OVER");
	return 0;

}
掃尾:
JNIEXPORT jint JNICALL Java_com_dangyutao_test_encode_finishEncode(
		JNIEnv *env, jclass class) {
	//掃尾
	x264_encoder_close(encoder);
	free(yuv);
	close(outf);
	//free(yuv_buffer); //新增buff時記憶體已經釋放
	return 0;
}

步驟四:用mp4V2合併每段音視訊
參考:http://blog.csdn.net/yaorongzhen123/article/details/8467529
http://www.cnblogs.com/lidabo/p/3832634.html;

步驟五:用mp4parser合併每段mp4檔案。
方案二中已給出程式碼。


方案四:系統錄製+ffmpeg直接編譯使用(android ios都可用)


ffmpeg 的 功能真的很強大,而且通過新filter庫可以實現視訊處理得大多數功能,不過庫的也很大。拿過來ffmpeg得原始碼稍微修改編譯之後,可以通過很簡單的介面呼叫,具體呼叫命令可以看ffmpeg得官網。系統錄製視訊,錄製完成後通過ffmpeg做後期處理,旋轉轉碼裁剪等。

優點
1)功能強大
2)開發簡單
缺點:
1)庫過大
2)本質是錄製完成後再用ffmpeg做處理,所以需要使用者等待得時間很長,android上用nexus4做測試,基本跟視訊長度等長,即一份鍾視訊轉碼需要大約一份鍾(只是這樣得時間概念,並不精準。)

實現:
交叉編譯即可。

方案五:ffmpeg基礎上二次開發。
通過ffmpeg編碼每幀視訊。再音視訊合併。
優點:
1)功能強大

缺點:
1)開發難度大,ffmpeg得標頭檔案比x264多太多。
2)相比x264效率不高。ffmpeg編碼模組也是呼叫x264,但是在測試時候發現,相比直接用x264效率差很多,主要是因為ffmpeg是面向物件架構的,其中有很多每必要得模組都在不停得初始化(只是猜測,原始碼並沒有細看),每個模組得使用都有相應得context。
3)庫大
4)相比系統錄製再轉碼速度快。由於這是在二次開發,所以可以直接通過ffmpeg進行生成視訊,nexus4基本是零延遲。錄製完成後即刻生成理想得視訊,不用使用者等待。
5)效率高。跟我實現得演算法相比,ffmpeg的scale和filter的速度真是很快,自己很好奇的深究原始碼,發現原來演算法大同小異,只是它是直接使用匯編指令,跳過系統直接呼叫cpu。
實現:

程式碼太多日後詳細給出,關鍵流程:

初始化    AVCodecContext;引數詳解也在日後給出。
配置輸入輸出的。
編碼  avcodec_encode_video2(temp->pCodecCtx, &encode_pkt, writeframe, &got_picture);
關閉流。釋放記憶體。



方案六:ffmpeg+x264


這種方案以我本人經驗是最好的。但是開發難度也跟著上來。這種開發方案有很多,音訊可以直接錄製pcm,交給ffmpeg中得faac壓縮,也可以用系統錄製aac,然後使用x264對每幀編碼,再用ffmpeg做音視訊合併,ffmpeg還可以提供後期處理。

優點:
1)解決以上所提到得所有弊端

缺點:
1)開發難度大
2)庫大
實現方案:參考以上。
列出ffmpeg合併音視訊的程式碼:


int dm_mux(char* h264file,char *aacfile, char* mp4file,int usefilter)
{

	
	AVOutputFormat *ofmt = NULL;
	//Input AVFormatContext and Output AVFormatContext
	AVFormatContext *ifmt_ctx_v = NULL, *ifmt_ctx_a = NULL,*ofmt_ctx = NULL;
	AVPacket pkt;
	int ret, i,retu =0,filter_ret=0;
//	int fps;
	int videoindex_v=-1,videoindex_out=-1;
	int audioindex_a=-1,audioindex_out=-1;
	int frame_index=0;
	int64_t cur_pts_v=0,cur_pts_a=0;
	//set file path
	const char *in_filename_v = h264file;
	const char *in_filename_a = aacfile;
	const char *out_filename = mp4file;
	AVBitStreamFilterContext* aacbsfc;

	//register before use
	av_register_all();
	//open Input and set avformatcontext
	if ((ret = avformat_open_input(&ifmt_ctx_a, in_filename_a, 0, 0)) < 0) {
		retu = -1;//-1 mean audio file opened failed
		dmprint("open audio file failed",ret);
		goto end;
	}
	if ((ret = avformat_open_input(&ifmt_ctx_v, in_filename_v, 0, 0)) < 0) {
		retu = -2; //-2 mean video file opened failed
		dmprint("open video file failed",ret);
		goto end;
	}
	if ((ret = avformat_find_stream_info(ifmt_ctx_v, 0)) < 0) {

		retu = -3; //-3 mean get video info failed
		dmprint("get video info failed",ret);
		goto end;
	}


	if ((ret = avformat_find_stream_info(ifmt_ctx_a, 0)) < 0) {
		retu = -4;//-4 mean get audio info failed
		dmprint("get audio info failed ret = ",ret);
		goto end;
	}

	//open Output
	avformat_alloc_output_context2(&ofmt_ctx, NULL, NULL, out_filename);
	if (!ofmt_ctx) {
		dmprint("open output file failed",ret);
		retu = -5;
		goto end;
	}
	ofmt = ofmt_ctx->oformat;
	//find all video stream input type
	for (i = 0; i < ifmt_ctx_v->nb_streams; i++) {
		//Create output AVStream according to input AVStream
		if(ifmt_ctx_v->streams[i]->codec->codec_type==AVMEDIA_TYPE_VIDEO){
		AVStream *in_stream = ifmt_ctx_v->streams[i];
		AVStream *out_stream = avformat_new_stream(ofmt_ctx, in_stream->codec->codec);
		videoindex_v=i;
		if (!out_stream) {
			dmprint_string( "Failed allocating output stream");
			retu = -6;
			goto end;
		}
		videoindex_out=out_stream->index;
		//Copy the settings of AVCodecContext
		if (avcodec_copy_context(out_stream->codec, in_stream->codec) < 0) {
			dmprint_string( "Failed to copy context from input to output stream codec context");
			retu = -7;
			goto end;
		}
		out_stream->codec->codec_tag = 0;
		if (ofmt_ctx->oformat->flags & AVFMT_GLOBALHEADER)
			out_stream->codec->flags |= CODEC_FLAG_GLOBAL_HEADER;
		break;
		}
	}

	//find all audio stream input type
	for (i = 0; i < ifmt_ctx_a->nb_streams; i++) {
		//Create output AVStream according to input AVStream
		if(ifmt_ctx_a->streams[i]->codec->codec_type==AVMEDIA_TYPE_AUDIO){
			AVStream *in_stream = ifmt_ctx_a->streams[i];
			AVStream *out_stream = avformat_new_stream(ofmt_ctx, in_stream->codec->codec);
			audioindex_a=i;
			if (!out_stream) {
				dmprint_string("Failed allocating output stream");
				retu = -8;
				goto end;
			}
			audioindex_out=out_stream->index;
			//Copy the settings of AVCodecContext
			if (avcodec_copy_context(out_stream->codec, in_stream->codec) < 0) {
				dmprint_string( "Failed to copy context from input to output stream codec context");
				retu =-9;
				goto end;
			}
			out_stream->codec->codec_tag = 0;
			if (ofmt_ctx->oformat->flags & AVFMT_GLOBALHEADER)
				out_stream->codec->flags |= CODEC_FLAG_GLOBAL_HEADER;

			break;
		}
	}

	//Open output file
	if (!(ofmt->flags & AVFMT_NOFILE)) {
		if (avio_open(&ofmt_ctx->pb, out_filename, AVIO_FLAG_WRITE) < 0) {
			dmprint_string( "Could not open output file ");
			retu = -10;
			goto end;
		}
	}
	//Write file header
	if (avformat_write_header(ofmt_ctx, NULL) < 0) {
		dmprint_string( "Error occurred when opening output file");
		retu = -11;
		goto end;
	}
	if(usefilter)
		aacbsfc = av_bitstream_filter_init("aac_adtstoasc");

	while (IS_GOING) {
		AVFormatContext *ifmt_ctx;
		int stream_index=0;
		AVStream *in_stream, *out_stream;
		//Get an AVPacket
		if(av_compare_ts(cur_pts_v,ifmt_ctx_v->streams[videoindex_v]->time_base,cur_pts_a,
					ifmt_ctx_a->streams[audioindex_a]->time_base) <= 0)
		{
			ifmt_ctx=ifmt_ctx_v;
			stream_index=videoindex_out;
			if(av_read_frame(ifmt_ctx, &pkt) >= 0){

				do{
					in_stream  = ifmt_ctx->streams[pkt.stream_index];
					out_stream = ofmt_ctx->streams[stream_index];
					if(pkt.stream_index==videoindex_v){

						//Simple Write PTS
						if(pkt.pts==AV_NOPTS_VALUE){

							//Write PTS
							AVRational time_base1=in_stream->time_base;
							//Duration between 2 frames (us)
							int64_t calc_duration=(double)AV_TIME_BASE/av_q2d(in_stream->r_frame_rate);
							//Parameters
							pkt.pts=(double)(frame_index*calc_duration)/(double)(av_q2d(time_base1)*AV_TIME_BASE);
							pkt.dts=pkt.pts;
							pkt.duration=(double)calc_duration/(double)(av_q2d(time_base1)*AV_TIME_BASE);
							frame_index++;
						}
						cur_pts_v=pkt.pts;
						break;
					}
				}
				while(av_read_frame(ifmt_ctx, &pkt) >= 0);
			}
			else
			{
				break;
			}
		}
		else
		{
			ifmt_ctx=ifmt_ctx_a;
			stream_index=audioindex_out;
			if(av_read_frame(ifmt_ctx, &pkt) >= 0){
				do
				{
					in_stream  = ifmt_ctx->streams[pkt.stream_index];
					out_stream = ofmt_ctx->streams[stream_index];
					if(pkt.stream_index==audioindex_a)
					{
						//Simple Write PTS
						if(pkt.pts==AV_NOPTS_VALUE)
						{
							//Write PTS
							AVRational time_base1=in_stream->time_base;
							//Duration between 2 frames (us)
							int64_t calc_duration=(double)AV_TIME_BASE/av_q2d(in_stream->r_frame_rate);
							//Parameters
							pkt.pts=(double)(frame_index*calc_duration)/(double)(av_q2d(time_base1)*AV_TIME_BASE);
							pkt.dts=pkt.pts;
							pkt.duration=(double)calc_duration/(double)(av_q2d(time_base1)*AV_TIME_BASE);
							frame_index++;
						}
						cur_pts_a=pkt.pts;
						break;
					}
				}
				while(av_read_frame(ifmt_ctx, &pkt) >= 0);
			}
			else
			{
				break;
			}

		}
		if(usefilter)
			filter_ret = av_bitstream_filter_filter(aacbsfc, out_stream->codec, NULL, &pkt.data,&pkt.size, pkt.data, pkt.size, 0);
		if(filter_ret)
		{
			dmprint_string("failt to use :filter");
			retu = -10;
			goto end;
			
		}
		//Convert PTS/DTS
		pkt.pts = av_rescale_q_rnd(pkt.pts, in_stream->time_base, out_stream->time_base,(AV_ROUND_NEAR_INF|AV_ROUND_PASS_MINMAX));
		pkt.dts = av_rescale_q_rnd(pkt.dts, in_stream->time_base, out_stream->time_base,(AV_ROUND_NEAR_INF|AV_ROUND_PASS_MINMAX));
		pkt.duration = av_rescale_q(pkt.duration, in_stream->time_base, out_stream->time_base);
		pkt.pos = -1;
		pkt.stream_index=stream_index;
		
		//Write
		if (av_interleaved_write_frame(ofmt_ctx, &pkt) < 0) {
			av_free_packet(&pkt);
			dmprint_string( "Error muxing packet");
			break;
		}
		//av_packet_unref(&pkt);		
			//av_interleaved_write_frame(ofmt_ctx, &pkt);
		av_free_packet(&pkt);
	}

	if(IS_GOING)
	{
		//Write file trailer
		av_write_trailer(ofmt_ctx);
		
	}
	else
		retu =RET_CLOSE;//-77 mean is close by user
	if(usefilter)
		av_bitstream_filter_close(aacbsfc);
end:
	avformat_close_input(&ifmt_ctx_v);
	avformat_close_input(&ifmt_ctx_a); 
	/* close output */
	if (ofmt_ctx && !(ofmt->flags & AVFMT_NOFILE))
		avio_close(ofmt_ctx->pb);
	avformat_free_context(ofmt_ctx);
    avformat_free_context(ifmt_ctx_v);
    avformat_free_context(ifmt_ctx_a);
	if (ret < 0 && ret != AVERROR_EOF) {
		dmprint_string( "Error occurred.");
	}
	dmprint("return is ",retu);
	return retu;
}
假如音訊是擁有封裝格式得需要使用那個濾鏡。


以上是我所嘗試過的移動端視訊錄製得技術方案,如果有其他方案,望告知,謝謝。歡迎交流。

相關推薦

Android & IOS視訊錄製技術方案

轉載文章請註明出處:http://write.blog.csdn.net/postedit/48104617 移動端視訊錄製的技術方案,我所能想到並且嘗試過的,有如下幾種:方案一: 用系統開發sdk錄製的介面。 弊端:  1):不能更改視訊比例,一般都有該手機螢幕解析度所對應得視訊錄製解析度,另外手機系統提

Android獲取前臺程序技術方案

Andoid系統從Android5.0開始對獲取前臺程序介面進行相關限制。本文為對突破Android介面限制進行的一系列研究的總結。目前所有獲取前臺程序的介面有如下7種方式: 接下來將對每一種方案進行詳細的闡述。 1.通過RunningTask 1.1.實現原理

Android視訊錄製(3)——全關鍵幀視訊錄製視訊編輯必備)

全關鍵幀錄製顧名思義,就是視訊所有幀都是關鍵幀(I幀),毫無疑問,全I幀的視訊肯定會比正常錄製的視訊要大很多,但是為什麼需要全I幀錄製的視訊?原因就是,大部分音視訊app錄製完視訊之後都要對視訊進行編輯吧,但是如果不是全I幀錄製的視訊檔案,編輯起來會非常困難,而全I幀

Android視訊錄製

一·視訊錄製介面 SurfaceView 的使用 SurfaceView我們可以把它當作一個容器,它放在所有視窗的下面·提供了一個可見區域,通過SurfaceHolder介面訪問這個surface,getHolder()方法可以得到這個介面,它相當於SurfaceVie

Android APK加殼技術方案【2】

本文章由Jack_Jia編寫,轉載請註明出處。   一、序言         在上篇“Android APK加殼技術方案”(http://blog.csdn.net/jiazhijun/article/details/8678399)博文中,根據加殼資料在解殼程式D

iOS視訊錄製

- (void)createrVideoRecodr { //建立視訊裝置(攝像頭前,後) NSArray*devices = [AVCaptureDevicedevicesWithMediaType:AVMediaTypeVideo]; //2.初始化一個攝像頭

Android 實現視訊錄製播放

   實現類似微信的小視訊功能,可以錄製一個視訊然後播放該視訊。    視訊錄製,使用一個自定義控制元件。 <span style="font-size:14px;">/** * 視訊錄製控制元件 * * @author lip * * @date

Android視訊錄製(4)——變速錄製

概述 在看本篇文章之前請務必先檢視這面三篇文章: 視訊變速是一個非常有趣的東西,在我們平時看電影的時候,導演對某些鏡頭進行快放(比如動作片的拳腳片段),某些鏡頭進行慢放(比如一些火山噴發之類的),從而造成非常震撼的影視效果。最近非常火的一些app,能讓普

android視訊錄製、另一部手機實時觀看方案

          最近調研android視訊錄製、另一部手機實時觀看,大致有以下幾種思路。 1. android手機充當伺服器,使用NanoHTTPD充當伺服器,另一部手機或者pc通過輸入http://手機的ip:8080網址觀看。 缺點:android手機必須

Android 自定義視訊錄製終極解決方案(翻轉問題)

Android 自定義視訊錄製翻轉問題終極解決方案 自定義視訊錄製 使用系統可用播放器 前後攝像和視訊反轉問題 總結 自定義視訊錄製 mediarecorder = new MediaRecorder();// 建立mediarecorde

Android視訊錄製,儲存圖片,視訊到本地後本地相簿或者視訊庫裡面沒有的解決方案

   1 問題:最近要做一個將伺服器視訊儲存到本地的功能,將視訊儲存到本地後發現本地相簿裡面並沒有更新該視訊,糾其原因是系統的媒體資料庫並沒有實時的更新   2 解決方案:利用MediaScannerConnection主動去掃描掃描媒體資料庫            步驟:1

Android系統自帶的MediaRecorder結合Camera實現視訊錄製及播放功能。

    近期,公司專案新增了需求,需要視訊錄製,然後儲存到本地,再播放...。 看了很多其他的框架,說不出好壞,應該說各有千秋吧。但我覺得還是原生的靠譜,就是谷歌系統自帶的MediaRecorder。 不多說上程式碼吧(已經測試,沒問題)。 程式碼沒什麼複雜的,都是些

關於直播視訊平臺與監控視訊平臺技術架構方案

關於直播視訊平臺與監控視訊平臺技術架構方案   前言 講個大實話,直播平臺複雜在直播端(也就是播放端),而監控平臺複雜在接入端(前端裝置或平臺)。 至於技術難點,難者自知。   一、直播平臺(想盡一切辦法來降低延遲,從一開始你就不應該對hls抱有任何幻想)

Android實現本地視訊+錄製視訊+視訊壓縮上傳

今天研究了一下視訊上傳的處理,還包括研究可以視訊壓縮,本地視訊、錄製視訊上傳。本地視訊獲取需要適配手機,這個建議自己獲取本地視訊列表自己實現。不然就會出現路徑找不到返回 null 好東西都是要分享給大家的 有問題請留言評論。。。 視訊壓縮我用的是七牛的 ,我們圖片上傳的就是七牛,七牛的視

Android 仿抖音之使用OpenGL實現抖音視訊錄製

前言 在之前寫了仿抖音的第一步,就是使用OpenGL顯示攝像頭資料,今天這篇就是在之前的基礎上來錄製視訊,並且對之前的程式碼的結構進行了簡單的整理,然後進行了仿抖音的視訊錄製。 工程結構整理 在仿抖音的第一步中封裝了ScreenFilter類來實現渲染螢幕的操作,我們都知道在抖音

Android-音視訊(7):使用Camera錄製視訊,並存檔案

1.MediaCodec的作用 因為這裡會用到,所以先介紹這個的用法。 MediaCodec類用於使用一些基本的多媒體編解碼操作。 主要的API如下: getInputBuffers:獲取需要編碼資料的輸入流佇列,返回的是一個ByteBuffer陣列  queueI

視訊直播技術iOS端推流

隨著網路基礎建設的發展和資費的下降,在這個內容消費升級的時代,文字、圖片無法滿足人們對視覺的需求,因此視訊直播應運而生。承載了實時性Real-Time和互動性的直播雲服務是直播覆蓋各行各業的新動力。網易雲信推出一系列文章,對視訊直播技術進行深入講解,本篇文章將向大家介紹iOS

Android 實時視訊採集/編碼/傳輸/解碼/播放—方案調研

實時視訊流採集 方案一:  通過Android Camera拍攝預覽中設定setPreviewCallback實現onPreviewFrame介面,實時擷取每一幀視訊流資料  方案二:  通過Android的MediaRecorder,在SetoutputFile函式中繫

Android IOS各種視訊資源大神免費送

原處原作者百度雲盤資源永久分享,包括計算機中Java & Android、IOS、前端、資料庫、C++、Unity3D、Python方面的視訊等教學資源。一、Java & Android二、IOS三、前端四、資料庫《甲骨論大資料2017》免費視訊教程(管理+開

中小學、幼兒園遠端視訊監控系統技術方案

中小學、幼兒園遠端視訊監控系統技術方案 行業背景   近年來,隨著我國教育事業的發展、高校擴招以及中小學合併等趨勢,學校規模的擴張伴隨著安全防範需求增大,科技的發展也推動著教學手段的更新,除了視訊監控防範,高清網路攝像頭也越來越多的出現在多媒體教學、遠端教學、電