1. 程式人生 > >V4L2攝像頭驅動入門

V4L2攝像頭驅動入門

一篇不錯的v4l2入門文件【轉】 轉自: http://blog.chinaunix.net/uid-26851094-id-3270803.html 原帖地址: http://www.isongzi.com/2009/02/23/v4l2/ 前言:目前正在忙於ARM平臺的Linux應用程式的開發(其實是剛剛起步學習啦)。底層的東西不用考慮了,開發板子提供了NAND Bootloader,和Linux 2.6的原始碼,而且都編譯好了。自己編譯的bootloader可以用,但是Linux編譯後,檔案很大,暫且就用人家編譯的系統,先專心寫應用程式 吧。。 正文:要做的任務是,把一塊板子上的攝像頭採集的影象和音效卡採集的聲音(貌似很囉嗦哈)通過TCP/IP協議傳輸到另一塊板子上。第一步,先把視訊獲取並且在本地LCD上顯示。看了板子提供的文件,視訊傳輸需要用V4L2的API。
一.什麼是video4linux Video4linux2(簡稱V4L2),是linux中關於視訊裝置的核心驅動。在Linux中,視訊裝置是裝置檔案,可以像訪問普通檔案一樣對其進行讀寫,攝像頭在/dev/video0下。 二、一般操作流程(視訊裝置): 1. 開啟裝置檔案。 int fd=open(”/dev/video0″,O_RDWR); 2. 取得裝置的capability,看看裝置具有什麼功能,比如是否具有視訊輸入,或者音訊輸入輸出等。VIDIOC_QUERYCAP,struct v4l2_capability
3. 選擇視訊輸入,一個視訊裝置可以有多個視訊輸入。VIDIOC_S_INPUT,struct v4l2_input 4. 設定視訊的制式和幀格式,制式包括PAL,NTSC,幀的格式個包括寬度和高度等。 VIDIOC_S_STD,VIDIOC_S_FMT,struct v4l2_std_id,struct v4l2_format 5. 向驅動申請幀緩衝,一般不超過5個。struct v4l2_requestbuffers 6. 將申請到的幀緩衝對映到使用者空間,這樣就可以直接操作採集到的幀了,而不必去複製。mmap
7. 將申請到的幀緩衝全部入佇列,以便存放採集到的資料.VIDIOC_QBUF,struct v4l2_buffer 8. 開始視訊的採集。VIDIOC_STREAMON 9. 出佇列以取得已採集資料的幀緩衝,取得原始採集資料。VIDIOC_DQBUF 10. 將緩衝重新入佇列尾,這樣可以迴圈採集。VIDIOC_QBUF 11. 停止視訊的採集。VIDIOC_STREAMOFF 12. 關閉視訊裝置。close(fd); 三、常用的結構體(參見/usr/include/linux/videodev2.h): struct v4l2_requestbuffers reqbufs;//向驅動申請幀緩衝的請求,裡面包含申請的個數 struct v4l2_capability cap;//這個裝置的功能,比如是否是視訊輸入裝置 struct v4l2_input input; //視訊輸入 struct v4l2_standard std;//視訊的制式,比如PAL,NTSC struct v4l2_format fmt;//幀的格式,比如寬度,高度等 struct v4l2_buffer buf;//代表驅動中的一幀 v4l2_std_id stdid;//視訊制式,例如:V4L2_STD_PAL_B struct v4l2_queryctrl query;//查詢的控制 struct v4l2_control control;//具體控制的值 下面具體說明開發流程(網上找的啦,也在學習麼) 開啟視訊裝置 在V4L2中,視訊裝置被看做一個檔案。使用open函式開啟這個裝置: // 用非阻塞模式開啟攝像頭裝置 int cameraFd; cameraFd = open(“/dev/video0″, O_RDWR | O_NONBLOCK, 0); // 如果用阻塞模式開啟攝像頭裝置,上述程式碼變為: //cameraFd = open(”/dev/video0″, O_RDWR, 0); 關於阻塞模式和非阻塞模式 應用程式能夠使用阻塞模式或非阻塞模式開啟視訊裝置,如果使用非阻塞模式呼叫視訊裝置,即使尚未捕獲到資訊,驅動依舊會把快取(DQBUFF)裡的東西返回給應用程式。 設定屬性及採集方式 開啟視訊裝置後,可以設定該視訊裝置的屬性,例如裁剪、縮放等。這一步是可選的。在Linux程式設計中,一般使用ioctl函式來對裝置的I/O通道進行管理: extern int ioctl (int __fd, unsigned long int __request, …) __THROW; __fd:裝置的ID,例如剛才用open函式開啟視訊通道後返回的cameraFd; __request:具體的命令標誌符。 在進行V4L2開發中,一般會用到以下的命令標誌符:
  1. VIDIOC_REQBUFS:分配記憶體
  2. VIDIOC_QUERYBUF:把VIDIOC_REQBUFS中分配的資料快取轉換成實體地址
  3. VIDIOC_QUERYCAP:查詢驅動功能
  4. VIDIOC_ENUM_FMT:獲取當前驅動支援的視訊格式
  5. VIDIOC_S_FMT:設定當前驅動的頻捕獲格式
  6. VIDIOC_G_FMT:讀取當前驅動的頻捕獲格式
  7. VIDIOC_TRY_FMT:驗證當前驅動的顯示格式
  8. VIDIOC_CROPCAP:查詢驅動的修剪能力
  9. VIDIOC_S_CROP:設定視訊訊號的邊框
  10. VIDIOC_G_CROP:讀取視訊訊號的邊框
  11. VIDIOC_QBUF:把資料從快取中讀取出來
  12. VIDIOC_DQBUF:把資料放回快取佇列
  13. VIDIOC_STREAMON:開始視訊顯示函式
  14. VIDIOC_STREAMOFF:結束視訊顯示函式
  15. VIDIOC_QUERYSTD:檢查當前視訊裝置支援的標準,例如PAL或NTSC。
這些IO呼叫,有些是必須的,有些是可選擇的。 檢查當前視訊裝置支援的標準 在亞洲,一般使用PAL(720X576)制式的攝像頭,而歐洲一般使用NTSC(720X480),使用VIDIOC_QUERYSTD來檢測: v4l2_std_id std; do { ret = ioctl(fd, VIDIOC_QUERYSTD, &std); } while (ret == -1 && errno == EAGAIN); switch (std) { case V4L2_STD_NTSC: //…… case V4L2_STD_PAL: //…… } 設定視訊捕獲格式 當檢測完視訊裝置支援的標準後,還需要設定視訊捕獲格式: struct v4l2_format    fmt; memset ( &fmt, 0, sizeof(fmt) ); fmt.type = V4L2_BUF_TYPE_VIDEO_CAPTURE; fmt.fmt.pix.width = 720; fmt.fmt.pix.height = 576; fmt.fmt.pix.pixelformat = V4L2_PIX_FMT_YUYV; fmt.fmt.pix.field = V4L2_FIELD_INTERLACED; if (ioctl(fd, VIDIOC_S_FMT, &fmt) == -1) { return -1; } v4l2_format結構體定義如下: struct v4l2_format { enum v4l2_buf_type type;    // 資料流型別,必須永遠是//V4L2_BUF_TYPE_VIDEO_CAPTURE union { struct v4l2_pix_format    pix; struct v4l2_window        win; struct v4l2_vbi_format    vbi; __u8    raw_data[200]; } fmt; }; struct v4l2_pix_format { __u32                   width;         // 寬,必須是16的倍數 __u32                   height;        // 高,必須是16的倍數 __u32                   pixelformat;   // 視訊資料儲存型別,例如是//YUV4:2:2還是RGB enum v4l2_field         field; __u32                   bytesperline; __u32                   sizeimage; enum v4l2_colorspace    colorspace; __u32                   priv; }; 分配記憶體 接下來可以為視訊捕獲分配記憶體: struct v4l2_requestbuffers  req; if (ioctl(fd, VIDIOC_REQBUFS, &req) == -1) { return -1; } v4l2_requestbuffers定義如下: struct v4l2_requestbuffers { __u32               count;  // 快取數量,也就是說在快取佇列裡保持多少張照片 enum v4l2_buf_type  type;   // 資料流型別,必須永遠是V4L2_BUF_TYPE_VIDEO_CAPTURE enum v4l2_memory    memory; // V4L2_MEMORY_MMAP 或V4L2_MEMORY_USERPTR __u32               reserved[2]; }; 獲取並記錄快取的物理空間 使用VIDIOC_REQBUFS,我們獲取了req.count個快取,下一步通過呼叫VIDIOC_QUERYBUF命令來獲取這些快取的地址,然後使用mmap函式轉換成應用程式中的絕對地址,最後把這段快取放入快取佇列:

typedef struct VideoBuffer { void *start; size_t  length; } VideoBuffer; VideoBuffer*          buffers = calloc( req.count, sizeof(*buffers) ); struct v4l2_buffer    buf; for (numBufs = 0; numBufs < req.count; numBufs++) { memset( &buf, 0, sizeof(buf) ); buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE; buf.memory = V4L2_MEMORY_MMAP; buf.index = numBufs; // 讀取快取 if (ioctl(fd, VIDIOC_QUERYBUF, &buf) == -1) { return -1; } buffers[numBufs].length = buf.length; // 轉換成相對地址 buffers[numBufs].start = mmap(NULL, buf.length, PROT_READ | PROT_WRITE, MAP_SHARED, fd, buf.m.offset); if (buffers[numBufs].start == MAP_FAILED) { return -1; } // 放入快取佇列 if (ioctl(fd, VIDIOC_QBUF, &buf) == -1) { return -1; } } 關於視訊採集方式 作業系統一般把系統使用的記憶體劃分成使用者空間和核心空間,分別由應用程式管理和作業系統管理。應用程式可以直接訪問記憶體的地址,而核心空間存放的是 供核心訪問的程式碼和資料,使用者不能直接訪問。v4l2捕獲的資料,最初是存放在核心空間的,這意味著使用者不能直接訪問該段記憶體,必須通過某些手段來轉換地 址。 一共有三種視訊採集方式:使用read、write方式;記憶體對映方式和使用者指標模式。 read、write方式:在使用者空間和核心空間不斷拷貝資料,佔用了大量使用者記憶體空間,效率不高。 記憶體對映方式:把裝置裡的記憶體對映到應用程式中的記憶體控制元件,直接處理裝置記憶體,這是一種有效的方式。上面的mmap函式就是使用這種方式。 使用者指標模式:記憶體片段由應用程式自己分配。這點需要在v4l2_requestbuffers裡將memory欄位設定成V4L2_MEMORY_USERPTR。 處理採集資料 V4L2有一個數據快取,存放req.count數量的快取資料。資料快取採用FIFO的方式,當應用程式呼叫快取資料時,快取佇列將最先採集到的 視訊資料快取送出,並重新採集一張視訊資料。這個過程需要用到兩個ioctl命令,VIDIOC_DQBUF和VIDIOC_QBUF: struct v4l2_buffer buf; memset(&buf,0,sizeof(buf)); buf.type=V4L2_BUF_TYPE_VIDEO_CAPTURE; buf.memory=V4L2_MEMORY_MMAP; buf.index=0; //讀取快取 if (ioctl(cameraFd, VIDIOC_DQBUF, &buf) == -1) { return -1; } //…………視訊處理演算法 //重新放入快取佇列 if (ioctl(cameraFd, VIDIOC_QBUF, &buf) == -1) { return -1; } 關閉視訊裝置 使用close函式關閉一個視訊裝置 close(cameraFd) 還需要使用munmap方法。 附錄:標準的V4l2的API http://v4l.videotechnology.com/dwg/v4l2.pdf