ROS使用openni獲取Kinect彩色影象和深度影象
本實驗使用Ubuntu14.04的64bit版本,ROS使用Indigo版本,影象獲取使用OpenNI1(因為OpenNI2中未找到彩色影象和深度影象對齊功能,臺灣的一代大神Heresy已經實現這一功能,但是我更喜歡OpenNI1官方對齊方法),影象處理使用OpenCV2,因其更好的通用行。
1.配置openni:
根據這裡面的教程可以對彩色資料和深度資料進行提取.
2.安裝opencv2:
安裝依賴:
依賴安裝完成後,將opencv解壓並進入目錄,進行一下操作sudo apt-get install build-essential libgtk2.0-dev libjpeg-dev libtiff4-dev libjasper-dev libopenexr-dev cmake python-dev python-numpy python-tk libtbb-dev libeigen2-dev yasm libfaac-dev libopencore-amrnb-dev libopencore-amrwb-dev libtheora-dev libvorbis-dev libxvidcore-dev libx264-dev libqt4-dev libqt4-opengl-dev sphinx-common texlive-latex-extra libv4l-dev libdc1394-22-dev libavcodec-dev libavformat-dev libswscale-dev
mkdir build cd build cmake .. make sudo make install3.安裝ros:
相關推薦
ROS使用openni獲取Kinect彩色影象和深度影象
本實驗使用Ubuntu14.04的64bit版本,ROS使用Indigo版本,影象獲取使用OpenNI1(因為OpenNI2中未找到彩色影象和深度影象對齊功能,臺灣的一代大神Heresy已經實現這一功能,但是我更喜歡OpenNI1官方對齊方法),影象處理使用OpenCV2
由RGB影象和深度影象獲取點雲
#include <iostream> #include <fstream> #include <string> #include <pcl/io/pcd_io.h> #include <pcl/io/ply_io.h> #include
realsense對齊彩色影象和深度影象
首先宣告realsense通道,封裝實際裝置和感測器 //初始化 pipeline pipe; pipeline_profile profile = pipe.start(); rs2_stream align_to = find_stream_to_align(p
RGB和深度影象獲取最終版
此處在原部落格基礎上進行了改正,調整了深度影象的歸一化處理方法,最終顯示減少了空洞 #include <opencv2\opencv.hpp> #include<iostream> #include <Windows.h> #inclu
OpenNI+OpenCV對Kinect採集的彩色圖和深度圖進行濾波
平臺:Windows 7 x86,OpenCV2.4.9,OpenNI1.5.4.0,VS2010 採用了4種方式對彩色圖和深度圖進行濾波,分別為均值濾波、高斯濾波、中值濾波和雙邊濾波。並且利用滾動條實現4種濾波方式的引數可調。 <span styl
Kinect骨骼資料與彩色影像和深度影像的對齊
很多同學留言問怎麼講兩種影像資料顯示在同一張螢幕上,也就是說怎麼將骨骼資料疊加到彩色影像或者深度影像上,將彩色影像疊加到深度影像就不討論了,因為沒啥意義。 這個問題其實很簡單,因為在Kinect Developer Toolkit中很多例子中又可以看到這兩種型
線性代數之——行影象和列影象
1. 線性方程組的幾何解釋 線性代數的中心問題就是解決一個方程組,這些方程都是線性的,也就是未知數都是乘以一個數字的。 \[\begin{alignedat}{2} &x \space- \space&2&y \space=\space 1 \\ 3&x\space+\sp
ROS影象和OpenCV影象之間的轉換(C ++)
1.概念 ROS以自己的sensor_msgs / Image訊息格式傳遞影象,但許多使用者希望將影象與OpenCV結合使用。 CvBridge是一個ROS庫,提供ROS和OpenCV之間的介面。 在本教程中,您將學習如何編寫使用CvBridge將ROS影象轉換為O
譯:ROS影象和OpenCV影象相互轉換
ROS影象和OpenCV影象相互轉換 描述: 本文將描述如何使用cv_bridge來將ROS影象轉換為OpenCV影象,以及OpenCV轉為ROS影象。 1. 概念 在ROS中是以自己的sensor_msgs/Image格式對影象進行處理的,但開發者可
彩色圖和深度圖轉點雲
環境:windows10、VS2013、opencv 2.49、openNi、PCL1.8opencv 環境搭建參考PCL1.8+openNi搭建參考將上面的opencv和pcl的配置儲存到屬性表中,以便下一次快速引用。新建專案,選擇解決方案配置選擇Debug x64,屬性管
結合彩色圖和深度圖建立點雲(OpenCV+OpenNI+PCL)
試驗了好久了,終於成功了!用OpenNI獲取彩色和深度資料流,轉化成OpenCV的Mat影象格式。 對相機進行標定,獲取相機的內部引數: Calibration results after optimization (with uncertainties): //優化後
用numpy開啟影象和儲存影象----找了很久的資料
# -*- coding: utf-8 -*- from PIL import Image from pylab import * from PCV.tools import imtool
基於ROS獲取Android影象和慣導資料
0 將手機與ROS連線 首先,通過區域網將手機與ROS相連線。我使用的是hitcm部落格的程式,具體可以參考他的部落格。到這一步已經可以在電腦端做進一步的計算了,但是如果還想記錄下來資料以便未來再次回放使用,則需要進一步處理。 1 記錄bag ROS與手機相連後,使用rosbag命令開始記錄資料:
在ROS下,攝像頭kinect V1的RGB圖和深度圖的獲取
驅動安裝好後,首先在終端輸入“roscore”,啟動節點,然後在新的終端輸入“roslaunch freenect_launch freenect-registered-xyzrgb.launch”或者“roslaunch freenect_launch freenect
深度學習 --- CNN的變體在影象分類、影象檢測、目標跟蹤、語義分割和例項分割的簡介(附論文連結)
以上就是卷積神經網路的最基礎的知識了,下面我們一起來看看CNN都是用在何處並且如何使用,以及使用原理,本人還沒深入研究他們,等把基礎知識總結完以後開始深入研究這幾個方面,然後整理在寫成部落格,最近的安排是後面把自然語言處理總結一下,強化學習的總結就先往後推一下。再往後是系統的學習一下演算法和資料
Kinect顯示彩色資料流和深度資料流
Kinect顯示彩色資料流和深度資料流 Kinect顯示彩色資料流(當前場景) Kinect顯示深度資料流(將人物扣在背景上) Kinect顯示彩色資料流(當前場景) 1.勾選Computer Color Map; 2.新
OpenCV單kinect多幀靜止場景的深度影象去噪
老闆kinect去噪的任務下達已經有半個多月了,前期除了看了幾天文獻之外就打醬油了,好像每天都很忙,可是就是不知道在忙什麼。這幾天為了交差,就胡亂湊了幾段程式碼,得到一個結果,也知道不行,先應付一下,再圖打算。 程式思想很簡單,先對靜止的場景連續取樣若干幀,然後對所有點在時間域取中值,對取完中值之後的無效點
opencv 影象的深度和通道介紹
矩陣資料型別: – CV_<bit_depth>(S|U|F)C<number_of_channels> S = 符號整型 U = 無符號整型 F = 浮點型 E.g.: CV_8UC1 是指一個8位無符號整型單通道矩陣, CV_32FC2是指一個32位浮點型雙通道矩
深度影象的獲取原理
在計算機視覺系統中,三維場景資訊為影象分割、目標檢測、物體跟蹤等各類計算機視覺應用提供了更多的可能性,而深度影象(Depth map)作為一種普遍的三維場景資訊表達方式得到了廣泛的應用。深度影象的每個畫素點的灰度值可用於表徵場景中某一點距離攝像機的遠近。 獲取深度影象的
如何用Python和深度神經網路識別影象?
來源:王樹義科學網部落格概要:只需要10幾行Python程式碼,你就能自己構建機器視覺模型,對圖