1. 程式人生 > >核磁資料處理: FSL系列之segmentation工具FAST

核磁資料處理: FSL系列之segmentation工具FAST

fsl的segmentation工具: FAST (FMRIB’s Automated Segmentation Tool)將大腦組織的3D影響分解為不同的組織,比如灰質\白質\腦脊液等等, 同時還可以進行spatial intensity variations的修正, 也就是bias field或者RF inhomogeneities.
在終端輸入Fast, 開啟FAST的GUI介面, 輸入fast則是FAST的命令列呼叫.
這裡寫圖片描述

FAST工具採用的演算法是隱馬爾科夫隨機場模型,以及相關的EM演算法(Expectation-Maximization).
整個計算過程都是全自動的,輸入是經過bias field-corrected 影象, 輸入是從概率上和/或者分容積的組織分解.(probabilistic and/or partial volume tissue) .演算法的魯棒性和可靠性都是比較好的,對噪聲也相對比太敏感.
fast命令列工具的呼叫格式為:

fast [options] [input_nifti_file] [output_nifti_file]

例如:

fast -t 1 -n 3 -H 0.1 -I 4 -l 20.0 -o /home/dl/Data/Brain/Liang_test/test_out/brain /home/dl/Data/Brain/Liang_test/test_out/brain

生成的segmentation檔案有:
-rw-rw-r– 1 dl dl 321587 Mar 15 19:55 brain_mixeltype.nii.gz
-rw-rw-r– 1 dl dl 575046 Mar 15 19:55 brain_pve_0.nii.gz
-rw-rw-r– 1 dl dl 995397 Mar 15 19:55 brain_pve_1.nii.gz
-rw-rw-r– 1 dl dl 537648 Mar 15 19:55 brain_pve_2.nii.gz
-rw-rw-r– 1 dl dl 276283 Mar 15 19:55 brain_pveseg.nii.gz
-rw-rw-r– 1 dl dl 277565 Mar 15 19:55 brain_seg.nii.gz

常用引數:
-S or –channels= 影象通道數, 通常設為1
-t or –type= 影象種類, T1的話設定為1, T2設定為2, PD設定為3
-o or –out= 輸出檔案的基本名稱,生成的檔案會自動附上字尾, 例如seg, pve_0, pve_1等.
-n or –class= 組織型別數.T1的話通常設定為3, (Grey Matter, White Matter and CSF) T2的話通常設定為4. 如果影象很不清晰, 可以設定為2.
-b 輸出的估計偏置場(estimated bias field)
-B 輸出偏置影象並儲存(bias-corrected image)
-l or –lowpass= 偏置場平滑, m是FWHM, 單位是mm, m ≅ 2 √n
-I 或者 –iter 迴圈次數

輸出的結果用fsleyes開啟後,可以看到:
這裡寫圖片描述

相關推薦

核磁資料處理: FSL系列segmentation工具FAST

fsl的segmentation工具: FAST (FMRIB’s Automated Segmentation Tool)將大腦組織的3D影響分解為不同的組織,比如灰質\白質\腦脊液等等, 同時還可以進行spatial intensity variations

核磁資料處理: FSL系列flirt命令

flirt 是FSL的線性修正工具. 官方提供了非常豐富的呼叫方式: - 命令Flirt可以啟動FLIRT的GUI + InvertXFM, ApplyXFM, ConcatXFM - 命令flirt 是命令列工具 - misc flirt util

資料調錯系列hadoop在開發工具控制檯上打印不出日誌的解決方法

(1)在windows環境上配置HADOOP_HOME環境變數 (2)在eclipse上執行程式 (3)注意:如果eclipse打印不出日誌,在控制檯上只顯示 1.log4j:WARN No appenders could be found 

核磁資料處理配準標準模板

說到registration,就必須要首先介紹一下模板.由於人腦存在個體差異, 掃描時候的影象在空間中的座標也不同, 研究時必須要首先消除個體差異,統一座標, 也就是需要將被試人員的大腦全部”訂正/配準”到標準模板上, 這樣後續才能進行統計分析. 目前國際上最

Android 註解系列APT工具(三)

該文章中涉及的程式碼,我已經提交到GitHub上了,大家按需下載---->原始碼 前言 在上篇文章Android 註解系列之Annotation(二)中,簡要的介紹了註解的基本使用與定義。同時也提出了以下幾個問題,當我們聲明瞭一個註解後,是不是需要手動找到所有的Class

資料Hadoop學習系列Hadoop、Spark學習路線

1 Java基礎: 視訊方面:推薦畢老師《畢向東JAVA基礎視訊教程》。 學習hadoop不需要過度的深入,java學習到javase,在多執行緒和並行化多多理解實踐即可。 書籍方面:推薦李興華的《java開發實戰經典》 2 Linux基礎: 視訊方面:(1)馬哥的高薪Linux

資料入門教程系列Hive篇彙總

大資料入門教程系列之Hive篇彙總 1、Hive概述、體系架構、分割槽、桶與傾斜 2、大資料入門教程系列之Hive環境搭建--Linux(Centons7)下配置安裝Hive 3、Hive DDL DML及SQL操作 4、Hadoop2.7.4 編譯 支援5種壓縮(Hive壓縮)

資料入門教程系列Hive內建函式及自定義函式

本篇文章主要介紹Hive內建函式以及自定義UDF函式和UDFT函式,自定義UDF函式通過一個國際轉換中文的例子說明。 操作步驟: ①、準備資料和環境 ②、演示Hive內建函式 ③、自定義UDF函式編寫、演示   詳細步驟: 一、準備資料和

資料入門教程系列Hive的Java API 操作

Java 想要訪問Hive,需要通過beeline的方式連線Hive,hiveserver2提供了一個新的命令列工具beeline,hiveserver2 對 之前的hive做了升級,功能更加強大,它增加了許可權控制,要使用beeline需要先啟動hiverserver2,再使用beeline連線

資料入門教程系列Hbase安裝(偽分散式)

本篇文章主要介紹在windows下使用vmware虛擬機器中的Linux(Centons7)下配置安裝Hbase。 簡要步驟: ①、下載Hbase解壓包 ②、安裝zookeeper ③、解壓Hbase,配置環境環境 ④、修改Hbase指令碼檔案hbase-env.sh ⑤、修

資料調錯系列:自己總結的myeclipse連線hadoop會出現的問題

在我們學習或者工作中開始hadoop程式的時候,往往會遇到一個問題,我們寫好的程式需要打成包放在叢集中執行,這無形中在浪費我們的時間,因為程式可以需要不斷的除錯,然後把最終程式放在叢集中即可。為了解決這個問題,現在我們配置遠端連線hadoop,遠端除錯的方法。 一段程式如下:獲取更多大資料視訊資料請加QQ群

kettle系列工具使用

初始化 設定語言 第一步,可選,把工具設定顯示英文。 工具-選項-觀感 介面簡介 只做簡單解釋,後續做專案會慢慢用到一些其中的外掛 簡單的資料庫交換例子 需求:每天定時從A庫的X表獲取資料,搬到B庫的X表,表結構一致 grid_code欄位要求去掉短橫

資料入門教程系列Hadoop環境搭建、軟體準備

本篇文章主要介紹大資料入門教程環境搭建所需要的軟體、環境配置等,為後面的學習做準備。 完成目標: 1、安裝VMware及新建虛擬機器 安裝VMware及新建虛擬機器 2、VMware中安裝centons7 虛擬機器VMware中安裝linux系統CentOS

資料結構學習系列二叉搜尋樹詳解!

寫在前面 近期準備補一下資料結構,尤其是關於Tree系列的,其中,二叉樹(Binary Tree)可以算是最簡單的之一,所以打算從之入手,將各種Tree的結構和操作都進一步瞭解一遍,以來充實自己的閒餘時間! 本文主要圍繞二叉樹中最簡單的實現:二叉搜尋樹。 介紹 二叉搜尋樹(Binary Search

資料入門基礎系列初步認識大資料生態系統圈(博主推薦)

  不多說,直接上乾貨!   之前在微信公眾平臺裡寫過 大資料入門基礎系列之初步認識hadoop生態系統圈 http://mp.weixin.qq.com/s/KE09U5AbFnEdwht44FGrOA 大資料入門基礎系列之初步認識大資料生態系統圈 1.概述

資料入門基礎系列Hadoop1.X、Hadoop2.X和Hadoop3.X的多維度區別詳解(博主推薦)

  不多說,直接上乾貨! 在前面的博文裡,我已經介紹了   見下面我寫的微信公眾號博文 歡迎大家,加入我的微信公眾號:大資料躺過的坑     免費給分享 同時,大家可以關注我的個人部

資料處理---Spring Batch實踐

上面介紹了Spring Batch的基本概念和簡單的demo專案,顯然這些還是不夠實際使用的。下面我們來更多的程式碼實踐。         在上面的基礎專案上面,我們來更多的修改:         不用專案預設的hsql DB,用mysql,讓ItemReader,Item

HDFS資料遷移解決方案DistCp工具的巧妙使用分析

前言 在當今每日資訊量巨大的社會中,源源不斷的資料需要被安全的儲存.等到資料的規模越來越大的時候,也許瓶頸就來了,沒有儲存空間了.這時候怎麼辦,你也許會說,加機器解決,顯然這是一個很簡單直接但是又顯得有些欠缺思考的辦法.無謂的加機器只會帶來無限上升的成本消耗,更好的辦法應該是做到更加精細化的資料

資料處理必備的十大工具

大資料的日益增長,給企業管理大量的資料帶來了挑戰的同時也帶來了一些機遇。下面是用於資訊化管理的大

openlayers入門開發系列地圖工具欄篇

本篇的重點內容是利用openlayers實現地圖工具欄功能,包括地圖縮放、移動、地圖量算、地圖列印、清空、全屏、鷹眼、比例尺、地圖座標顯示等,效果圖如下: 部分核心程式碼如下: