1. 程式人生 > >【hadoop】 1009-hdfs的shell命令

【hadoop】 1009-hdfs的shell命令

1.HDFS shell
     1.0檢視幫助
          hadoop fs -help <cmd>
     1.1上傳
          hadoop fs -put <linux上檔案> <hdfs上的路徑>
         
          [[email protected] ~]# hadoop fs -put /tmp/jdk-7u65-linux-i586.tar.gz  hdfs://hadoop:9000/jdk

     1.2檢視檔案內容
          hadoop fs -cat <hdfs上的路徑>
     1.3檢視檔案列表
          hadoop fs -ls /
     1.4下載檔案
          hadoop fs -get <hdfs上的路徑> <linux上檔案>
          [
[email protected]
~]# hadoop fs -get hdfs://hadoop:9000/jdk jdk1.7

相關推薦

hadoop 1009-hdfs的shell命令

1.HDFS shell      1.0檢視幫助           hadoop fs -help <cmd>      1.1上傳           hadoop fs -put <linux上檔案> <hdfs上的路徑>                     [

Hadoop 2.7.3版本 hdfs 命令列使用

1.檢視HDFS下目錄結構及檔案 [email protected]:~$ hdfs dfs -ls -R /2.建立檔案目錄/tmp[email protected]:~$ hd

WPF如何獲取命令行參數

com 頁面 覆蓋 pps 分享 一點 new spa tro 應用程序以 Main 方法為入口點,如果為 Main 方法指定一個 string[] 類型的參數,在程序運行時,這個參數會獲取到傳遞給應用程序的命令行參數。 而 WPF 應用程序比較特殊,因為在VS中包含一些

如何在命令行腳本中啟動帶參數的Windows服務

服務控制 代碼 需要 () 而不是 gen 備註 詳細介紹 namespace 我們有一個自己編寫的Windows服務,我們希望該服務在啟動時可以根據用戶輸入的參數實現不同的功能。 要實現這樣的需求並不是很難,下面這個例子我用來示範如何編寫該服務 1 using

學習jar命令 創建和解壓jar文件包

運行 man str 失敗 參數 int 什麽 英文 poi java編程中每天都用不少jar文件,項目開發中不停地導包,在忙完了一天的工作,放下那些復雜的業務實現,不僅想問這些jar包怎麽生成的,jar包有哪些獨特的地方等等。 原來這些經常見到的ja

linux awk命令詳解

column 環境變量 最後一行 工作流程 初始 文本文件 for循環 其中 cti 簡介 awk是一個強大的文本分析工具,相對於grep的查找,sed的編輯,awk在其對數據分析並生成報告時,顯得尤為強大。簡單來說awk就是把文件逐行的讀入,以空格為默認分隔符將每行切

HadoopHA 場景下訪問 HDFS JAVA API Client

new mes inpu true stream node spa lba main 客戶端需要指定ns名稱,節點配置,ConfiguredFailoverProxyProvider等信息。 代碼示例: package cn.itacst.hadoop.hdfs; i

LinuxLinux 常用命令匯總

後臺 tab 什麽 ant netmask req 正則 智能推薦 速度 查看軟件xxx安裝內容:dpkg -L xxx 查找軟件庫中的軟件:apt-cache search 正則表達式 查找軟件庫中的軟件:aptitude search 軟件包 查找文件屬於哪個包:dpk

Hadoophiveserver2 不能啟動端口 10000 開啟服務的相關經驗總結

error: pro mon 進行 org multipl html pen exp 轉載來自http://blog.csdn.net/lsttoy/article/details/53490144。 這個問題困擾了我三天,各種查資料踩坑填坑的嘗試,終於搞定了這個

Maven常用的命令

toc sys down 開發 變量 ide XML ear jet maven常用命令介紹 mvn 3.0.4 創建maven項目命令 mvn archetype:generate -DgroupId=damocles-autocredit -Dartifac

HadoopCombiner的本質是迷你的reducer,不能隨意使用

現在 使用 article driver eight 操作類 組合 通過 技術 問題提出: 眾所周知,Hadoop框架使用Mapper將數據處理成一個<key,value>鍵值對,再網絡節點間對其進行整理(shuffle),然後使用Reducer處理數據並進行最

Ansible 文檔譯文Ad-Hoc 命令介紹

力量 services 方式 控制 雙引號 handlers 升級 ges 快的 Introduction To Ad-Hoc Commands Ad-Hoc命令介紹 下面的例子展示了如何使用 /usr/bin/ansible 來運行ad hoc任務。 什麽是ad hoc命

centos6給php命令設置全局變量三種方式

ack mysql 版本 通過 serve 16px 系統用戶 SQ etc 方法一:直接運行命令export PATH=$PATH:/usr/local/webserver/php/bin 和 export PATH=$PATH:/usr/local/webserver/

linux扒站命令之利用wget快速扒站利用wget快速扒站

追溯 創建目錄 元素 頁面 根目錄 uri 鏈接 目錄 -h 在Linux下,通過一個命令就可以把整個站相關的文件全部下載下來。 wget -r -p -k -np 參數說明: -r : 遞歸下載 -p : 下載所有用於顯示 HTML 頁面的圖片之類的元素 -k : 在

Linux rpm 命令參數使用詳解[介紹和應用]

binary 包管理 samba cpio 詳解 -- hash pos 升級 RPM是RedHat Package Manager(RedHat軟件包管理工具)類似Windows裏面的“添加/刪除程序” rpm 執行安裝包二進制包(Binary)以及源代碼包(So

Linux- apt-get命令

讀取 too sha2 下載軟件 com ade art 地址 archive apt-get,是一條linux命令,適用於deb包管理式的操作系統,主要用於自動從互聯網的軟件倉庫中搜索、安裝、升級、卸載軟件或操作系統。 Advanced

HadoopHDFS的執行原理

【Hadoop】HDFS的執行原理   一部落格轉自–http://www.daniubiji.cn/archives/596   簡介 HDFS(Hadoop Distributed File System

HadoopLinux機器上面安裝pyhdfs

Linux機器上安裝pyhdfs 1、準備依賴模組 pyhdfs的安裝依賴requests和simplejson兩個模組,因此在安裝pyhdfs的時候最好已經先安裝了這兩個模組。 requests安裝包比較容易獲取,就不提供資源,pyhdfs的資源參考連結:https://downl

Android常用ADB命令總結

1. 檢視當前執行的Activity 方法一: adb shell logcat | grep ActivityManager 方法二: adb shell dumpsys activity activities 2. 檢視安裝包資訊 輸出安裝包資訊:

hadoophive 安裝實踐

1.下載Hive安裝包:   官網下載:http://hive.apache.org/downloads.html 2.上傳Hive的tar包,並解壓:建議和hadoop目錄在一級,方便後續使用;   解壓:tar -zxvf apache-hive-1.2.1-bin.tar.gz -C /home/