1. 程式人生 > >利用shell命令操作Memcached

利用shell命令操作Memcached

首先,需要了解Memcached協議,如果不清楚可參考《Memcached 協議中英文對照:http://bbs.chinaitlab.com/thread-308784-1-1.html》。

    1、資料儲存(假設key為zhangyan,value為12345)

 printf "set zhangyan 0 0 5\r\n12345\r\n" | nc 127.0.0.1 11211

    STORED

    2、資料取回(假設key為zhangyan)

 printf "get zhangyan\r\n" | nc 127.0.0.1 11211

    VALUE zhangyan 0 5
     12345
     END

    3、數值增加1(假設key為zhangyan,並且value為正整數)

 printf "incr zhangyan 1\r\n" | nc 127.0.0.1 11211

    12346

    4、數值減少3(假設key為zhangyan,並且value為正整數)

 printf "decr zhangyan 3\r\n" | nc 127.0.0.1 11211

    12343

    5、資料刪除(假設key為zhangyan)

 printf "delete zhangyan\r\n" | nc 127.0.0.1 11211

    DELETED

    6、檢視Memcached狀態

 printf "stats\r\n" | nc 127.0.0.1 11211

  STAT pid 3025
 STAT uptime 4120500
 STAT time 1228021767
 STAT version 1.2.6
 STAT pointer_size 32
 STAT rusage_user 433.463103
 STAT rusage_system 1224.515845
 STAT curr_items 1132460
 STAT total_items 8980260
 STAT bytes 1895325386
 STAT curr_connections 252
 STAT total_connections 547850
 STAT connection_structures 1189
 STAT cmd_get 13619685
 STAT cmd_set 8980260
 STAT get_hits 6851607
 STAT get_misses 6768078
 STAT evictions 0
 STAT bytes_read 160396238246
 STAT bytes_written 260080686529
 STAT limit_maxbytes 2147483648
 STAT threads 1
 END

  7、模擬top命令,檢視Memcached狀態:

 watch "printf 'stats\r\n' | nc 127.0.0.1 11211"

  或者

 watch "echo stats | nc 127.0.0.1 11211"

相關推薦

利用shell命令操作Memcached

首先,需要了解Memcached協議,如果不清楚可參考《Memcached 協議中英文對照:http://bbs.chinaitlab.com/thread-308784-1-1.html》。    1、資料儲存(假設key為zhangyan,value為12345) pri

26期20180628 shell 命令操作 通配符 輸出輸入重定向

重新 a-z 安裝 AC ott fff 當前 sof itl 6月28日任務8.1 shell介紹8.2 命令歷史8.3 命令補全和別名8.4 通配符8.5 輸入輸出重定向shell介紹Shell腳本只是一個表現,所謂的shell是一個命令解釋器,用戶和機器的一個交互Sh

hadoop[3]-shell命令操作

hdfs的shell操作: 大致介紹(http://hadoop.apache.org/docs/r1.0.4/cn/hdfs_user_guide.html#Shell%E5%91%BD%E4%BB%A4)操作檔案命令格式格式: hadoop fs 操作命令 引數 bin/hadoop fs

hadoop shell命令操作(二)

用mapreduce實現wordcount,這個程式碼不用我們自己寫,有專門的jar包,在 /home/hadoop/apps/hadoop-2.6.5/share/hadoop/mapreduce裡 hadoop-mapreduce-examples-2.6.5.jar 在hdfs裡

【七】Spark SQL命令和Spark shell命令操作hive中的表

1.把hive的配置檔案hive-site.xml複製到spark/conf下。 2.啟動的時候帶上MySQL的連線驅動 Spark-shell命令使用 spark-shell是通過得到sparksession然後呼叫sql方法執行hive的sql。 cd /app/

shell命令操作oracle資料庫

啟動步驟:注意$代表shell命令提示符,這裡的oracle是9.0以上版本。   1.$ su - oracle  2.$ sqlplus / nolog  3.sql> conn / as sysdba  4.sql> startup (一般不需要加引數,只要設定好環境變數)  5.sql&g

shell命令操作ftp

IP_ADDRESS是ftp的伺服器地址ftp -niv <<- EOF open IP_ADDRESS user USERNAME PASSWORD ascii(or bin

shell指令操作memcached

stat cache val emca \n 初始 127.0.0.1 del shel shell指令操作memcached,可以用來直接測試memcached. 初始值為1000 #set test-value =1000printf "set test-value 0

hadoop之hdfs的shell命令操作

FS Shell呼叫檔案系統(FS)Shell命令應使用 bin/hadoop fs <args> 的形式。 所有的的FS shell命令使用URI路徑作為引數。URI格式是scheme://authority/path 。對 HDFS檔案系統,scheme是h

在Android下利用Shell命令管理網路介面

為啥要使用shell命令操縱本地網路?因為這樣就可以繞過上層connectService來幹一些事情,至於具體要乾點什麼事情,容我先賣個關子在以後的blog裡說明。 首先進入adb shell,然後去Ping一個伺服器的ip地址 ping 211.69.198.222 P

hadoop shell命令操作

先看我伺服器情況:shizhan01有 ResourceManager 和 NameNodeshizhan02 03 04裡是我的 NodeManager 和 DataNode訪問 http://shizhan01:50070DataNode是存放資料的,hdfs把我的資料都

Hbase快速開始——shell命令操作

一. 介紹 HBase是一個分散式的、面向列的開源資料庫,源於google的一篇論文《bigtable:一個結構化資料的分散式儲存系統》。HBase是Google Bigtable的開源實現,它利用Hadoop HDFS作為其檔案儲存系統,利用Hadoop M

Hadoop Shell命令(基於linux操作系統上傳下載文件到hdfs文件系統基本命令學習)

指南 統計信息 ... err nor 清空 ext -- als Apache-->hadoop的官網文檔命令學習:http://hadoop.apache.org/docs/r1.0.4/cn/hdfs_shell.html FS Shell 調用文件系統

java操作linux,調用shell命令

api rsh pos orm exec creat shell cep time() import org.junit.jupiter.api.Test; import java.io.BufferedReader; import java.io.IOExce

Linux學習閑談(一)——Shell基本操作命令

模式 http 方括號 -a ali 入參 post lac 變量引用 Linux學習閑談(一) ——Shell基本操作與命令 (轉載請附上本文鏈接——linhxx) 1、#!/bin/sh 放在程序開頭,表示用/bin/sh方式來解析。 2、變量 1)變量賦值 v

shell腳本案例(三)利用top命令精確監控cpu使用率

cpu 監控 shell linux 自動化 需求:利用top命令精確監控CPU 準備知識:top使用、基本的awk、dc(默認bash shell不支持小數點運算) 腳本如下 [root@arppining scripts]# cat cpu.sh #!/bin/bash - # t

shell腳本案例(四)利用 free 命令精確監控RAM的使用率

mem Linux shell shell 腳本 linux 運維 arppinging 需求:利用free命令精確監控RAM的使用率具備知識:grep,free,awk,bc 腳本如下 [root@arppining scripts]# cat mem.sh #!/bin/bash

shell終端操作oracle數據庫的常用命令

tns group date des add lin 管理員權限 tables eas 這裏面是在一個項目中用到的操作oracle數據庫的常用linux命令,因為當時無法用plsql遠程連接,大部分操作都需要在命令行窗口進行,總結一下 第一種方式 (1)先切換至sqlplu

Hive Shell命令之一(資料庫和表的操作

//資料庫的有關操作 1、如果資料庫不存在的話建立資料庫,預設資料庫default: create database if not exists test; 2、檢視hive中所包含的資料庫: show databases; 3、如果資料庫非常多,可以用正則表示式匹配篩選出需要的資料庫名。 sh

Hive Shell 命令之二(表中資料的操作,出自Hive程式設計指南)

一、 互動模式: show tables; #檢視所有表名 show tables  'ad*'  #檢視以'ad'開頭的表名 set 命令 #設定變數與檢視變數; set -v #檢視所有的變數 set hive.stats.atomic #檢視hive.sta