1. 程式人生 > >HDFS基本操作(命令列和客戶端)

HDFS基本操作(命令列和客戶端)

一、命令列操作

1.顯示目錄資訊:

[[email protected] hadoop-2.6.5]# hadoop fs -ls /

[root@hadoop001 hadoop-2.6.5]# hadoop fs -ls /
Found 2 items
drwx------   - root supergroup          0 2018-08-13 19:06 /tmp
drwxr-xr-x   - root supergroup          0 2018-08-13 19:03 /user

2.顯示多級目錄:

[[email protected] hadoop-2.6.5]# hadoop fs -ls -R /

3.建立多級目錄:

[[email protected] hadoop-2.6.5]# hadoop fs -mkdir -p /aaa/bbb/cc/dd

[root@hadoop001 hadoop-2.6.5]# hadoop fs  -mkdir  -p  /aaa/bbb/cc/dd
[root@hadoop001 hadoop-2.6.5]# hadoop fs -ls -R /
drwxr-xr-x   - root supergroup          0 2018-08-13 19:54 /aaa
drwxr-xr-x   - root supergroup          0
2018-08-13 19:54 /aaa/bbb drwxr-xr-x - root supergroup 0 2018-08-13 19:54 /aaa/bbb/cc drwxr-xr-x - root supergroup 0 2018-08-13 19:54 /aaa/bbb/cc/dd

4.將檔案從本地剪下到hdfs

[[email protected] hadoop-2.6.5]# hadoop fs -moveFromLocal input/log.txt /user/data/

[[email protected] hadoop-2.6
.5]# hadoop fs -ls -R / drwxr-xr-x - root supergroup 0 2018-08-13 19:03 /user drwxr-xr-x - root supergroup 0 2018-08-13 19:58 /user/data [[email protected] hadoop-2.6.5]# hadoop fs -moveFromLocal input/log.txt /user/data/ [[email protected] hadoop-2.6.5]# hadoop fs -ls -R / drwxr-xr-x - root supergroup 0 2018-08-13 19:03 /user drwxr-xr-x - root supergroup 0 2018-08-13 19:59 /user/data -rw-r--r-- 3 root supergroup 39654 2018-08-13 19:59 /user/data/log.txt

5.將檔案從本地拷貝到hdfs

[[email protected] hadoop-2.6.5]# hadoop fs -copyFromLocal input/phone_data.txt /user/data/

[[email protected] hadoop-2.6.5]# hadoop fs -copyFromLocal input/phone_data.txt /user/data/
[[email protected] hadoop-2.6.5]# hadoop fs -ls -R /
drwxr-xr-x   - root supergroup          0 2018-08-13 19:03 /user
drwxr-xr-x   - root supergroup          0 2018-08-13 20:02 /user/data
-rw-r--r--   3 root supergroup      39654 2018-08-13 19:59 /user/data/log.txt
-rw-r--r--   3 root supergroup       1429 2018-08-13 20:02 /user/data/phone_data.txt

[[email protected] hadoop-2.6.5]# hadoop fs -put input/phone_data.txt /user/data/

[[email protected] hadoop-2.6.5]# hadoop fs -ls -R /
drwxr-xr-x   - root supergroup          0 2018-08-13 19:03 /user
drwxr-xr-x   - root supergroup          0 2018-08-13 20:03 /user/data
-rw-r--r--   3 root supergroup      39654 2018-08-13 19:59 /user/data/log.txt
[[email protected] hadoop-2.6.5]# hadoop fs -put input/phone_data.txt /user/data/
[[email protected] hadoop-2.6.5]# hadoop fs -ls -R /
drwxr-xr-x   - root supergroup          0 2018-08-13 19:03 /user
drwxr-xr-x   - root supergroup          0 2018-08-13 20:04 /user/data
-rw-r--r--   3 root supergroup      39654 2018-08-13 19:59 /user/data/log.txt
-rw-r--r--   3 root supergroup       1429 2018-08-13 20:04 /user/data/phone_data.txt

6.將檔案從hdfs貼上到本地

hadoop fs - moveToLocal /aaa/bbb/cc/dd /home/hadoop/a.txt

這條命令在hadoop-2.6.5不能使用

7.將檔案從hdfs複製到本地

[[email protected] hadoop-2.6.5]# hadoop fs -get /user/data/log.txt input/

[root@hadoop001 hadoop-2.6.5]# hadoop fs -get /user/data/log.txt input/
[root@hadoop001 hadoop-2.6.5]# hadoop fs -ls -R /
drwxr-xr-x   - root supergroup          0 2018-08-13 19:03 /user
drwxr-xr-x   - root supergroup          0 2018-08-13 20:04 /user/data
-rw-r--r--   3 root supergroup      39654 2018-08-13 19:59 /user/data/log.txt
-rw-r--r--   3 root supergroup       1429 2018-08-13 20:04 /user/data/phone_data.txt
[root@hadoop001 hadoop-2.6.5]# ll input/
total 52
-rw-r--r--. 1 root root 39654 Aug 13 20:06 log.txt

[[email protected] hadoop-2.6.5]# hadoop fs -copyToLocal /user/data/phone_data.txt input/

[[email protected] hadoop-2.6.5]# ll input/
total 48
-rw-r--r--. 1 root root 39654 Aug 13 20:06 log.txt
-rwxrw-rw-. 1 root root   116 Aug 13 19:10 part-r-00000
-rw-r--r--. 1 root root    53 Aug 13 01:27 xiaoxiao.txt
[[email protected] hadoop-2.6.5]# hadoop fs -copyToLocal /user/data/phone_data.txt input/
[[email protected] hadoop-2.6.5]# ll input/
total 52
-rw-r--r--. 1 root root 39654 Aug 13 20:06 log.txt
-rwxrw-rw-. 1 root root   116 Aug 13 19:10 part-r-00000
-rw-r--r--. 1 root root  1429 Aug 13 20:12 phone_data.txt
-rw-r--r--. 1 root root    53 Aug 13 01:27 xiaoxiao.txt

8.追加一個檔案到另一個檔案的結尾

[[email protected] hadoop-2.6.5]# hadoop fs -appendToFile input/xiaoxiao.txt /user/data/xiaoxiao.txt

[[email protected] hadoop-2.6.5]# hadoop fs -appendToFile input/xiaoxiao.txt /user/data/xiaoxiao.txt
[[email protected] hadoop-2.6.5]# hadoop fs -cat /user/data/xiaoxiao.txt
hello world sb
nimabi s hello      //追加一串相同的資料進去
hhs
 shh
ssh
hhs
world
hello world sb
nimabi s hello
hhs
 shh
ssh
hhs
world

9.顯示檔案內容

[[email protected] hadoop-2.6.5]# hadoop fs -cat /user/data/xiaoxiao.txt

[root@hadoop001 hadoop-2.6.5]# hadoop fs -cat /user/data/xiaoxiao.txt
hello world sb
nimabi s hello
hhs
 shh
ssh
hhs
world
hello world sb
nimabi s hello
hhs
 shh
ssh
hhs
world

10.顯示一個檔案的末尾

[[email protected] hadoop-2.6.5]# hadoop fs -tail /user/data/xiaoxiao.txt

當檔案內容較少時,會全部顯示出來。

[root@hadoop001 hadoop-2.6.5]# hadoop fs -tail /user/data/xiaoxiao.txt
hello world sb
nimabi s hello
hhs
 shh
ssh
hhs
world
hello world sb
nimabi s hello
hhs
 shh
ssh
hhs
world

11.修改檔案許可權

hadoop fs -chmod 777 /user/data/xiaoxiao.txt

[[email protected] hadoop-2.6.5]# hadoop fs -chmod 777 /user/data/xiaoxiao.txt
[[email protected] hadoop-2.6.5]# hadoop fs -ls -R /
drwxr-xr-x   - root supergroup          0 2018-08-13 19:03 /user
drwxr-xr-x   - root supergroup          0 2018-08-13 20:15 /user/data
-rw-r--r--   3 root supergroup      39654 2018-08-13 19:59 /user/data/log.txt
-rw-r--r--   3 root supergroup       1429 2018-08-13 20:04 /user/data/phone_data.txt
#該檔案被修改了許可權
-rwxrwxrwx   3 root supergroup        106 2018-08-13 20:15 /user/data/xiaoxiao.txt

12.修改檔案所屬

[[email protected] hadoop-2.6.5]# hadoop fs -chown j:j /user/data/xiaoxiao.txt

[[email protected] hadoop-2.6.5]# hadoop fs -chown j:j /user/data/xiaoxiao.txt
[[email protected] hadoop-2.6.5]# hadoop fs -ls -R /
drwxr-xr-x   - root supergroup          0 2018-08-13 19:03 /user
drwxr-xr-x   - root supergroup          0 2018-08-13 20:15 /user/data
-rw-r--r--   3 root supergroup      39654 2018-08-13 19:59 /user/data/log.txt
-rw-r--r--   3 root supergroup       1429 2018-08-13 20:04 /user/data/phone_data.txt
-rwxrwxrwx   3 j    j                 106 2018-08-13 20:15 /user/data/xiaoxiao.txt

13.從hdfs的一個路徑拷貝到hdfs的另一個路徑

[[email protected] hadoop-2.6.5]# hadoop fs -cp /user/data/log.txt /user/log.txt

[[email protected] hadoop-2.6.5]# hadoop fs -cp /user/data/log.txt /user/log.txt
[[email protected] hadoop-2.6.5]# hadoop fs -ls -R /
drwxr-xr-x   - root supergroup          0 2018-08-13 20:32 /user
drwxr-xr-x   - root supergroup          0 2018-08-13 20:15 /user/data
-rw-r--r--   3 root supergroup      39654 2018-08-13 19:59 /user/data/log.txt
-rw-r--r--   3 root supergroup       1429 2018-08-13 20:04 /user/data/phone_data.txt
-rwxrwxrwx   3 j    j                 106 2018-08-13 20:15 /user/data/xiaoxiao.txt
-rw-r--r--   3 root supergroup      39654 2018-08-13 20:32 /user/log.txt

14.在hdfs目錄中移動檔案

[[email protected] hadoop-2.6.5]# hadoop fs -mv /user/log.txt /

[root@hadoop001 hadoop-2.6.5]# hadoop  fs  -mv  /user/log.txt  /
[root@hadoop001 hadoop-2.6.5]# hadoop fs -ls -R /
-rw-r--r--   3 root supergroup      39654 2018-08-13 20:32 /log.txt

15.刪除檔案或資料夾

[[email protected] hadoop-2.6.5]# hadoop fs -rm -r /log.txt

[[email protected] hadoop-2.6.5]# hadoop fs -rm -r /log.txt
18/08/13 20:37:05 INFO fs.TrashPolicyDefault: Namenode trash configuration: Deletion interval = 0 minutes, Emptier interval = 0 minutes.
Deleted /log.txt
[[email protected] hadoop-2.6.5]# hadoop fs -ls -R /
drwxr-xr-x   - root supergroup          0 2018-08-13 20:34 /user
drwxr-xr-x   - root supergroup          0 2018-08-13 20:15 /user/data
-rw-r--r--   3 root supergroup      39654 2018-08-13 19:59 /user/data/log.txt
-rw-r--r--   3 root supergroup       1429 2018-08-13 20:04 /user/data/phone_data.txt
-rwxrwxrwx   3 j    j                 106 2018-08-13 20:15 /user/data/xiaoxiao.txt

16.刪除空目錄

[[email protected] hadoop-2.6.5]# hadoop fs -rmdir /aaa/bbb/ccc

[root@hadoop001 hadoop-2.6.5]# hadoop fs -ls -R /
drwxr-xr-x   - root supergroup          0 2018-08-13 20:39 /aaa
drwxr-xr-x   - root supergroup          0 2018-08-13 20:39 /aaa/bbb
drwxr-xr-x   - root supergroup          0 2018-08-13 20:39 /aaa/bbb/ccc
[root@hadoop001 hadoop-2.6.5]# hadoop  fs  -rmdir   /aaa/bbb/ccc
[root@hadoop001 hadoop-2.6.5]# hadoop fs -ls -R /
drwxr-xr-x   - root supergroup          0 2018-08-13 20:39 /aaa
drwxr-xr-x   - root supergroup          0 2018-08-13 20:40 /aaa/bbb

17.統計檔案系統的可用空間資訊

[[email protected] hadoop-2.6.5]# hadoop fs -df -h /

[[email protected] hadoop-2.6.5]# hadoop  fs  -df  -h  /
Filesystem               Size     Used  Available  Use%
hdfs://hadoop001:8020  53.1 G  237.9 K     26.0 G    0%

18.統計資料夾的大小資訊

[[email protected] hadoop-2.6.5]# hadoop fs -du -s -h /user

[root@hadoop001 hadoop-2.6.5]# hadoop  fs  -du  -s  -h /user
40.2 K  /user

19.統計一個指定目錄下的檔案節點數量

[[email protected] hadoop-2.6.5]# hadoop fs -count /user/
# 2表示該路徑下目錄有2層,3表示檔案數量有3個
           2            3              41189 /user
[[email protected] hadoop-2.6.5]# hadoop fs -ls -R /
drwxr-xr-x   - root supergroup          0 2018-08-13 20:39 /aaa
drwxr-xr-x   - root supergroup          0 2018-08-13 20:40 /aaa/bbb
drwxr-xr-x   - root supergroup          0 2018-08-13 20:34 /user
drwxr-xr-x   - root supergroup          0 2018-08-13 20:15 /user/data
-rw-r--r--   3 root supergroup      39654 2018-08-13 19:59 /user/data/log.txt
-rw-r--r--   3 root supergroup       1429 2018-08-13 20:04 /user/data/phone_data.txt
-rwxrwxrwx   3 j    j                 106 2018-08-13 20:15 /user/data/xiaoxiao.txt

二、客戶端API操作

使用IDEA新建一個java專案,至於導包的問題的話,網上很多人是直接將hadoop.tar.gz中share目錄的包複製出來,匯入進去。
我是先使用maven匯入hadoop依賴,然後打包成war包,解壓後再lib中可以看到hadoop的依賴包。

1、上傳檔案

// 獲取配置資訊
        Configuration conf = new Configuration();
        conf.set("fs.defaultFs", "hdfs://hadoop001:8020");

        // 獲取檔案系統
        FileSystem fileSystem = FileSystem.get(new URI("hdfs://hadoop001:8020"), conf, "root");

        System.out.println(fileSystem);

        fileSystem.copyFromLocalFile(new Path("C:/usr/local/image/wardrobe/1.jpg"), new Path("/user/data/image/2.jpg"));

        //關閉檔案系統
        fileSystem.close();

2、上傳檔案並刪除原檔案

    /**
     * 檔案上傳
     *
     * @throws Exception
     */
    @Test
    public void putFileToHDFS() throws Exception {
        // 獲取檔案系統
        Configuration conf = new Configuration();
        FileSystem fileSystem = FileSystem.get(new URI("hdfs://hadoop001:8020"), conf, "root");

        fileSystem.copyFromLocalFile(false, new Path("C:\\Users\\JessXie\\Downloads\\hadoop-2.6.5.tar.gz"), new Path("/user/data/image/"));
        fileSystem.close();
    }

3、檔案下載

    /**
     * 檔案下載
     *
     * @throws Exception
     */
    @Test
    public void getFileToHDFS() throws Exception {
        // 獲取檔案系統
        Configuration conf = new Configuration();
        // 由於是使用虛擬機器hadoop叢集,不是本地,所以要使用
        //  public static FileSystem get(java.net.URI uri, @NotNull Configuration conf,
        //   String user)方法,在後面加上使用者引數。
        FileSystem fileSystem = FileSystem.get(new URI("hdfs://hadoop001:8020"), conf, "root");

        fileSystem.copyToLocalFile(true, new Path("/user/data/image/4.jpg"), new Path("C:\\Users\\JessXie\\Downloads\\hadoop-2.6.5.tar.gz"), true);
        fileSystem.close();
    }

4、建立資料夾

/**
     * 建立資料夾
     */
    @Test
    public void mkdirAtHDFS() throws Exception {
        // 獲取檔案系統
        Configuration conf = new Configuration();
        FileSystem fileSystem = FileSystem.get(new URI("hdfs://hadoop001:8020"), conf, "root");
        // 適合一級多級目錄
        fileSystem.mkdirs(new Path("/user/data/image/2018"));
        fileSystem.close();
    }

5、刪除檔案

/**
     * 刪除檔案
     */
    @Test
    public void rmdirAtHDFS() throws Exception {
        // 獲取檔案系統
        Configuration conf = new Configuration();
        FileSystem fileSystem = FileSystem.get(new URI("hdfs://hadoop001:8020"), conf, "root");
        // 適合一級多級目錄
        fileSystem.delete(new Path("/user/data/image/4.jpg"), true);
        fileSystem.close();
    }

6、修改檔名稱

/**
     * 修改檔名稱
     */
    @Test
    public void renameAtHDFS() throws Exception {
        // 獲取檔案系統
        Configuration conf = new Configuration();
        FileSystem fileSystem = FileSystem.get(new URI("hdfs://hadoop001:8020"), conf, "root");
        // 適合一級多級目錄
        boolean valid = fileSystem.rename(new Path("/user/data/image/4.jpg"), new Path("/user/data/image/2.jpg"));
        System.out.println(valid ? "修改成功" : "修改失敗");
        fileSystem.close();
    }

7、檢視檔案詳情

/**
     * 檢視檔案詳情
     */
    @Test
    public void readFileAtHDFS() throws Exception {
        // 獲取檔案系統
        Configuration conf = new Configuration();
        FileSystem fileSystem = FileSystem.get(new URI("hdfs://hadoop001:8020"), conf, "root");
        // 適合一級多級目錄
        RemoteIterator<LocatedFileStatus> valid = fileSystem.listFiles(new Path("/"), true);
        while (valid.hasNext()) {
            // 將檔案資訊拿到
            LocatedFileStatus status = valid.next();
            // 列印檔案資訊
            System.out.println(status.getPath().getName());
            System.out.println(status.getBlockSize());
            System.out.println(status.getLen());
            System.out.println(status.getPermission());
            // 獲取檔案的塊資訊
            BlockLocation[] blockLocations = status.getBlockLocations();
            for (BlockLocation blockLocation : blockLocations) {
                System.out.println("block offset:" + blockLocation.getOffset());
                String[] hosts = blockLocation.getHosts();
                for (String host : hosts) {
                    System.out.println("host:" + host);
                }
            }

            System.out.println("----------------------------");
        }
        fileSystem.close();
    }

8、檢視檔案和資料夾資訊

/**
     * 檢視檔案和資料夾資訊
     */
    @Test
    public void readFolderAtHDFS() throws Exception {
        // 獲取檔案系統
        Configuration conf = new Configuration();
        FileSystem fileSystem = FileSystem.get(new URI("hdfs://hadoop001:8020"), conf, "root");
        // 適合一級多級目錄
        FileStatus[] valid = fileSystem.listStatus(new Path("/user/data/image/"));
        for (FileStatus fileStatus : valid) {
            if (fileStatus.isDirectory()) {
                System.out.println("f---" + fileStatus.getPath().getName());
            } else {
                System.out.println("d---" + fileStatus.getPath().getName());
            }
        }
        fileSystem.close();
    }

三、客戶端IO流操作

1、檔案上傳

/**
     * 流-上傳檔案
     *
     * @throws Exception
     */
    @Test
    public void putFileToHDFS() throws Exception {
        // 獲取檔案系統
        Configuration conf = new Configuration();
        FileSystem fileSystem = FileSystem.get(new URI("hdfs://hadoop001:8020"), conf, "root");
        // 獲取輸出流
        FSDataOutputStream fos = fileSystem.create(new Path("/user/data/input/hadoop-2.6.5.tar.gz"));

        // 獲取輸輸入流
        FileInputStream fis = new FileInputStream(new File("C:\\hadoop-2.6.5.tar.gz"));

        // 流對接
        try {
            IOUtils.copyBytes(fis, fos, conf);
        } catch (Exception e) {
            e.printStackTrace();
        } finally {
            IOUtils.closeStream(fis);
            IOUtils.closeStream(fos);
        }
        fileSystem.close();
    }

2、檔案下載

/**
     * 流-下載檔案
     *
     * @throws Exception
     */
    @Test
    public void getFileFromHDFS() throws Exception {
        // 獲取檔案系統
        Configuration conf = new Configuration();
        FileSystem fileSystem = FileSystem.get(new URI("hdfs://hadoop001:8020"), conf, "root");
        // 獲取輸入流
        FSDataInputStream fis = fileSystem.open(new Path("/user/data/hadoop-2.6.5.tar.gz"));

        // 獲取輸出流
        FileOutputStream fos = new FileOutputStream(new File("C:\\hadoop-2.6.5.tar.gz"));

        // 流對接
        try {
            IOUtils.copyBytes(fis, fos, conf);
        } catch (Exception e) {
            e.printStackTrace();
        } finally {
            IOUtils.closeStream(fis);
            IOUtils.closeStream(fos);
        }
        fileSystem.close();
    }

3、定位檔案下載

/**
     * 大檔案定位下載第一塊
     * @throws Exception
     */
    @Test
    public void getFileFromHDFSSeek1() throws Exception {
        // 獲取檔案系統
        Configuration conf = new Configuration();
        FileSystem fileSystem = FileSystem.get(new URI("hdfs://hadoop001:8020"), conf, "root");
        // 獲取輸入流
        FSDataInputStream fis = fileSystem.open(new Path("/user/data/image/hadoop-2.6.5.tar.gz"));

        // 獲取輸出流
        FileOutputStream fos = new FileOutputStream(new File("C:\\hadoop-2.6.5.tar.gz.part1"));
        // 流對接(只讀取128M)
        byte[] buf = new byte[1024];
        // 1024 * 1024 * 128
        for (int i = 0; i < 1024 * 128; i++) {
            fis.read(buf);
            fos.write(buf);
        }

        // 關閉流
        try {
            IOUtils.closeStream(fis);
            IOUtils.closeStream(fos);
        } catch (Exception e) {
            e.printStackTrace();
        }
        fileSystem.close();
    }

    /**'
     * 大檔案定位下載最後一塊
     * @throws Exception
     */
    @Test
    public void getFileFromHDFSSeek2() throws Exception {
        // 獲取檔案系統
        Configuration conf = new Configuration();
        FileSystem fileSystem = FileSystem.get(new URI("hdfs://hadoop001:8020"), conf, "root");
        // 獲取輸入流
        FSDataInputStream fis = fileSystem.open(new Path("/user/data/image/hadoop-2.6.5.tar.gz"));

        // 獲取輸出流
        FileOutputStream fos = new FileOutputStream(new File("C:\\hadoop-2.6.5.tar.gz.part2"));
        // 流對接(只讀取128M)
        fis.seek(1024 * 1024 * 128);
        try {
            IOUtils.copyBytes(fis, fos, conf);
        } catch (Exception e){
            e.printStackTrace();
        } finally {
            IOUtils.closeStream(fis);
            IOUtils.closeStream(fos);
        }
        fileSystem.close();

    }

相關推薦

HDFS基本操作(命令客戶)

一、命令列操作 1.顯示目錄資訊: [[email protected] hadoop-2.6.5]# hadoop fs -ls / [root@hadoop001 hadoop-2.6.5]# hadoop fs -ls /

MongoDB資料庫的基本操作命令以及mysql進行比較

今天我來談一下MongoDB的基本操作命令和與關係型資料庫mysql的對比。 (1)使用mysql資料庫顯示已經存在的資料庫,使用命令show databases,截圖如下: 使用MongoDB顯示

CentOS7 使用命令Webdav客戶連線OwnCloud、NextCloud

平時折騰OwnCloud、NextCloud的時候,難免會出意外:資料庫損壞、誤刪資料檔案目錄等等。如果伺服器上有檔案備份,可以使用OwnCloud、NextCloud的webdav將資料匯入,就不用下載檔案再重新上傳了。 我使用的是客戶端是davfs2。

HDFS的shell(命令客戶操作)

HDFS提供shell命令列客戶端,使用方法如下:常用命令引數介紹-help             功能:輸出這個命令引數手冊 -ls                  功能:顯示目錄資訊 示例: hadoop fs -ls hdfs://hadoop-serve

HDFS的shell(命令客戶)操作

-help 功能:輸出這個命令引數手冊 -ls 功能:顯示目錄資訊 示例: hadoop fs -ls hdfs://hadoop-server01:9000/ 備註:這些引數中,所有的hdfs路徑都可以簡寫 -->hadoop fs -l

NFS(expirtfs命令,NFS客戶創建新文件所屬組所屬主都為nobody)

mar tfs 依然 我們 重啟 此刻 otto 全部 用戶 一、exportfs命令nfs進程不能隨便從新啟動,如果不得已要重啟,必須把客戶端的掛載目錄卸載,然後在從新啟動。這時候就可以用exportfs命令-a 全部掛載或者全部卸載-r

Javascript中獲取瀏覽器類型操作系統版本等客戶信息常用代碼

cin nav coo temp undefined light safari macintosh else /** * @author hechen */ var gs = { /**獲得屏幕寬度**/ ScreenWidth: function () {

Socket(套接字)在服務器客戶之間的基本工作原理

SocketSocket之間的連接過程主要可以概括為以下三步: 服務器建立監聽:客戶端初始化Socket動態庫後創建套接字,然後指定客戶端Socket的地址,循環綁定Socket直至成功,然後開始建立監聽,此時客戶端處於等待狀態,實時監控網絡狀態; 客戶端提出請求:客戶端的Socket向服務器端提出

Redis服務客戶命令

客戶 redis ping 命令 -s 默認 一個數 lec 數據庫 服務器端 服務器端的命令為redis-server 可以使?help查看幫助?檔 redis-server --help 個人習慣 ps aux | grep redis 查看redis服

系統延時命令(at命令,crontab命令),ftp服務(服務客戶檔案的上傳下載)[匿名使用者,本地使用者,虛擬使用者]

1.系統延遲任務 # at  命令發起的指令都是一次性的 at (+)time  ##指定命令執行的時間 at  -l  ##檢視當前任務 ad -d 3 #取消還未執行的任務(3:at -l 所看到的任務號) atrm 4 #

docker基本命令基本操作命令

docker-教程 docker程式設計環境小書匠 docker 教程 Docker官方英文資源 docker官網:http://www.docker.com Docker windows入門:https://docs.docker.com/windows/

到Oracle官網下載 Oracle11 G 資料可客戶操作

1.準備一個Oracle的官網賬號 使用者名稱:[email protected] 密碼:LR4ever.1314   2.在搜尋框中輸入Oracle 11 G   3.點選Database Downloadds 4.選中要下載的對應的系統版本 &nb

到Oracle官網下載 Oracle11 G 數據可客戶操作

base mage add wid database height 技術 用戶 rac 1.準備一個Oracle的官網賬號 用戶名:[email protected] 密碼:LR4ever.1314 2.在搜索框中輸入Oracle 11 G 3.點擊Databas

Hadoop系列006-HDFS概念及命令操作

本人微信公眾號,歡迎掃碼關注! HDFS概念及命令列操作 一、HDFS概念 1.1 概念 HDFS,它是一個檔案系統,用於儲存檔案,通過目錄樹來定位檔案;其次,它是分散式的,由很多伺服器聯合起來實現其功能,叢集中的伺服器有各自的角色。 HDFS的設計適合一次寫入,多次讀出的場景,且不支

【Redis】Redis在Ubuntu中的伺服器客戶操作

伺服器端 伺服器端的命令為: redis-server 可以使用help檢視幫助文件 redis-server --help 個人習慣 ps aux | grep redis   # 檢視redis伺服器程序 sudo kill -9

spring-data-redis的事務操作深度解析--原來客戶庫還可以攢夠了事務命令再發?

一、官方文件 簡單介紹下redis的幾個事務命令: redis事務四大指令: MULTI、EXEC、DISCARD、WATCH。 這四個指令構成了redis事務處理的基礎。 1.MULTI用來組裝一個事務;2.EXEC用來執行一個事務;3.DISCARD用來取消一個事務; 4.WATCH類似於樂觀鎖

Ubuntu 14.04下SVN伺服器server的搭建客戶的簡單操作

參考:Ubuntu 14.04下搭建SVN伺服器(SVN Server) 一:搭建環境 檢視Ubuntu系統的版本資訊:可用cat /proc/version命令、uname -a命令與sb_release -a命令。 Ubuntu:14.04 64位

windows下的composer安裝基本使用——安裝ES-PHP客戶擴充套件

Composer 是 PHP 的一個依賴管理工具。它允許你申明專案所依賴的程式碼庫,它會在你的專案中為你安裝他們。1.下載地址:https://getcomposer.org/download/2.點選安裝,它會自動關聯已經安裝好的PHP,測試是否成功:3.在專案中新建com

Redis 安裝與配置,服務器客戶命令

--help edi size release rep com 下載 數據庫 eof step1:下載 當前redis最新穩定版本是4.0.9 wget http://download.redis.io/releases/redis-4.0.9.tar.gz ste

MySql資料庫表的基本操作命令

資料庫和表的基本操作 Mysql注意事項 資料庫的基本操作 表的基本操作 Mysql注意事項 MySQL 建議我們關鍵字使用大寫,但不是必須大寫。 資料庫名字的反引號``