1. 程式人生 > >hadoop引數彙總配置檔案引數詳解

hadoop引數彙總配置檔案引數詳解

Hadoop引數彙總

@(hadoop)[配置]

linux引數

以下引數最好優化一下:

  1. 檔案描述符ulimit -n
  2. 使用者最大程序 nproc (hbase需要 hbse book)
  3. 關閉swap分割槽
  4. 設定合理的預讀取緩衝區
  5. Linux的核心的IO排程器

JVM引數

Hadoop引數大全

適用版本:4.3.0

主要配置檔案:

重要性表示如下:

  • 重要
  • 一般
  • 不重要
  • hadoop.common.configuration.version

    配置檔案的版本。

  • hadoop.tmp.dir=/tmp/hadoop-${user.name}

    Hadoop的臨時目錄,其它目錄會基於此路徑。本地目錄。

    只可以設定一個值;建議設定到一個足夠空間的地方,而不是預設的/tmp下
    服務端引數,修改需重啟

  • hadoop.security.authorization=false

    是否開啟安全服務驗證。

    建議不開啟。認證操作比較複雜,在公司內部網路下,重要性沒那麼高

  • io.file.buffer.size=4096

    在讀寫檔案時使用的快取大小。這個大小應該是記憶體Page的倍數。

    建議1M

  • io.compression.codecs=null

    壓縮和解壓縮編碼類列表,用逗號分隔。這些類是使用Java ServiceLoader載入。

  • fs.defaultFS=file:///

    預設檔案系統的名稱。URI形式。uri's的scheme需要由(fs.SCHEME.impl)指定檔案系統實現類。 uri's的authority部分用來指定host, port等。預設是本地檔案系統。

    HA方式,這裡設定服務名,例如:hdfs://mycluster1
    HDFS的客戶端訪問HDFS需要此引數。

  • fs.trash.interval=0

    以分鐘為單位的垃圾回收時間,垃圾站中資料超過此時間,會被刪除。如果是0,垃圾回收機制關閉。可以配置在伺服器端和客戶端。如果在伺服器端配置trash無效,會檢查客戶端配置。如果伺服器端配置有效,客戶端配置會忽略。

    建議開啟,建議4320(3天)
    垃圾回收站,如有同名檔案被刪除,會給檔案順序編號,例如:a.txt,a.txt(1)

  • fs.trash.checkpoint.interval=0

    以分鐘為單位的垃圾回收檢查間隔。應該小於或等於fs.trash.interval。如果是0,值等同於fs.trash.interval。每次檢查器執行,會建立新的檢查點。

    建議設定為60(1小時)

  • dfs.ha.fencing.methods=null

    HDFS的HA功能的防腦裂方法。可以是內建的方法(例如shell和sshfence)或者使用者定義的方法。建議使用sshfence(hadoop:9922),括號內的是使用者名稱和埠,注意,這需要NN的2臺機器之間能夠免密碼登陸

    fences是防止腦裂的方法,保證NN中僅一個是Active的,如果2者都是Active的,新的會把舊的強制Kill。

  • dfs.ha.fencing.ssh.private-key-files=null

    使用sshfence時,SSH的私鑰檔案。 使用了sshfence,這個必須指定

  • ha.zookeeper.quorum=null

    Ha功能,需要一組zk地址,用逗號分隔。被ZKFailoverController使用於自動失效備援failover。

  • ha.zookeeper.session-timeout.ms=5000

    ZK連線超時。ZKFC連線ZK時用。設定一個小值可以更快的探測到伺服器崩潰(crash),但也會更頻繁的觸發失效備援,在傳輸錯誤或者網路不暢時。建議10s-30s

  • hadoop.http.staticuser.user=dr.who

    在網頁介面訪問資料使用的使用者名稱。預設值是一個不真實存在的使用者,此使用者許可權很小,不能訪問不同使用者的資料。這保證了資料安全。也可以設定為hdfs和hadoop等具有較高許可權的使用者,但會導致能夠登陸網頁介面的人能看到其它使用者資料。實際設定請綜合考慮。如無特殊需求。使用預設值就好

  • fs.permissions.umask-mode=22

    在建立檔案和目錄時使用此umask值(使用者掩碼)。類linux上的檔案許可權掩碼。可以使用8進位制數字也可以使用符號,例如:"022" (8進位制,等同於以符號表示的u=rwx,g=r-x,o=r-x),或者"u=rwx,g=rwx,o="(符號法,等同於8進位制的007)。注意,8進位制的掩碼,和實際許可權設定值正好相反,建議使用符號表示法,描述更清晰

  • io.native.lib.available=true

    是否啟動Hadoop的本地庫,預設啟用。本地庫可以加快基本操作,例如IO,壓縮等。

  • hadoop.http.filter.initializers=org.apache.hadoop.http.lib.StaticUserWebFilter

    Hadoop的Http服務中,用逗號分隔的一組過濾器類名,每個類必須擴充套件自org.apache.hadoop.http.FilterInitializer。 這些元件被初始化,應用於全部使用者的JSP和Servlet頁面。 列表中定義的順序就是過濾器被呼叫的順序。

  • hadoop.security.authentication

    安全驗證規則,可以是simple和kerberos。simple意味著不驗證。

  • hadoop.security.group.mapping=org.apache.hadoop.security.JniBasedUnixGroupsMappingWithFallback

    user到group的對映類。ACL用它以給定user獲取group。預設實現是 org.apache.hadoop.security.JniBasedUnixGroupsMappingWithFallback, 如果JNI有效,它將發揮作用,使用Hadoop的API去獲取user的groups列表。如果JNI無效,會使用另一個基於shell的實現, ShellBasedUnixGroupsMapping。這個實現是基於Linux、Unix的shell的環境。

  • hadoop.security.groups.cache.secs=300

    user到gourp對映快取的有效時間。如果超時,會再次呼叫去獲取新的對映關係然後快取起來。

  • hadoop.security.service.user.name.key=null

    如果相同的RPC協議被多個Server實現,這個配置是用來指定在客戶端進行RPC呼叫時,使用哪個principal name去聯絡伺服器。不建議使用

  • hadoop.security.uid.cache.secs=14400

    安全選項。不建議使用

  • hadoop.rpc.protection=authentication

    rpc連線保護。可取的值有authentication(認證), integrity(完整) and privacy(隱私)。不建議使用

  • hadoop.work.around.non.threadsafe.getpwuid=false

    一些系統已知在呼叫getpwuid_r和getpwgid_r有問題,這些呼叫是非執行緒安全的。這個問題的主要表現特徵是JVM崩潰。如果你的系統有這些問題,開啟這個選項。預設是關閉的。

  • hadoop.kerberos.kinit.command=kinit

    用來定期的向Hadoop提供新的Kerberos證書。所提供命令需要能夠在執行Hadoop客戶端的使用者路徑中查詢到,否則,請指定絕對路徑。不建議使用

  • hadoop.security.auth_to_local=null

    對映kerberos principals(代理人)到本地使用者名稱

  • io.bytes.per.checksum=512

    每次進行校驗和檢查的位元組數。一定不能大於io.file.buffer.size.

  • io.skip.checksum.errors=FALSE

    是否跳過校驗和錯誤,預設是否,校驗和異常時會丟擲錯誤。

  • io.serializations=org.apache.hadoop.io.serializer.WritableSerialization,org.apache.hadoop.io.serializer.avro.AvroSpecificSerialization,org.apache.hadoop.io.serializer.avro.AvroReflectSerialization

    序列化類列表,可以被用來獲取序列化器和反序列化器(serializers and deserializers)。

  • io.seqfile.local.dir=${hadoop.tmp.dir}/io/local

    本地檔案目錄。sequence file在merge過程中儲存內部資料的地方。可以是逗號分隔的一組目錄。最好在不同磁碟以分散IO。實際不存在的目錄會被忽略。

  • io.map.index.skip=0

    跳過的索引實體數量在entry之間。預設是0。設定大於0的值可以用更少的記憶體開啟大MapFiles。注意:MpaFile是一組Sequence檔案,是排序後的,帶內部索引的檔案

  • io.map.index.interval=128

    MapFile包含兩個檔案,資料檔案和索引檔案。每io.map.index.interval個記錄寫入資料檔案,一條記錄(行key,資料檔案位置)寫入索引檔案。

  • fs.default.name=file:///

    過時。使用(fs.defaultFS)代替

  • fs.AbstractFileSystem.file.impl=org.apache.hadoop.fs.local.LocalFs

    檔案系統實現類:file

  • fs.AbstractFileSystem.hdfs.impl=org.apache.hadoop.fs.Hdfs

    檔案系統實現類:hdfs

  • fs.AbstractFileSystem.viewfs.impl=org.apache.hadoop.fs.viewfs.ViewFs

    檔案系統實現類:viewfs (例如客戶端掛載表)。

    在實現federation特性時,客戶端可以部署此係統,方便同時訪問多個nameservice

  • fs.ftp.host=0.0.0.0

    非Hdfs檔案系統設定。暫不關注

  • fs.ftp.host.port=21

    非Hdfs檔案系統設定。暫不關注

  • fs.df.interval=60000

    磁碟使用統計重新整理間隔,以毫秒為單位

  • fs.s3.block.size=67108864

    非Hdfs檔案系統設定。暫不關注

  • fs.s3.buffer.dir=${hadoop.tmp.dir}/s3

    非Hdfs檔案系統設定。暫不關注

  • fs.s3.maxRetries=4

    非Hdfs檔案系統設定。暫不關注

  • fs.s3.sleepTimeSeconds=10

    非Hdfs檔案系統設定。暫不關注

  • fs.automatic.close=true

    預設的,檔案系統例項在程式退出時自動關閉,通過JVM shutdown hook方式。可以把此屬性設定為false取消這種操作。這是一個高階選項,需要使用者特別關注關閉順序。不要關閉

  • fs.s3n.block.size=67108864

    非Hdfs檔案系統設定。暫不關注

  • io.seqfile.compress.blocksize=1000000

    SequenceFiles以塊壓縮方式壓縮時,塊大小大於此值時才啟動壓縮。

  • io.seqfile.lazydecompress=TRUE

    懶惰解壓,僅在必要時解壓,僅對塊壓縮的SequenceFiles有效。

  • io.seqfile.sorter.recordlimit=1000000

    在SequenceFiles.Sorter spill過程中,儲存在記憶體中的記錄數

  • io.mapfile.bloom.size=1048576

    在BloomMapFile使用的布隆過濾器記憶體大小。

  • io.mapfile.bloom.error.rate=0.005

    BloomMapFile中使用布隆過濾器失敗比率. 如果減少這個值,使用的記憶體會成指數增長。

  • hadoop.util.hash.type=murmur

    預設Hash演算法實現. 'murmur':MurmurHash, 'jenkins':JenkinsHash.

  • ipc.client.idlethreshold=4000

    連線數閥值,超過此值,需要進行空閒連線檢查

  • ipc.client.kill.max=10

    定義客戶端最大數量,超過會被斷開連線

  • ipc.client.connection.maxidletime=10000

    毫秒,最大時間,超過後客戶端會斷開和伺服器的連線。

  • ipc.client.connect.max.retries=10

    客戶端連線重試次數。

  • ipc.client.connect.max.retries.on.timeouts=45

    在連線超時後,客戶端連線重試次數

  • ipc.server.listen.queue.size=128

    定義伺服器端接收客戶端連線的監聽佇列長度

  • ipc.server.tcpnodelay=false

    在伺服器端開啟/關閉Nagle's演算法,此演算法可以延遲小資料包傳送,從而達到網路流量更有效利用。但是這對小資料包是不利的。預設關閉。建議false,即開啟Nagle演算法

  • ipc.client.tcpnodelay=false

    參考ipc.server.tcpnodelay,客戶端引數。或許可以考慮關閉Nagle演算法,增加客戶端響應速度

  • hadoop.rpc.socket.factory.class.default=org.apache.hadoop.net.StandardSocketFactory

    高階選項,暫不考慮

  • hadoop.rpc.socket.factory.class.ClientProtocol=null

    高階選項,暫不考慮

  • hadoop.socks.server=null

    高階選項,暫不考慮

  • net.topology.node.switch.mapping.impl=org.apache.hadoop.net.ScriptBasedMapping

    機架感知實現類。

  • net.topology.script.file.name=null

    配合ScriptBasedMapping使用。指令碼檔案。此指令碼檔案,輸入是ip地址,輸出是機架路徑。

  • net.topology.script.number.args=100

    機架感知指令碼檔案的引數最大數量。指令碼每次執行被傳遞的引數,每個引數是一個ip地址

  • net.topology.table.file.name=null

    在net.topology.script.file.name被設定為 org.apache.hadoop.net.TableMapping時,可以使用此配置。檔案格式是一個有兩個列的文字檔案,使用空白字元分隔。第一列是DNS或IP地址,第二列是機架路徑。如無指定,使用預設機架(/default-rack)

  • file.stream-buffer-size=4096

    非hdfs檔案系統,暫不關注

  • s3.stream-buffer-size=4096

    非hdfs檔案系統,暫不關注

  • kfs.stream-buffer-size=4096

    非hdfs檔案系統,暫不關注

  • ftp.stream-buffer-size=4096

    非hdfs檔案系統,暫不關注

  • tfile.io.chunk.size=1048576

    非hdfs檔案系統,暫不關注

  • hadoop.http.authentication.type=simple

    Oozie Http終端安全驗證。可選值:simple | kerberos |#AUTHENTICATION_HANDLER_CLASSNAME#

    建議simple,關閉驗證

  • hadoop.http.authentication.token.validity=36000

    安全選項。暫不關注

  • hadoop.http.authentication.signature.secret.file=${user.home}/hadoop-http-auth-signature-secret

    安全選項。暫不關注

  • hadoop.http.authentication.cookie.domain=null

    安全選項。暫不關注

  • hadoop.http.authentication.simple.anonymous.allowed=TRUE

    安全選項。暫不關注

  • hadoop.http.authentication.kerberos.principal=HTTP/_HOST@LOCALHOST

    安全選項。暫不關注

  • hadoop.http.authentication.kerberos.keytab=${user.home}/hadoop.keytab

    安全選項。暫不關注

  • dfs.ha.fencing.ssh.connect-timeout=30000

    SSH連線超時,毫秒,僅適用於內建的sshfence fencer。

  • ha.zookeeper.parent-znode=/hadoop-ha

    ZK失效備援功能,需要在ZK上建立節點,這裡是根節點的名稱。ZKFC會在這下面工作。注意,NameService ID會 被寫到此節點下,所以即便是開啟federation功能,也僅需要指定一個值。

  • ha.zookeeper.acl=world:anyone:rwcda

    ZKFC建立的ZK節點的訪問控制權限設定。可以多個,逗號分隔。此設定和ZK的CLI使用相同的格式。

  • ha.zookeeper.auth=null

    ZK操作時的許可權驗證。

  • hadoop.ssl.keystores.factory.class=org.apache.hadoop.security.ssl.FileBasedKeyStoresFactory

    安全選項。暫不關注

  • hadoop.ssl.require.client.cert=FALSE

    安全選項。暫不關注

  • hadoop.ssl.hostname.verifier=DEFAULT

    安全選項。暫不關注

  • hadoop.ssl.server.conf=ssl-server.xml

    安全選項。暫不關注

  • hadoop.ssl.client.conf=ssl-client.xml

    安全選項。暫不關注

  • hadoop.ssl.enabled=FALSE

    安全選項。暫不關注

  • hadoop.jetty.logs.serve.aliases=TRUE

    是否允許在Jetty中使用別名服務。

  • ha.health-monitor.connect-retry-interval.ms=1000

    HA功能的健康監控連線重試間隔

  • ha.health-monitor.check-interval.ms=1000

    HA功能的健康監控連線間隔

  • ha.health-monitor.sleep-after-disconnect.ms=1000

    HA功能的健康監控,在因網路問題失去連線後休眠多久。用於避免立即重試,此時網路問題仍在,沒有意義

  • ha.health-monitor.rpc-timeout.ms=45000

    HA功能健康監控的超時時間,毫秒

  • ha.failover-controller.new-active.rpc-timeout.ms=60000

    FC等待新的NN變成active狀態的超時時間。

  • ha.failover-controller.graceful-fence.rpc-timeout.ms=5000

    FC等待舊的active變成standby的超時時間。

  • ha.failover-controller.graceful-fence.connection.retries=1

    FC在做完美隔離是的連線重試次數(graceful fencing)

  • ha.failover-controller.cli-check.rpc-timeout.ms=20000

    手動執行的FC功能(從CLI)等待健康檢查、服務狀態的超時時間。

  • hadoop.hdfs.configuration.version=1

    配置檔案的版本

  • dfs.datanode.address=0.0.0.0:50010

    DN服務地址和埠,用於資料傳輸。0表示任意空閒埠。

    xferPort    dfs.datanode.address        50010   資料流地址   資料傳輸
    infoPort    dfs.datanode.http.address   50075
    ipcPort     dfs.datanode.ipc.address    50020   命令
    
  • dfs.datanode.http.address=0.0.0.0:50075

    DN的HTTP服務地址和埠。0表示任意空閒埠。

  • dfs.datanode.ipc.address=0.0.0.0:50020

    DN的IPC地址和埠。0表示任意空閒埠。

  • dfs.namenode.rpc-address=0.0.0.0:50090

    NN的RPC地址和埠

  • dfs.namenode.http-address=0.0.0.0:50070

    NN的HTTP地址和埠。0表示任意空閒埠。

  • dfs.datanode.du.reserved=0

    每個磁碟(volume)的保留空間,位元組。要注意留足夠的空間給非HDFS檔案使用。建議保留磁碟容量的5%或者50G以上

  • dfs.namenode.name.dir.restore=FALSE

    設定為true,允許NN嘗試恢復之前失敗的dfs.namenode.name.dir目錄。在建立checkpoint是做此嘗試。如果設定多個磁碟,建議允許

  • dfs.namenode.edits.dir=${dfs.namenode.name.dir}

    本地檔案,NN存放edits檔案的目錄。可以是逗號分隔的目錄列表。edits檔案會儲存在每個目錄,冗餘安全。

  • dfs.namenode.shared.edits.dir=null

    在多個NN中共享儲存目錄,用於存放edits檔案。這個目錄,由active寫,由standby讀,以保持名稱空間資料一致。此目錄不需要是dfs.namenode.edits.dir中列出的。在非HA叢集中,它不會使用。建議使用qj方式,可以不關注這個選項

  • dfs.namenode.edits.journal-plugin.qjournal=org.apache.hadoop.hdfs.qjournal.client.QuorumJournalManager

    qj方式共享edits。建議使用此方式

  • dfs.permissions.enabled=true

    是否在HDFS中開啟許可權檢查。

  • dfs.permissions.superusergroup=supergroup

    相關推薦

    hadoop引數彙總配置檔案引數

    Hadoop引數彙總 @(hadoop)[配置] linux引數 以下引數最好優化一下: 檔案描述符ulimit -n使用者最大程序 nproc (hbase需要 hbse book)關閉swap分割槽設定合理的預讀取緩衝區Linux的核心的I

    SSH遠端登入配置檔案sshd_config

    SSH由客戶端和服務端的軟體組成,在客戶端可以使用的軟體有SecureCRT、putty、Xshell等, 而在伺服器端執行的是一個sshd的服務,通過使用SSH,可以把所有傳輸的資料進行加密,而且也能夠 防止dns和IP欺騙,此外,SSH傳輸的資料是經過壓縮的,可以加快傳輸速度 其伺服器端的配

    Spring Boot配置檔案全面

    Spring Boot在工作中是用到的越來越廣泛了,簡單方便,有了它,效率提高不知道多少倍。Spring Boot配置檔案對Spring Boot來說就是入門和基礎,經常經常會用到,所以寫下做個總結以便日後檢視。 1.配置檔案 當我們構建完Spring Boot專案後,會在resources目錄下給我們一

    Apache2 httpd.conf配置檔案中文版

    Apache2 httpd.conf配置檔案中文版詳解## 基於 NCSA 服務的配置檔案。##這是Apache伺服器主要配置檔案。#它包含伺服器的影響伺服器執行的配置指令。#參見以取得關於這些指令的詳細資訊##不要只是簡單的閱讀這些指令資訊而不去理解它。#這裡只是做了簡單的說明,如果你沒有參考線上檔案,你就

    --Shiro配置檔案ini

    2017年07月09日 18:54:02 lfendo 閱讀數:7563  https://blog.csdn.net/u011781521/article/details/74892074 一、INI簡介 INI配置檔案是一種key/value的鍵值對配置

    docker-compose.yml 配置檔案編寫

    docker compose 在 Docker 容器運用中具有很大的學習意義,docker compose 是一個整合釋出應用的利器。而使用 docker compose 時,懂得如何編排 docker compose 配置檔案是很重要的。 一. 前言

    vagrant系列二:vagrant的配置檔案vagrantfile

    上一篇文章完整的講敘瞭如何安裝一個vagrant的環境。這裡主要說一說vagrant的配置檔案Vagrantfile。我在嘗試各種技術的時候,常常苦惱於很多時候沒有教程把相關的配置資訊說明完整。所以在我的部落格裡,我一定會完整的把這塊給補上。 一 配置詳解

    MySql主從配置檔案問題(資料不同步解決方案)

    一、問題描述 在mysql主從配置搭建好以後,偶爾會出現從庫無法同步主庫資料的情況,經過測試,把產生主從資料不同步的集中情況進行了歸納以及總結,問題如下: 1、主庫丟擲異常, 例如主鍵衝突等情況,這是主從配置就會失效,叢庫就無法同步主庫的資料了。如下

    Hadoop Hbase Spark 配置文件

    hadoop 1.core-site.xml 1.fs.defaultFS hdfs預設埠 2.hadoop.tmp.dir Hadoop.tmp.dir是hadoop檔

    Flume學習7_Flume配置檔案內容

    a1.sources = r1 a1.sinks = k1 a1.channels = c1 該配置檔案中 配置了一個代理a1   在代理agent中配置了一個source(源)一個sink(接收器)和一個channel(通道),分別為:r1,k1,c1 # Describe/configure the so

    史上最全web.xml配置檔案元素

    一、web.xml配置檔案常用元素及其意義預覽 1 <web-app> 2 3 <!--定義了WEB應用的名字--> 4 <display-name></display-name>

    史上最全web.xml配置檔案元素(轉載防丟)

    web.xml配置檔案常用元素及其意義預覽 1 <web-app> 2 3 <!--定義了WEB應用的名字--> 4 <display-name></display-name> 5

    MyBatis全域性配置檔案

    簡介        MyBatis 是一款優秀的持久層框架,它支援定製化 SQL、儲存過程以及高階對映。MyBatis 避免了幾乎所有的 JDBC 程式碼和手動設定引數以及獲取結果集。MyBatis 可以使用簡單的 XML 或註解來配置和對映原生資訊,將介面和 Java 的

    jfinal的配置檔案例項(二)

    1、去官網下載最新的jar包(我這是JFinal-lib-2.2) tomcat+mysql 所需要的jar 2、配置web.xml <filter> <filter-name>jfinal</filter-name>

    log4j配置檔案位置

    自動載入配置檔案: (1)如果採用log4j輸出日誌,要對log4j載入配置檔案的過程有所瞭解。log4j啟動時,預設會尋找source folder下的log4j.xml配置檔案,若沒有,會尋找log4j.properties檔案。然後載入配置。配置檔案放置位置正確,

    OpenSSH SSH 伺服器守護程序配置檔案sshd_config

    OpenSSH SSH 伺服器守護程序配置檔案 大綱      /etc/ssh/sshd_config 描述      sshd(8) 預設從 /etc/ssh/sshd_config 檔案(或通過 -f 命令列選項指定的檔案)讀取配置資訊。      配置檔案是由"指令

    nginx配置檔案中文

    1、nginx的配置檔案中文詳解如下: #user nginx;#nginx程序數,建議設定為等於CPU總核心數。 worker_processes 10; #程序檔案 pid logs/nginx.pid; { #參考事件模型,

    Nginx配置檔案優化

    Nginx配置檔案優化詳解 對nginx進行優化是重點也是難點,這裡給出一些常用的優化措施,以及相關引數的所代表的意思。

    【史上最全】Hadoop 核心 - HDFS 分散式檔案系統(上萬字建議收藏)

    ## 1. HDFS概述 Hadoop 分散式系統框架中,首要的基礎功能就是檔案系統,在 Hadoop 中使用 FileSystem 這個抽象類來表示我們的檔案系統,這個抽象類下面有很多子實現類,究竟使用哪一種,需要看我們具體的實現類,在我們實際工作中,用到的最多的就是HDFS(分散式檔案系統)以及Loca

    部署FTP服務、FTP服務主配置檔案引數

    FTP服務 概述: FTP(File Transfer Protocol),是檔案傳輸協議的簡稱。用於Internet上的控制檔案的雙向傳輸。同時, 它也是一個應用程式(Application),使用者可以通過它把自己的PC機與世界各地所有執行FTP協議的伺服器相連, 訪問伺服器上的