1. 程式人生 > >cloudera-hdfs 告警處理

cloudera-hdfs 告警處理


2018-03-13 11:15:17,215 WARN [org.apache.flume.sink.hdfs.HDFSEventSink] - HDFS IO error org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.ipc.StandbyException): Operation category WRITE is not supported in state standby at org.apache.hadoop.hdfs.server.namenode.ha.StandbyState.checkOperation(StandbyState.java:87) at org.apache.hadoop.hdfs.server.namenode.NameNode$NameNodeHAContext.checkOperation(NameNode.java:1754) at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.checkOperation(FSNamesystem.java:1337) at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.startFileInt(FSNamesystem.java:2492) at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.startFile(FSNamesystem.java:2446) at org.apache.hadoop.hdfs.server.namenode.NameNodeRpcServer.create(NameNodeRpcServer.java:566) at org.apache.hadoop.hdfs.server.namenode.AuthorizationProviderProxyClientProtocol.create(AuthorizationProviderProxyClientProtocol.java:108) at org.apache.hadoop.hdfs.protocolPB.ClientNamenodeProtocolServerSideTranslatorPB.create(ClientNamenodeProtocolServerSideTranslatorPB.java:388) at org.apache.hadoop.hdfs.protocol.proto.ClientNamenodeProtocolProtos$ClientNamenodeProtocol$2.callBlockingMethod(ClientNamenodeProtocolProtos.java) at org.apache.hadoop.ipc.ProtobufRpcEngine$Server$ProtoBufRpcInvoker.call(ProtobufRpcEngine.java:587) at org.apache.hadoop.ipc.RPC$Server.call(RPC.java:1026) at org.apache.hadoop.ipc.Server$Handler$1.run(Server.java:2013) at org.apache.hadoop.ipc.Server$Handler$1.run(Server.java:2009) at java.security.AccessController.doPrivileged(Native Method) at javax.security.auth.Subject.doAs(Subject.java:415) at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1678) at org.apache.hadoop.ipc.Server$Handler.run(Server.java:2007) at org.apache.hadoop.ipc.Client.call(Client.java:1411) at org.apache.hadoop.ipc.Client.call(Client.java:1364) at org.apache.hadoop.ipc.ProtobufRpcEngine$Invoker.invoke(ProtobufRpcEngine.java:206) at com.sun.proxy.$Proxy14.create(Unknown Source) at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62) at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) at java.lang.reflect.Method.invoke(Method.java:498) at org.apache.hadoop.io.retry.RetryInvocationHandler.invokeMethod(RetryInvocationHandler.java:187) at org.apache.hadoop.io.retry.RetryInvocationHandler.invoke(RetryInvocationHandler.java:102) at com.sun.proxy.$Proxy14.create(Unknown Source) at org.apache.hadoop.hdfs.protocolPB.ClientNamenodeProtocolTranslatorPB.create(ClientNamenodeProtocolTranslatorPB.java:264) at org.apache.hadoop.hdfs.DFSOutputStream.newStreamForCreate(DFSOutputStream.java:1612) at org.apache.hadoop.hdfs.DFSClient.create(DFSClient.java:1488) at org.apache.hadoop.hdfs.DFSClient.create(DFSClient.java:1413) at org.apache.hadoop.hdfs.DistributedFileSystem$6.doCall(DistributedFileSystem.java:387) at org.apache.hadoop.hdfs.DistributedFileSystem$6.doCall(DistributedFileSystem.java:383) at org.apache.hadoop.fs.FileSystemLinkResolver.resolve(FileSystemLinkResolver.java:81) at org.apache.hadoop.hdfs.DistributedFileSystem.create(DistributedFileSystem.java:383) at org.apache.hadoop.hdfs.DistributedFileSystem.create(DistributedFileSystem.java:327) at org.apache.hadoop.fs.FileSystem.create(FileSystem.java:906) at org.apache.hadoop.fs.FileSystem.create(FileSystem.java:887) at org.apache.hadoop.fs.FileSystem.create(FileSystem.java:784) at org.apache.hadoop.fs.FileSystem.create(FileSystem.java:773) at org.apache.flume.sink.hdfs.HDFSDataStream.doOpen(HDFSDataStream.java:86) at org.apache.flume.sink.hdfs.HDFSDataStream.open(HDFSDataStream.java:113) at org.apache.flume.sink.hdfs.BucketWriter$1.call(BucketWriter.java:273) at org.apache.flume.sink.hdfs.BucketWriter$1.call(BucketWriter.java:262) at org.apache.flume.sink.hdfs.BucketWriter$9$1.run(BucketWriter.java:722) at org.apache.flume.sink.hdfs.BucketWriter.runPrivileged(BucketWriter.java:183) at org.apache.flume.sink.hdfs.BucketWriter.access$1700(BucketWriter.java:59) at org.apache.flume.sink.hdfs.BucketWriter$9.call(BucketWriter.java:719) at java.util.concurrent.FutureTask.run(FutureTask.java:266) at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1142) at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:617) at java.lang.Thread.run(Thread.java:748)

檢視hadoop原始碼:

 

發些是寫HDFS 無法寫入許可權,空間不足引起

參考:http://blog.csdn.net/xueyao0201/article/details/79530130

相關推薦

cloudera-hdfs 告警處理

2018-03-13 11:15:17,215 WARN [org.apache.flume.sink.hdfs.HDFSEventSink] - HDFS IO error org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.ipc.Stan

Cisco ASR100X告警處理

asr1002x告警 客戶反饋其機房的ASR100X告警,拍照如下圖: 處理步驟:查看日誌未發現異常查看CPU/內存/風扇未發現異常 3.清除告警#clear facility alarm依舊告警 4.shutdown掉沒有接入線纜的端口後告警消失,板卡為SPA-5X1GE-V2本文出自 “專註

nagios報 check_oracle_rman_backup_problems告警處理思路

check_oracle_rman_b本人不是Oracle DBA,不懂Oracle,告警了運維又不管,說是DBA的活,反正在他們眼裏無論是MySQL,Oracle,SYBASE還是Redis,MongoDB都是DBA,和他們沒關系。。。。。1.打開nrpe.cfg,找到check_oracle_rman_b

"lack of free swap space"告警處理,自動掛載swap

[[email protected] ~]# free -h total used free shared buff/cache available Mem: 991M

elastalert告警處理

使用POST的方式接收告警,然後後端自己處理。 接收到的告警資料如下: {u'total_time': 0.002, u'http_user_agent': u'"Java/1.8.0_91"', u'@timestamp': u'2018-10-23T09:5

SODBASE CEP事件驅動應用----進行告警處理流程管理

    IT系統往往需要配置軟硬體監控,以保證系統能夠可靠執行。如果監控發出報警需要及時處理,最好能跟蹤處理進度。     目前大多數監控報警系統,實際上是無法滿足每個企業告警處理流程定製化的要求的。即使告警整合雲平臺,很多時候也無法滿足企業內部特有的告警通道和個性化告警處

vmware vsphere出現“需要整合虛擬機磁盤”的告警處理方法(完整版)

tro 告警 執行 第一步 遷移 下一條 回來 原因 虛機 vmware vsphere出現“需要整合虛擬機磁盤”的告警 處理步驟: 1.選擇對應虛機,快照——整合 (不行看下一條) 通常情況執行完第一步就好了 2.如

19.12添加自定義監控項目19.13/19.14 配置郵件告警19.15 測試告警19.16 不發郵件的問題處理

19.12添加自定義監控項目19.13/19.14 配置郵件告警19.15 測試告警19.16 不發郵件的問題處理19.12 添加自定義監控項目19.13/19.14 配置郵件告警19.15 測試告警19.16 不發郵件的問題處理19.12 添加自定義監控項目zabbix的監控項目是在模板裏面體現,但是有時候

添加自定義監控項目,配置郵件告警,測試告警,不發送郵件的問題處理

添加自定義監控項目 配置郵件告警 測試告警 zabbix 不發送郵件的問題處理 筆記內容:19.12添加自定義監控項目19.13/19.14配置郵件告警19.15測試告警19.16不發送郵件的問題處理筆記日期:2017-11-2019.12添加自定義監控項目自定義的監控項目是用於實現一些特

11g生產環境監聽日誌告警問題處理-Subscription?for

Subscription listener.ora listener.log 1、系統報錯 Command:?failed????????stdout:?yes???????????stderr:?no Before?command?completion,?additional?instructi

linux監控平臺搭建(3)添加自定義監控項目、配置郵件告警、測試警報、不發郵件的問題處理

zabbix配置郵件告警 添加自定義監控項目很多的監控項,我們都是在配置的模板中設置的,但是模板的選擇是不能完全滿足到我們生產中 的實際需求。所以我們可以自定義監控項目,通過編寫Shell腳本或者python腳本,在腳本中獲取數據庫中所需業務的數,然後在通過在監控項裏添加這個腳本,將腳本獲

19.12添加自定義監控項目19.13-14配置郵件告警19.15測試告警19.16不發郵件問題處理

十六周四次課(4月16日)19.12添加自定義監控項目客戶端上編輯配置文件 vim /etc/zabbix/zabbix_agentd.conf//增加UnsafeUserParameters=1 //表示使用自定義腳本UserParameter=my.estab.count[],/usr/local/sb

六十六、添加自定義監控項目、配置郵件告警、測試告警、不發郵件的問題處理

添加自定義監控項目 配置郵件告警 測試告警 六十六、添加自定義監控項目、配置郵件告警、測試告警、不發郵件的問題處理一、添加自定義監控項目 需求:監控某臺web的80端口連接數,並出圖思路:先寫一個腳本,能獲取到數據,因為成圖需要數據,再給這個腳本執行的權限,然後再用zabbix_get命令使服務端

19.12 添加自定義監控項目 19.13/19.14 配置郵件告警 19.15 測試告警 19.16 不發郵件的問題處理

safe nbsp 信息 重新 depend msg sendmail left 郵件內容 19.12 添加自定義監控項目 zabbix的監控項目是在模板裏面體現,但是有時候就會有些個性化的需求:某一個業務的數據,例如:運營人員想知道網站會員註冊量,會員活躍度;實際上,

添加自定義監控項目、配置郵件告警及不發郵件的問題處理

use zab text 恢復操作 觸發 mod 授權碼 觸發器 trigge 一、添加自定義監控項目 需求:監控某臺web的80端口連接數,並出圖兩步:1)zabbix監控中心創建監控項目;2)針對該監控項目以圖形展現對於第一步,需要到客戶端定義腳本vim /usr/lo

添加自定義監控項目,配置郵件告警,測試告警,不發郵件的問題處理

lis led ply zabbix 監控 gin 時間 ado 客戶 Coding 添加自定義監控項目 需求:監控某臺web的80端口連接數,並出圖 兩步:1)zabbix監控中心創建監控項目;2)針對該監控項目以圖形展現 對於第一步,需要到客戶端定義腳本,並賦予755

添加自定義監控項目、配置郵件告警、測試告警、不發郵件的問題處理

linux 自定義監控 mes 定義 def ade 必須 命令 scripts 添加自定義監控項目 [root@101xuni2 ~]# netstat -ant |grep ‘:80 ‘ |grep -c ESTABLISHED ##這條命令是可以查看80端

HDFS無法高效儲存大量小檔案,如何處理好小檔案?

一、HAR檔案方案         為了緩解大量小檔案帶給namenode記憶體的壓力,Hadoop 0.18.0引入了Hadoop Archives(HAR files),其本質就是在HDFS之上構建一個分層檔案系統。通過執行hado

SparkStreaming(5):例項-SparkStreaming處理本地或者HDFS檔案

1.實現功能: SparkStreaming處理本地或者HDFS檔案,並進行wordcount的統計。 2.前提開啟: (1)hdfs (2)metastore 3.scala程式碼: (1)本地目錄寫法: file:///E:\\Tools\\WorkspaceforM

HDFS balancer 異常處理

Hbase批量匯入資料時,伺服器負載較高,導致HDFS資料沒有及時均衡,導致有一個DataNode資料暴增,手動進行balancer。 增加HDFS DataNode節點,想要均衡資料儲存,執行 hdfs balancer -threshold 10 突然有一些節點