1. 程式人生 > >最近寫Flink on Yarn程式遇到的一些問題

最近寫Flink on Yarn程式遇到的一些問題

1.UDF造成的compile 編譯失敗

class GetDay() extends ScalarFunction{
// 這個變數千萬不能定義在這裡,否則除錯沒問題,on yarn執行會編譯出錯
// val simpleDateFormat = new SimpleDateFormat("yyyyMMdd")
  def eval():String = {
    val simpleDateFormat = new SimpleDateFormat("yyyyMMdd")
    val calendar = Calendar.getInstance
    simpleDateFormat.
format(calendar.getTime) } }

2.類載入順序導致的問題

Caused by: java.lang.ClassCastException: cannot assign instance of org.apache.commons.collections.map.LinkedMap to 
field org.apache.flink.streaming.connectors.kafka.FlinkKafkaConsumerBase.pendingOffsetsToCommit of type 
org.apache.commons.collections.
map.LinkedMap in instance of org.apache.flink.streaming.connectors.kafka.FlinkKafkaConsumer010

修改yarn-conf.yml解決

classloader.resolve-order: parent-first
  1. 型別轉換cast string報錯
Caused by: org.apache.calcite.sql.validate.SqlValidatorException: Unknown datatype name 'string'
  at sun.reflect.NativeConstructorAccessorImpl.
newInstance0(Native Method) at sun.reflect.NativeConstructorAccessorImpl.newInstance(NativeConstructorAccessorImpl.java:62) at sun.reflect.DelegatingConstructorAccessorImpl.newInstance(DelegatingConstructorAccessorImpl.java:45) at java.lang.reflect.Constructor.newInstance(Constructor.java:423) at org.apache.calcite.runtime.Resources$ExInstWithCause.ex(Resources.java:463) at org.apache.calcite.runtime.Resources$ExInst.ex(Resources.java:572)
  1. kafka 依賴問題
Caused by: org.apache.flink.table.api.NoMatchingTableFactoryException: Could not find a suitable table factory for 'org.apache.flink.table.factories.DeserializationSchemaFactory' in
the classpath.

Reason: No factory implements 'org.apache.flink.table.factories.DeserializationSchemaFactory'.

將依賴放在lib下。 09和10的。10依賴09. 還有base的包。
和flink-json的。

  1. 寫ES報錯衝突
Caused by: [es_index_poc/A8kEJoRzQHeGpqlN_0JdOA][[es_index_poc][0]] VersionConflictEngineException[[es_type][32698248814793]: version conflict, current version [20] is different than the one provided [19]]

主鍵要唯一

相關推薦

最近Flink on Yarn程式遇到的一些問題

1.UDF造成的compile 編譯失敗 class GetDay() extends ScalarFunction{ // 這個變數千萬不能定義在這裡,否則除錯沒問題,on yarn執行會編譯出錯

Flink1.6系列之—Flink on yarn流程詳解

端口 準備 -a 根據 images mas info 使用 臨時 本篇我們介紹下,Flink在YARN上運行流程: 當開始一個新的Flink yarn 會話時,客戶端首先檢查所請求的資源(containers和內存)是否可用。如果資源夠用,之後,上傳

Flink on Yarn模式啟動流程分析

cin XML images ont list action -i 多個 信息 此文已由作者嶽猛授權網易雲社區發布。歡迎訪問網易雲社區,了解更多網易技術產品運營經驗。Flink On Yarn 架構Paste_Image.png前提條件首先需要配置YARN_CONF_DIR

Flink on Yarn模式啟動流程原始碼分析

此文已由作者嶽猛授權網易雲社群釋出。 歡迎訪問網易雲社群,瞭解更多網易技術產品運營經驗。 Flink on yarn的啟動流程可以參見前面的文章 Flink on Yarn啟動流程,下面主要是從原始碼角度看下這個實現,可能有的地方理解有誤,請給予指正,多謝。 --> 1.命令列啟動yarn sessi

Flink on Yarn模式啟動流程源代碼分析

www and *** err wap `` dem 註冊 contex 此文已由作者嶽猛授權網易雲社區發布。歡迎訪問網易雲社區,了解更多網易技術產品運營經驗。Flink on yarn的啟動流程可以參見前面的文章 Flink on Yarn啟動流程,下面主要是從源碼角度看

flink on yarn部分原始碼解析 (FLIP-6 new mode)

我們在https://www.cnblogs.com/dongxiao-yang/p/9403427.html文章裡分析了flink提交single job到yarn叢集上的程式碼,flink在1.5版本後對整個框架的deploy方式重構了全新的流程(參考https://cwiki.apache.org/co

flink開發實戰之 flink on yarn

flink 執行模式 Flink 和spark一樣有三種部署模式,分別是 Local、Standalone Cluster 和 Yarn Cluster。 實戰開發主要使用Yarn Cluster模式,所以本文主要介紹yarn  模式下flink任務的執行和資源分配。 Ya

Flink on yarn的問題:Invalid AMRMToken

目前採用的Flink的版本是1.4.2,執行在yarn上,總是時不時的報錯“Invalid AMRMToken from appattempt”,導致AM掛掉。   簡而言之,就是AM和RM溝通的過程中,突然AM提供的Token不被認可,導致拒絕連線,進而AM掛掉。   後來發現早

Flink-on-yarn

解壓 stat master swd run rec 地址 abi man 介紹 官網下載 https://www.apache.org/dyn/closer.lua/flink/flink-1.6.1/flink-1.6.1-bin-hadoop28-scala_

flink on yarn叢集搭建

前面一篇部落格中已經搭建了flink Standalone的叢集,需要的可以進去看一下,今天主要來說一下flink on yarn 叢集的搭建以及怎麼提交任務.這篇部落格寫的比較詳細,內容較多,希望大家耐心看完,都是乾貨. 版本資訊: flink-1.6.0 zooke

Flink之三 flink on yarn

Flink的執行模式  flink的執行模式有local模式,cluster,yarn等模式;flink叢集層次結構     這一節我們主要一起了解flink on yarn 模式,flink on yarn 有兩種模式:       一:long-running F

spark遠端debug之除錯spark on yarn 程式(基於CDH平臺,1.6.0版本)

簡介 由於spark有多種執行模式,遠端除錯的時候,雖然大體步驟相同,但是還是有小部分需要注意的地方,這裡記錄一下除錯執行在spark on yarn模式下的程式。 環境準備 需要完好的Hadoop,spark叢集,以便於提交spark on yarn程式。我這裡是基

Flink on YARN快速入門指南

  Apache Flink是一個高效、分散式、基於Java和Scala(主要是由Java實現)實現的通用大資料分析引擎,它具有分散式 MapReduce一類平臺的高效性、靈活性和擴充套件性以及並行資料庫查詢優化方案,它支援批量和基於流的資料分析,且提供了基於Ja

flink on yarn模式

flink on yarn模式的相關知識點(重要):https://blog.csdn.net/xu470438000/article/details/79576989 在flink on yarn模式中,flink yarn-session的兩種提交方式 兩種提交方式 1

Flink on yarn

一: 配置: 1.配置yarn-site.xml <property><name>yarn.resourcemanager.am.max-attempts</name><value>4</value></property> 2.配置

Flink on Yarn部署

環境資訊:Hadoop版本:2.6.0Flink版本:1.1.2快速部署Flink on Yarn環境:比如啟動一個有4個TaskManager(每個節點都有4GB堆記憶體)的Yarn會話:1.      下載Flink的軟體包,如flink-1.1.2-bin-hadoop

Flink On Yarn 異常排除過程以及根據位元組碼名字獲取jar檔名字

最初學習Flink,寫了一個簡單的wordcount執行一下,發現報錯,異常資訊如下: The program finished with the following exception: java.lang.RuntimeException: Error deployin

flink開發實戰之 flink on yarn

flink 執行模式 Flink 和spark一樣有三種部署模式,分別是 Local、Standalone Cluster 和 Yarn Cluster。 實戰開發主要使用Yarn Cluster模式,所以本文主要介紹yarn  模式下flink任務的執行和資源分配。

flink部署操作-flink on yarn叢集安裝部署

flink叢集安裝部署 yarn叢集模式 Flink入門及實戰-上: Flink入門及實戰-下: 快速開始 在yarn上啟動一個一直執行的flink叢集 在yarn上執行一個flink job flink yarn session 啟動flink s

Flink】深入理解Flink-On-Yarn模式

1. 前言 Flink提供了兩種在yarn上執行的模式,分別為Session-Cluster和Per-Job-Cluster模式,本文分析兩種模式及啟動流程。 下圖展示了Flink-On-Yarn模式下涉及到的相關類圖結構 2. Session-Cluster模式 Session-Cluster