Apache

Flink是如何儲存Offset的

Flink對Offset的管理,有兩種方式: 1.Checkpointing disabled 完全依賴於kafka自身的API 2.Checkpointing enabled

讀《Kafka權威指南》04 深入Kafka

叢集成員關係 Kafka 使用 Zookeeper 來維護叢集成員的資訊。每個 broker 都有一個唯一識別符號,這個識別符號可以在配置檔案裡指定,也可以自動生成。在 broker 啟動的時候,它通過建立

Kafka在專案實踐中的若干經驗分享

Kafka是一個分散式訊息佇列,它將資料分割槽儲存,並將每個分割槽儲存成多份以提高資料可靠性。Kafka是在大資料背景下產生的,用以應對海量資料的處理場景,具有高效能、良好的擴充套件性、資料永續性等特點。

基於Flume、Kafka技術實現新能源大資料中心資料採集

隨著近幾年新能源發電行業的迅猛發展,新能源大資料中心平臺建設也悄然興起。越來越多的新能源企業投入人力、物力和財力著手建設自己的大資料中心,旨在提升生產管理水平和發電經濟效益。大資料中心建設首先要解決的問題是大

Spark streaming消費Kafka的正確姿勢

前言 在遊戲專案中,需要對每天千萬級的遊戲評論資訊進行詞頻統計,在生產者一端,我們將資料按照每天的拉取時間存入了Kafka當中,而在消費者一端,我們利用了spark streaming從kafka中不斷拉取

解讀 Flink 的宣告式資源管理與自動擴縮容設計

歡迎瞭解與試用騰訊實時計算團隊打造的 《Oceanus:基於Apache Flink的一站式實時計算平臺》 你可以點選一下“文中”或“底部”的廣告支援一下作者~ O(∩_∩)O 這篇文章我們來解讀一

從疑問入手瞭解Flink

從疑問入手瞭解Flink Flink網上的資料比起Spark來說是少很多的,我在學習的過程中有一些疑問,然後從疑問入手學習並參考官網文件和阿里的雲棲社群總結。 批處理和流處理的區別? 最大的區別就是

flink 的 datastream 必須掌握的內容

flink作為目前比較火的流處理引擎,學好還是很有必要的,但是很多人喜歡問浪尖flink會不會超越spark,我覺得短期內還是不會,而且spark 批處理領域還是很高效靠譜的。但是作為大資料開發者,spark和

1714580343.6247