BAT 春晚發紅包,A、T 宕機 3 年,為啥 2019 年百度挺住了?
今天是大年初一,首先祝大家新年快樂,新的一年,人人都能給自己多分配點時間,少一點忙碌,多一點自我。
進入正題,昨晚網際網路人,春晚最關心的事莫過於服務是否正常,昨晚百度挺住了。
百度作為央視2019春晚獨家網路互動平臺,紅包互動活動圓滿落幕。春晚直播期間,全球觀眾參與百度APP紅包互動活動次數達208億次!
官宣圖
春晚期間,百度共發出1000萬個20.19元的紅包,100萬個88元紅包,10萬臺小度AI音箱,1萬個2019元紅包以及若干手氣紅包。全球觀眾參與共同瓜分9億現金紅包大獎!
同往屆類似,此次春晚紅包互動同樣分為四輪發放,主題依次為“好運臨門”、“星想事成”、“幸福團圓”、“夢想成真”。第一輪為搖一搖紅包,總金額3億;第二輪為小視訊紅包,總金額3億;第三輪為語音互動紅包,總金額2億;第四輪同樣是搖一搖紅包,總金額1億。四輪紅包均在百度APP上參與互動。
數億觀眾幸福搶紅包的背後,也展示了百度雲領先的技術保障實力。面對可能出現的臨時使用者登入量極大,瞬間出現巨大流量峰值造成使用者體驗不暢的問題,百度雲的整個技術保障體系就像一個彈性容器,全自動自如擴容縮容。當遇到流量洪峰時,系統智慧化排程,快速接入頻寬資源,據使用者任務的不同,匹配適應的容量。做到了在最短的時間內,用最少的資源保障春晚觀眾搶紅包的快樂。
以上公司官方資料,再爆一點內部資料,請勿外傳。
回到開始的問題:
BAT春晚發紅包,騰訊、阿里連續宕機3年,為何2019年百度挺住了?
中國網際網路說大流量,一般我們會說雙十一晚上零時全民網購,全國人民一起搶購突發流量是大流量,還有就是春運12306搶票的流量。而實際上,春晚搶紅包的流量才是終極BOSS。
我們看下資料。微信是裝機量最大的APP了,日活高峰是9.5億,支付寶這種日活不過2.3億,而春晚是在短短几分鐘內,有10多億使用者同時發出需求。這個強度非常之高。
2015年除夕當天,微信紅包收發總量達10.1億次,春晚全程(2月18日20:00-2月19日00:48)微信春晚搖一搖互動次數達110億次,出現在除夕夜當天22:34出現峰值8.1億次/分。騰訊宕機1小時。
2016年,支付寶拿下了春晚合作機會。除夕夜,支付寶出現偶爾宕機。
2018年春晚,淘寶提前推導了各種極端情況,在2017年雙十一基礎上再擴容3倍。結果春晚當晚登入的實際峰值超過了2017年雙十一的15倍,尤其新使用者的瞬時登入更是完全超出預料,經受過雙十一洗禮的阿里伺服器還是宕機了。
前有A、T的前車之鑑,百度今年能不能扛住,也是受到很多關注。
事實上,當晚第一輪搖一搖紅包活動結束後,截至21:00,全球觀眾參與百度APP紅包互動就已經達到了92億次,而這才剛剛開始。史無前例的9億紅包數額、還有2019年智慧機進一步普及,網際網路加速下沉縣城、鄉鎮、農村的趨勢,果然都讓2019人們的紅包熱情爆發得更加洶湧。
這些還不是全部。
任何紅包類、抽獎類活動還會有一個灰色的影子參與其中,這就是中國網際網路的黑產使用者,中國薅羊毛黨手裡掌握大量虛擬資源,拼多多號稱一夜損失200億就是它們乾的,它們可以在短時間內產生巨大流量,這部分流量疊加正常流量,也進一步加大了伺服器的壓力。
另外,因為搶紅包這個東西,是有一個流程的,涉及很多外部服務,百度自己的伺服器只是其中一個環節。
沒下載的使用者下載百度APP,沒註冊的註冊,註冊的收簡訊要通過電信運營商,所有網路需求都要通過硬體。APP市場的伺服器,電信運營商的網路,機房、光纖等硬體,有一個環節容量不夠,都可能導致宕機。
事實上,春晚當天百度的第一輪紅包互動之後,蘋果應用商店、華為、小米、三星幾大應用商店全部掛掉,其中蘋果應用商店長達12分鐘不能訪問,今年的流量顯然遠超預期。在春晚直播期間,全球觀眾參與百度APP紅包互動活動次數達208億次!
而且,相對往年,百度今年多了很多新玩法。語音搜尋、視訊紅包的需求消耗的資源要高於傳統的搶紅包併發需求。百度這次使用個性化資訊流和視訊技術,為每個使用者定製內容,千人千面,也讓流量壓力倍數增長。
但面對今年如此的超級需求,百度居然能頂住,全程沒有出現明顯故障,不得不說,業界公認的“百度技術強”,不是一句空話,經過春晚這個流量王者的洗禮和證明,更穩了。
當然,平穩運轉背後也是險象環生,百度花了相當大的力氣。
在確定拿下春晚紅包互動權後,百度成立了一個近千人的專案組,包括產品、研發、運營、客服以及風控,應對爆發數量的需求。
在技術方面,百度很早就落實了服務流量隔離、系統升級、專線新增以及伺服器擴容等工作,提前進行了多輪全鏈路壓力測試和多輪的方案預演。
在硬體資源上,除了常規的擴容,百度還使用專有硬體計算(特定CPU,或者GPU、FPGA等硬體),處理大規模AI計算需求;準備最大規模硬體資源,處理十億級別併發需求。據說整個系統在內部都是全自動擴容縮容,數萬臺機器,相應每秒數千萬的請求,並支援快速擴充套件支援更多請求處理。
百度的技術並不是天上掉下來的,而是百度大資料、雲端計算、人工智慧技術多年發展積累出來的。百度在硬體上能夠提供專用硬體計算,是因為百度雲服務本身就提供的GPU和FPGA專用伺服器,百度能有全自動擴容縮容技術,是因為百度雲本身就提供彈性伸縮功能。百度雲的積累是百度能夠應對春晚紅包的資料爆發的技術技術。
值得一提的是百度並不只是靠計算能力硬抗,百度有小程式的技術優勢。百度這次的搖一搖紅包和視訊紅包等都採用小程式開發,用小程式技術支援更靈活的開發和預載入機制,不僅能夠應對更大流量更大併發,降低硬體資源消耗,提升效率,還有更好的使用者體驗。
在使用者比往年多,玩法比往年多、AI玩法增加計算壓力的地獄級別的高壓環境下,百度的春晚紅包沒宕機,這裡要贊一手百度了,不過話又說回來,我相信今年承辦方給到阿里或是騰訊應該也沒有問題,畢竟3巨頭都在飛速成長著。