1. 程式人生 > >雙11與雲端計算的前世今生

雙11與雲端計算的前世今生

雙11由來

一年一度的雙11即將拉開帷幕,剁手黨已經準備好了購物車與錢包,準備著一年一度的網購血拼。雙11作為一個被造出來的節日,用了6年時間,從最初的淘寶商城促銷日,成為了中國特色的電商狂歡節。

阿里CEO張勇曾經闡述過雙11的由來:

5年前,那個時候叫淘寶商城,商家也沒有這麼大規模,當時都不知道有個光棍節,那時張和張的團隊最初的想法就是讓消費者每年好好玩一次,準備做網上的購物節。
2009年,淘寶商城搞’雙11’,廣告營銷主打:光棍節(11月11日)沒事幹,那天就買點啥東西去當禮物送人。為什麼會選中11月,是因為時節改動快,南邊進入深秋,北方進入冬季,人們需要採辦的東西格外多,比方衣服、棉被都得換厚的,連拖鞋都得換成棉拖。

同時,11月份沒有多大的節日,10月份有黃金週,12月份有聖誕節,都是比較大的消費節慶類的時點,這一試水,效果很明顯,挖出了強大的內需。

某著名電商網站雙11銷售額回顧:

年份 銷售額
2009年 5000萬元
2010年 9.36億元;
2011年 52億元;
2012年 191億元(業內稱為雙11的爆發點)
2013年 350億元;
2014年 571億元;
2015年 912億元;
2016年 1207億元;
2017年 1682億元;

雙11推動了雲端計算技術進步

雙11面臨幾個典型的巨大難題:

1、支援網際網路級規模:每天有數億人在各大電商網站上進行交易;

2、處理企業級複雜度:每完成一筆交易都需要數百個系統的服務支撐;金融級的穩定性,每一筆交易都必須保證其完整性和正確性;

3、絕對的系統穩定性:雙11存在數十倍的業務峰值,要求系統絕對穩定,不能出現任何服務的異常終止和錯誤。

過去九年雙11經歷下來,整體電商平臺交易額增長了280倍、交易峰值增長800多倍、系統數呈現爆發式增長。系統在支撐雙11過程中的複雜度和支撐難度以指數級形式上升。

雙11的峰值的本質是用有限的成本最大化的提升使用者體驗和叢集吞吐能力,用合理的代價解決峰值。面對增長如何發揮規模效應,持續降低單筆交易成本以提升峰值吞吐能力,為使用者提供絲般順滑的瀏覽和購物體驗,是極大的挑戰。

隨著分散式架構、異地多活、限流降級、全鏈路壓測等技術的突破,擴充套件性和穩定性問題得到了很好的解決。雲端計算系統架構伴隨九年雙11的發展一代一代向後演進,每一年都有很大的提高。

以阿里巴巴為例,從08年開始著手系統從由集中式架構變成分佈可擴充套件架構,其中沉澱了大量網際網路中介軟體技術。13年通過異地多活的架構演進,把商城完整的交易單元部署到全國各個城市站點,實現了地域級水平擴充套件。這兩種技術的疊加解決了整個雙11擴充套件性問題。

基於分散式架構的演進,雲端計算平臺能對整個系統的依賴關係裡跟雙11有關的部分進行完整的使用者級的線上大流量真實場景讀寫壓測,使系統提前經歷幾次“雙11”,驗證整個線上生產環境處理能力,及時發現問題並修復。

未來雲化架構和雙11的技術發展方向

基於雙11的場景需求,利用雲端計算技術解決每年大促的成本和效率問題,為當前各大電商平臺找到了一個正確的方向。各大電商平臺從近年起,不斷進行長期的雲端計算建設投資和技術發展,以便每年雙11均有更大的優化效率和提升。其中,阿里雲、騰訊雲、睿江雲等雲端計算平臺所推出的電商解決方案,最能受到電商客戶的青睞,能有效為各大電商企業客戶節省雙11大促投入成本。

未來,各大電商平臺通過採用雲化架構,將能有效降低整體IDC資源使用成本,減少無謂的資源損耗;通過擴大排程規模和混部形態擴大效益,繼續推進面向終態的體系結構和運維體系的提升,使得資源佔用率優化30%以上,持續降低大促的交易成本。

通過雙11技術變數的採集、分析、預測微觀視角的剖析和資料演算法驅動,用智慧決策進行處理;通過資料化、智慧化、人與機器智慧協同指揮,提升雙11準備和作戰效率,減少人力投入;通過加速雲端計算基礎技術的迭代,在體驗、效率、成本和最大吞吐能力上找到新的平衡點,為整個行業和消費者帶來一個更加完美的雙11。