• <menu id="gyiem"><menu id="gyiem"></menu></menu>
  • <menu id="gyiem"><code id="gyiem"></code></menu>

    Spark 灰度發布的參考方法 CI CD

    原創文章,轉載請務必將下面這段話置于文章開頭處。
    本文轉發自技術世界原文鏈接 http://www.luozeyang.com/spark/ci_cd/

    Spark CI 持續集成實踐

    CI 介紹

    持續集成是指,及時地將最新開發的且經過測試的代碼集成到主干分支中。
    Continuous Integration

    持續集成的優點

    • 快速發現錯誤 每次更新都及時集成到主干分支中,并進行測試,可以快速發現錯誤,方便定位錯誤
    • 避免子分支大幅偏離主干分支 主干在不斷更新,如果不經常集成,會產生后期集成難度變大,甚至難以集成,并造成不同開發人員間不必要的重復開發
    • 為快速迭代提供保障 持續集成為后文介紹的持續發布與持續部署提供了保證

    Spark CI 實踐

    目前主流的代碼管理工具有,Github、Gitlab等。本文所介紹的內容中,所有代碼均托管于私有的 Gitlab 中。

    鑒于 Jenkins 幾乎是 CI 事實上的標準,本文介紹的 Spark CI CD & CD 實踐均基于 Jenkins 與 Gitlab。

    Spark 源碼保存在 spark-src.git 庫中。

    由于已有部署系統支持 Git,因此可將集成后的 distribution 保存到 Gitlab 的發布庫(spark-bin.git)中。

    每次開發人員提交代碼后,均通過 Gitlab 發起一個 Merge Requet (相當于 Gitlab 的 Pull Request)

    每當有 MR 被創建,或者被更新,Gitlab 通過 Webhook 通知 Jenkins 基于該 MR 最新代碼進行 build。該 build 過程包含了

    • 編譯 Spark 所有 module
    • 執行 Spark 所有單元測試
    • 執行性能測試
    • 檢查測試結果。如果有任意測試用例失敗,或者性能測試結果明顯差于上一次測試,則 Jenkins 構建失敗

    Jenkins 將 build 結果通知 Gitlab,只有 Jenkins 構建成功,Gitlab 的 MR 頁面才允許 Merge。否則 Gitlab 不允許 Merge

    另外,還需人工進行 Code Review。只有兩個以上的 Reviewer 通過,才能進行最終 Merge

    所有測試與 Reivew 通過后,通過 Gitlab Merge 功能自動將代碼 Fast forward Merge 到目標分支中

    該流程保證了

    • 所有合并進目標分支中的代碼都經過了單元測試(白盒測試)與性能測試(黑盒測試)
    • 每次發起 MR 后都會及時自動發起測試,方便及時發現問題
    • 所有代碼更新都能及時合并進目標分支

    Spark CD 持續交付

    CD 持續交付介紹

    持續交付是指,及時地將軟件的新版本,交付給質量保障團隊或者用戶,以供評審。持續交付可看作是持續集成的下一步。它強調的是,不管怎么更新,軟件都是可隨時交付的。

    這一階段的評審,一般是將上文集成后的軟件部署到盡可能貼近生產環境的 Staging 環境中,并使用貼近真實場景的用法(或者流量)進行測試。
    Continuous Delivery

    持續發布的優點

    • 快速發布 有了持續集成與持續發布,可快速將最新功能發布出來,也可快速修復已知 bug
    • 快速迭代 由于發布及時,可以快速判斷產品是否符合產品經理的預期或者是否能滿足用戶的需求

    Spark CD 持續發布實踐

    這里有提供三種方案,供讀者參考。推薦方案三

    方案一:單分支

    正常流程

    如下圖所示,基于單分支的 Spark 持續交付方案如下

    • 所有開發都在 spark-src.git/dev(即 spark-src.git 的 dev branch) 上進行
    • 每周一將當前最新代碼打包,放進 spark-bin.git/devspark-${ build # }(如圖中第 2 周的 spark-72)文件夾內
    • spark-prod 指向當前 spark-dev 指向的文件夾(如圖中的 spark-71 )
    • spark-dev 指向 spark-${ build # }(如圖中的 spark-72)
    • 自動將 spark-bin.git 最新內容上線到 Staging 環境,并使用 spark-dev 進行測試
    • spark-prod 比 spark-dev 晚一周(一個 release 周期),這一周用于 Staging 環境中測試

    Continuous Delivery Solution 1

    注:

    • 藍色圓形是正常 commit
    • 垂直虛線是發布時間點,week 1、week 2、week 3、week 4
    • 最上方黑色粗橫線是源碼時間線
    • 下方黃色粗橫線是 release 時間線
    • 綠色方框是每周生成的 release,帶 build #
    • 藍色方框是開發版本的 symbolic
    • 橘色方框是線上版本的 symbolic

    bug fix

    在 Staging 環境中發現 spark-dev 的 bug 時,修復及集成和交付方案如下

    • 如果在 Staging 環境中發現了 spark-dev 的 bug,且必須要修復(如不修復,會帶到下次的 spark-prod 的 release 中),則提交一個 commit,并且 commit message 包含 bugfix 字樣(如圖中黑色圓形 commit 9 所示)
    • 該 bugfix 被 Merge 后,Jenkins 得到通知
    • Jenkins 發現該 commit 是 bugfix,立即啟動構建,生成spark-${ build \# }(如圖中的 spark-73)
    • spark-dev 指向 spark-${ build \# } (如圖中的 spark-73 )

    Continuous Delivery Solution 1 bug fix

    hot fix

    生產環境中發現 bug 時修復及交付方案如下

    • 如果發現線上版本(即 spark-prod)有問題,須及時修復,則提交一個 commit,并且 commit message 包含 hotfix 字樣 (如圖中紅色圓形 commit 9 所示)
    • 該 hotfix 被 Merge 后,Jenkins 得到通知
    • Jenkins 發現該 commit 是 hotfix,立即啟動構建,生成 spark-${ build \# }(如圖中的 spark-73)
    • spark-dev 與 spark-prod 均指向 spark-${ build \# } (如圖中的 spark-73 )

    Continuous Delivery Solution 1 hotfix

    Pros.

    • spark-src.git 與 spark-bin.git 都只有一個分支,維護方便
    • spark-prod 落后于 spark-dev 一周(一個 release),意味著 spark-prod 都成功通過了一周的 Staging 環境測試

    Cons.

    • 使用 spark-prod 與 spark-dev 兩個 symbolic,如果要做灰度發布,需要用戶修改相應路徑,成本較高
    • hotfix 時,引入了過去一周多(最多兩周)未經 Staging 環境中通過 spark-dev 測試的 commit,增加了不確定性,也違背了所有非 hotfix commit 都經過了一個發布周期測試的原則

    方案二:兩分支

    正常流程

    如下圖所示,基于兩分支的 Spark 持續交付方案如下

    • spark-src.gitspark-bin.git 均包含兩個分支,即 dev branch 與 prod branch
    • 所有正常開發都在 spark-src.git/dev 上進行
    • 每周一(如果是 weekly release)從 spark-src.git/dev 打包出一個 release 放進 spark-bin.git/devspark-${ build \# } 文件夾內(如圖中第 2 周上方的的 spark-2 )。它包含了之前所有的提交(commit 1、2、3、4)
    • spark-bin.git/dev 的 spark 作為 symbolic 指向 spark-${ build \# } 文件夾內(如圖中第 2 周上方的的 spark-2)
    • spark-src.git/prod 通過 fast-forward merge 將 spark-src.git/dev 一周前最后一個 commit 及之前的所有 commit 都 merge 過來(如圖中第 2 周需將 commit 1 merge 過來)
    • spark-src.git/prod 打包出一個 release 放進 spark-bin.git/prodspark-${ build \# } 文件夾內(如圖中第 2 周下方的的 spark-1 )
    • spark-bin.git/prod 的 spark 作為 symbolic 指向 spark-${ build \# }

    Continuous Delivery Solution 2

    bug fix

    在 Staging 環境中發現了 dev 版本的 bug 時,修復及集成和交付方案如下

    • spark-src.git/dev上提交一個 commit (如圖中黑色的 commit 9),且 commit message 包含 bugfix 字樣
    • Jenkins 發現該 commit 為 bugfix 后,立即構建,從 spark-src.git/dev 打包生成一個 release 并放進 spark-bin.git/devspark-${ build \# } 文件夾內(如圖中第二周與第三周之間上方的的 spark-3 )
    • spark-bin.git/dev 中的 spark 作為 symbolic 指向 spark-${ build \# }

    Continuous Delivery Solution 2 bugfix

    hot fix

    在生產環境中發現了 prod 版本的 bug 時,修復及集成和交付方案如下

    • spark-src.git/dev 上提交一個 commit(如圖中紅色的 commit 9),且 commit message 包含 hotfix 字樣
    • Jenkins 發現該 commit 為 hotfix 后,立即將 spark-src.git/dev 打包生成 release 并 commit 到 spark-bin.git/devspark-${ build \# } (如圖中上方的 spark-3 )文件夾內。 spark 作為 symbolic 指向該 spark-${ build \# }
    • 通過 cherry-pick 將 commit 9 double commit 到 spark-src.git/prod(如無沖突,則該流程全自動完成,無需人工參與。如發生沖突,通過告警系統通知開發人員手工解決沖突后提交)
    • spark-src.git/prod 打包生成 release 并 commit 到 spark-bin.git/prodspark-${ build \# } (如圖中下方的 spark-3 )文件夾內。spark作為 symbolic 指向該spark-${ build \# }

    Continuous Delivery Solution 2 hotfix

    Pros.

    • 無論是 dev 版還是 prod 版,路徑都是 spark。切換版對用戶透明,無遷移成本
    • 方便灰度發布
    • hotfix 不會引入未經測試的 commit,穩定性更有保障
    • prod 版落后于 dev 版一周(一個 release 周期),即 prod 經過了一個 release 周期的測試,穩定性強

    Cons.

    • hot fix 時,使用 cherry-pick,但 spark-src.git/dev(包含 commit 1、2、3、4、5) 與 spark-src.git/prod(包含 commit 1) 的 base 不一樣,有發生沖突的風險。一旦發生沖突,便需人工介入
    • hot fix 后再從 spark-src.git/dev 合并 commit 到 spark-src.git/prod 時需要使用 rebase 而不能直接 fast-forward merge。而該 rebase 可能再次發生沖突
    • bug fix 修復的是當前 spark-bin.git/dev 的 bug,即圖中的 commit 1、2、3、4 后的 bug,而 bug fix commit 即 commit 9 的 base 是 commit 5,存在一定程度的不一致
    • bug fix 后,第 3 周時,最新的 spark-bin.git/dev 包含了 bug fix,而最新的 spark-bin.git/prod 未包含該 bugfix (它只包含了 commit 2、3、4 而不包含 commit 5、9)。只有到第 4 周,spark-bin.git/prod 才包含該 bugfix。也即 Staging 環境中發現的 bug,需要在一周多(最多兩周)才能在 prod 環境中被修復。換言之,Staging 環境中檢測出的 bug,仍然會繼續出現在下一個生產環境的 release 中
    • spark-src.git/devspark-src.git/prod 中包含的 commit 數一致(因為只允許 fast-forward merge),內容也最終一致。但是 commit 順序不一致,且各 commit 內容也可能不一致。如果維護不當,容易造成兩個分支差別越來越大,不易合并

    方案三:多分支

    正常流程

    如下圖所示,基于多分支的 Spark 持續交付方案如下

    • 正常開發在 spark-src.git/master 上進行
    • 每周一通過 fast-forward merge 將 spark-src.git/master 最新代碼合并到 spark-src.git/dev。如下圖中,第 2 周將 commit 4 及之前所有 commit 合并到 spark-src.git/dev
    • spark-src.git/dev 打包生成 release 并提交到 spark-bin.git/devspark-${ build \# }(如下圖中第 2 周的 spark-2) 文件夾內。spark 作為 symbolic,指向該 spark-${ build \# }
    • 每周一通過 fast-forward merge 將 spark-src.git/master 一周前最后一個 commit 合并到 spark-src.git/prod。如第 3 周合并 commit 4 及之前的 commit
    • 上一步中,如果 commit 4 后緊臨有一個或多個 bugfix commit,均需合并到 spark-src.git/prod 中,因為它們是對 commit 4 進行的 bug fix。后文介紹的 bug fix 流程保證,如果對 commit 4 后發布版本有多個 bug fix,那這多個 bug fix commit 緊密相連,中間不會被正常 commit 分開
    • spark-src.git/prod 打包生成 release 并提交到 spark-bin.git/prodspark-${ build \# }(如下圖中第 2 周的 spark-2) 文件夾內。spark 作為 symbolic,指向該 spark-${ build \# }

    Continuous Delivery Solution 3

    bug fix

    在 Staging 環境中發現了 dev 版本的 bug 時,修復及集成和交付方案如下

    • 如下圖中,第 2 周與第 3 周之間在 Staging 環境中發現 dev 版本的 bug,在 spark-src.git/dev(包含 commit 1、2、3、4) 上提交一個 commit(如圖中黑色的 commit 9),且 commit message 中包含 bugfix 字樣
    • Jenkins 發現該 bugfix 的 commit 后立即執行構建,將 spark-src.git/dev 打包生成 release 并提交到 spark-bin.git/devspark-${ build \# }(如圖中的 spark-3) 文件夾內,spark 作為 symbolic,指向該 spark-${ build \# }
    • 通過 git checkout master 切換到 spark-src.git/master ,再通過 git rebase dev 將 bugfix 的 commit rebase 到 spark-src.git/master,如果 rebase 發生沖突,通過告警通知開發人員人工介入處理沖突
    • 在一個 release 周期內,如發現多個 dev 版本的 bug,都可按上述方式進行 bug fix,且這幾個 bug fix 的 commit 在 spark-src.git/dev 上順序相連。因此它們被 rebase 到 spark-src.git/master 后仍然順序相連

    Continuous Delivery Solution 3 bugfix

    hot fix

    在生產環境中發現了 prod 版本的 bug 時,修復及集成和交付方案如下

    • spark-src.git/prod 中提交一個 commit,且其 commit message 中包含 hotfix 字樣
    • Jenkins 發現該 commit 為 hotfix,立即執行構建,將 spark-src.git/prod 打包生成 release 并提交到 spark-bin.git/prodspark-${ build \# }(如圖中的 spark-3) 文件夾內,spark 作為 symbolic,指向該 spark-${ build \# }
    • 通過 git checkout master 切換到 spark-src.git/master,再通過 git rebase prod 將 hotfix rebase 到 spark-src.git/master
    • 在一個 release 周期內,如發現多個 prod 版本的 bug,都可按上述方式進行 hot fix

    Continuous Delivery Solution 3 hotfix

    灰度發布

    本文介紹的實踐中,不考慮多個版本(經實踐檢驗,多個版本維護成本太高,且一般無必要),只考慮一個 prod 版本,一個 dev 版本

    上文介紹的持續發布中,可將 spark-bin.git/dev 部署至需要使用最新版的環境中(不一定是 Staging 環境,可以是部分生產環境)從而實現 dev 版的部署。將 spark-bin.git/prod 部署至需要使用穩定版的 prod 環境中

    回滾機制

    本文介紹的方法中,所有 release 都放到 spark-${ build \# } 中,由 spark 這一 symbolic 選擇指向具體哪個 release。因此回滾方式比較直觀

    • 對于同一個大版本(dev 或者 prod)的回滾,只需將 spark 指向 build # 較小的 release 即可
    • 如果是將部分環境中的 prod 版遷至 dev 版(或者 dev 版改為 prod 版)后,需要回滾,只需將 dev 改回 prod 版(或者將 prod 版改回 dev 版)即可

    Pros.

    • 正常開發在 spark-src.git/master 上進行,Staging 環境的 bug fix 在 spark-src.git/dev 上進行,生產環境的 hot fix 在 spark-src.git/prod 上進行,清晰明了
    • bug fix 提交時的 code base 與 Staging 環境使用版本的 code 完全一致,從而可保證 bug fix 的正確性
    • bug fix 合并回 spark-src.git/master 時使用 rebase,從而保證了 spark-src.git/devspark-src.git/master 所有 commit 的順序與內容的一致性,進而保證了這兩個 branch 的一致性
    • hot fix 提交時的 code base 與 生產環境使用版本的 code 完全一致,從而可保證 hot fix 的正確性
    • hot fix 合并回 spark-src.git/master 時使用 rebase,從而保證了 spark-src.git/devspark-src.git/master 所有 commit 的順序性及內容的一致性,進而保證了這兩個 branch 的一致性
    • 開發人員只需要專注于新 feature 的開發,bug fix 的提交,與 hot fix 的提交。所有的版本維護工作全部自動完成。只有當 bug fix 或 hot fix rebase 回 spark-src.git/master 發生沖突時才需人工介入
    • spark-bin.git/devspark-bin.git/prod 將開發版本與生產版本分開,方便獨立部署。而其路徑統一,方便版本切換與灰度發布

    Cons.

    • 在本地 spark-src.git/master 提交時,須先 rebase 遠程分支,而不應直接使用 merge。在本方案中,這不僅是最佳實踐,還是硬性要求
    • 雖然 bug fix 與 hot fix commit 都通過 rebase 進入 spark-src.git/master。但發生沖突時,需要相應修改 spark-src.git/master 上后續 commit。如上圖中,提交紅色 commit 9 這一 hot fix 后,在 rebase 回 spark-src.git/master 時,如有沖突,可能需要修改 commit 2 或者 commit 3、4、5。該修改會造成本地解決完沖突后的版本與遠程版本沖突,需要強制 push 回遠程分支。該操作存在一定風險

    Spark CD 持續部署

    持續部署是指,軟件通過評審后,自動部署到生產環境中
    Continuous Deploy

    上述 Spark 持續發布實踐的介紹都只到 “將 *** 提交到 spark-bin.git“ 結束。可使用基于 git 的部署(為了性能和擴展性,一般不直接在待部署機器上使用 git pull –rebase,而是使用自研的上線方案,此處不展開)將該 release 上線到 Staging 環境或生產環境

    該自動上線過程即是 Spark 持續部署的最后一環

    Spark 系列文章

    郭俊 Jason wechat
    歡迎關注作者微信公眾號【大數據架構】
    您的贊賞將支持作者繼續原創分享
    速赢彩app 迪庆 | 安岳 | 宁波 | 山东青岛 | 宁国 | 东营 | 岳阳 | 陕西西安 | 贵州贵阳 | 淮安 | 溧阳 | 马鞍山 | 阳江 | 黄南 | 灌南 | 鞍山 | 招远 | 揭阳 | 承德 | 铜仁 | 河南郑州 | 丽江 | 林芝 | 台湾台湾 | 建湖 | 梅州 | 焦作 | 贵州贵阳 | 常州 | 梧州 | 松原 | 萍乡 | 台湾台湾 | 保山 | 兴安盟 | 防城港 | 喀什 | 江门 | 资阳 | 武夷山 | 大同 | 澳门澳门 | 如东 | 福建福州 | 福建福州 | 鹤壁 | 柳州 | 遵义 | 德清 | 厦门 | 余姚 | 泰兴 | 临猗 | 济宁 | 焦作 | 包头 | 大庆 | 吉林 | 迪庆 | 醴陵 | 巴彦淖尔市 | 荆门 | 霍邱 | 姜堰 | 阿拉善盟 | 新泰 | 恩施 | 郴州 | 宁德 | 资阳 | 吴忠 | 镇江 | 柳州 | 云南昆明 | 宿迁 | 七台河 | 青州 | 辽宁沈阳 | 鄂州 | 抚顺 | 贵港 | 双鸭山 | 甘肃兰州 | 昭通 | 邯郸 | 阿勒泰 | 济南 | 马鞍山 | 平凉 | 无锡 | 丽水 | 塔城 | 乐山 | 瓦房店 | 郴州 | 青州 | 神农架 | 济南 | 荆门 | 昌都 | 甘南 | 连云港 | 赣州 | 丹东 | 江门 | 云浮 | 临沂 | 乌兰察布 | 绍兴 | 大庆 | 台山 | 包头 | 文山 |