《熊愛國-ACS原生云建設之路.pdf》由會員分享,可在線閱讀,更多相關《熊愛國-ACS原生云建設之路.pdf(26頁珍藏版)》請在三個皮匠報告上搜索。
1、ACS原生云建設之路熊愛國 資深IT工程師招商銀行總行信息技術部原生云服務團隊 主管云建設背景和選型云建設歷程和現狀問題和風險經驗和趨勢云建設背景和選型背景和選型為什么上云傳統主機系統和傳統開放系統的挑戰為什么是原生云和全棧云原生云和全棧云的優勢為什么是多云和混合云多云架構的優勢infraserviceapp背景和選型云計算新IT變革的決定性力量招行需要一個先進的私有云來重構科技體系,實現科技的扁平、開放、共享和敏捷,并支撐全行業務更加融合互通以及快速發展。2015年招行組織前往美國硅谷做云計算專題考察背景和選型傳統主機系統傳統開放系統挑戰挑戰IBM z390主機COBOL語言IBM AS40
2、0主機RPG語言HP Tandem主機COBOL85/TAL/TACLIBM RS6000VMWARE/VSANEMC/NETAPPIBM DB2/WAS/MQ難以橫向擴展與主流技術脫節生態封閉參與者少資源割裂敏捷和彈性差技術棧繁雜應用架構散亂為什么上云傳統技術架構成為了進一步創新發展的瓶頸頭部廠商引領到開源社區引領外包外購到自主可控兩個重要洞察背景和選型原生云(Cloud Native)全棧云(Full Stack)在云的發展過程中,原生云作為一個概念被提出由來已久,它要求云在技術架構、組織、流程和工具等各方面均應具備先進的特性,以AWS為首的領先公有云正是原生云的最佳實踐。在面向用戶場景方
3、面,構建以滿足技術人員云原生應用開發、云服務開發、應用和服務部署以及業務人員使用云場景的全棧功能云,而非實現局部IaaS云或PaaS云。為什么是原生云和全棧云infraserviceapp背景和選型多云(Multi Cloud)混合云(Hybrid Cloud)BiModalBiModalIT IT 雙模IT 以標準和穩態為主的傳統架構;以云原生為主的云架構。云的理念和架構經受考驗后,穩態業務也可以上云。多云=穩態云+敏態云。85%的企業采用multicloud?!癕ulticloud:reality,not a strategy”官方定義:混合云=公有云+私有云我們的理解:跨多云的統一云平臺
4、-高可用-安全異構-避免鎖定-安可信創為什么是多云和混合云招行私有云特征面向金融核心交易的金融云面向通用敏捷應用的原生云云開兩朵使用通用x86技術棧的通用區使用國產信創技術棧的信創區一云雙棧在通用區,使用x86芯片在信創區,使用多種信創芯片一云多芯堅持開放,全面向云原生轉型:容器化,微服務架構,DevOps,Serverless,IaC等Open&Cloud Native歷程和現狀歷程和現狀2017年,ACS首個Lab實驗室在西麗建成,驗證了ACS路線可行性。ACS 0.12018年,基于WS2016,建成分行云,通過服務分行,探索上云路徑。ACS 1.02019年,升級2.0,基于WS201
5、9,建成ACS同城3AZ,分行云進化為ACS。分行云退出歷史舞臺,啟動應用上云。ACS 2.02022年,基于WS2022升級3.0,實現ACS全行一朵云,建成大規模的先進私有云。招行全面上云。與騰訊云合作的原生云信創區完成建設,正式投產。兩個技術棧全面支持IPv6+IPv4。ACS 2.1ACS技術底座初期以通用技術棧為主,目前演進到雙棧:ACS 1.0成型于2018年,基于WS2016ACS 2.0成型于2019年,基于WS2019ACS 3.0成型于2022年,包含WS2022和TCE3100隨著技術底座的不斷升級迭代,持續提升ACS的先進性和可用性。ACS 3.02020年,ACS建成
6、兩地七中心高可用架構,ACS私有云體系建成,升級WS版本,優化ACS性能。服務全行50%應用上云。啟動三年上云工程。ACS IaaS平臺發展歷程歷程和現狀ACS PaaS平臺建設歷程1.啟動PaaS平臺技術研究和建設試點20141.基于PCF的PaaS 1.0容器平臺投產落地2.第一批試點應用完成改造投產1.PaaS 1.0容器平臺形成異地雙活部署架構2.傳統應用改造遷移,擴大試點范圍1.PCF重要版本升級及部署架構優化,提升平臺穩定性2.k8s+docker容器技術選型驗證1.OCP3適配ACS原生云IaaS,定稿PaaS 3.0容器平臺方案,落地投產環研發Region,Region內形成B
7、IZ 3 AZ多活,DMZ 2AZ多活的高可用部署架構2.開始引導應用往PaaS 3.0容器平臺改造投產,包含傳統應用,PaaS 1.0和PaaS 2.0容器平臺上的應用1.PaaS 3.0容器平臺落地投產上海環張江Region,Region內形成BIZ 2 AZ,DMZ 2 AZ多活的高可用部署架構2.PaaS 3.0容器平臺支持應用異地雙Region雙活/災備部署架構3.PaaS 1.0容器平臺全量應用完成遷出4.信息技術部三年上云重大專項開始,PaaS 3.0作為主力承載平臺,承接應用容器化上云的運行需求1.PaaS 3.0容器平臺落地投產深圳環平湖Region,Region內形成BIZ
8、 3 AZ,DMZ 2 AZ多活的高可用部署架構2.PaaS 3.0技術方案版本升級,新建ACS容器集群采用OCP4版本3.PaaS 1.0容器平臺環境正式下線4.完成ACS信創區容器平臺技術選型驗證和部署方案定稿1.完成OCP3技術選型,基于Vmware投產落地PaaS 2.0容器平臺,形成深圳+上海的異地雙活部署架構,試點應用改造投產2.開始引導應用往PaaS 2.0容器平臺改造投產,包含傳統應用和PaaS 1.0容器平臺上的應用1.完成PaaS 2.0容器平臺應用全量遷移至PaaS 3.0容器平臺,PaaS 2.0正式下線2.ACS信創區容器平臺TKE投產落地,在平湖Region形成本地
9、BIZ 2 AZ,DMZ 2 AZ的高可用部署架構,開始試點應用改造投產3.基于自研的PaaS 4.0容器平臺技術體系構建開始,落地自研traefik ingress,自研cmbk8s4.容器平臺分級分類方案制定,開始在準生產環境實施集群建設和應用遷移5.信息技術部三年上云重大專項成功驗收,實現應用100%上云20152016201720182019202020212022歷程和現狀2019.52020.122021.122022.9首個分行應用上云首個總行應用上云700+個系統完成上云1500+個系統完成上云所有總分行系統完成上云2018.9應用上云歷程包括服務億級客戶的手機銀行在內,三年共
10、完成總分行2200+套應用系統上云上云試點階段全面上云階段歷程和現狀 2022年整體可用性達到99.995+%,在同業中屬于領先地位。應用上云率、容器化程度、微服務能力在行業處于領先地位。榮獲 IDC 2023 亞洲(銀行業)基礎設施現代化領航者(中國);人行金融信創優秀案例。歷程和現狀發展趨勢的總結單技術棧(通用區)雙技術棧(通用區+信創區)單網絡棧(IPv4)雙網絡棧(IPv4+IPv6)分行試點上云總分行全面上云穩中求進小步快跑安全合規應用容器/微服務化原生云服務改造有的放矢問題和風險問題和風險1安全的問題DMZ/BIZ兩地三中心安全合規2網絡的問題延時丟包容量瓶頸傳輸瓶頸3體驗的問題租
11、戶體系責任共擔模型自服務模式4運維運營的問題運維的側重運營的側重5業務連續性AZ隔離和切換發現-定界-隔離三板斧建設混沌工程 等6上云的問題流量調度灰度發布混合部署遷移搬遷統一日志鏈路追蹤信創替代 等經驗和趨勢經驗和趨勢1.頂層設計在云建設中至關重要構建企業級云能力框架保證云使能的建設原則在探索中交付,在發展中完善錨定業務場景規劃總體架構經驗和趨勢2.集中力量打磨云平臺關鍵組件通過平臺化,服務化屏蔽基礎設施復雜性,持續改進服務質量幾個重要的工具平臺:云管理平臺(CMP)cmbagent云運維平臺(COP)一體化監控和事件平臺(先知)云管理平臺云運維平臺CMDBCMBAgent監控平臺用戶側運維
12、側公共能力經驗和趨勢3.發揮云基礎設施敏捷彈性的優勢層層支撐,最終賦能業務能伸能縮,減少資源浪費基礎設施計算存儲分離架構;可擴展的軟件定義網絡PaaS服務業務不中斷前提下的動態擴縮容能力應用標準應用架構、應用分類分級IaaS服務資源快速交付能力、高交付成功率經驗和趨勢4.活著是第一要務,恢復業務是第一優先 解耦的可用性才是可管理的可用性 多管齊下提升容量性能灰度升級保證服務不中斷多層次的保障體系PaaS層高可用應用層高可用IaaS層高可用資源池容量管理多容錯域管理基礎設施的快速故障隔離Region級云服務AZ級切換能力應用分類分級多AZ部署可用性分層原理性能容量整體把控經驗和趨勢5.開放才能有
13、未來一云雙棧,一云多芯信創PaaS通過通用區與信創區的雙?;觳拷Y構,滿足下述需求:應用支撐能力(業務需求);獨立自主(監管要求);成本(可持續性);ACS 雙棧架構特點:x86與c86同源,代碼復用,節省研發投入;前端流量靈活調度能力,實現平穩過渡;先以信創應用試點,后逐步推廣;統一流量調度(4、7層)部署于通用區應用部署于信創區應用流水線發布:x86、c86通用代碼信創數據庫服務通用PaaS經驗和趨勢6.緊追前沿技術,分享技術紅利On Cloud云開發范式云原生架構轉型持續演進全場景覆蓋數字化向智能化In Cloud向云而行可能是KPI導向因云而生云原生模式下的自發驅動Thanks開放運維聯盟高效運維社區DevOps 時代榮譽出品