清晨的yAn光刚漫进团队临时办公的教室,一凡就抱着一叠资料走进来,shen後跟着周明和技术Ai好者小林——桌上摊着的,除了“城市架构图”,还有一张单醒目的红sE报表,上面标注着“12月15日成大订单峰值:1200单醒目的红sE,服务qi负载率,卡顿18分钟”。
「上次成大因为实验室赶项目,突然爆了一波夜宵订单,直接把咱们的服务qib到卡顿,要是开春进台中,情况只会更复杂。」一凡敲了敲报表上的红sE数字,「台中是中bu大市场,高校密集,光逢甲、东海、静这几所小时''''的情况,现在的架构和服务qi,gen本扛不住。
一、ruanT架构:拆“单城一锅端”,建造“分区防火墙”,防住峰值扩散
周明立刻打开电脑,调出成大订单卡顿当天的後台日志:“那天成大1200单的峰值,直接占了全平台订单量的60%,但因为咱们是''''全区域统一後台'''',成大的订单拥堵直接拖慢了台南、屏东的订单chu1理,甚至有屏东的学生反馈''''
「所以第一步,必须把单城一锅端的架构,改成城市分区模组。」一凡指着架构图上的「台南、屏东、台中」三个分区,「每座城市设一个子後台'''',像给每座城市装''''防火墙——台中订单暴增时,只占用台中子後台的资源,不会影响台南、屏东的正常运转;成大再出峰值,也只会在台南子後台内bu消化,不会扩散到其他区域。
小林补充说:「还得给每个子後台加''''动态阈值预警''''!b如台中子後台预设''''订单超1500单/小时''''就chu2发预警,系统自动推送消息给咱们,还能临时调pei备用资源;像上次成大那样''''毫无徵兆的峰值'''',以後不会忙咱们至少不会忙起来10分钟。
几人很快就定了落地细节:两周内先完成台南、屏东的子後台拆分,重点优化成大所在的台南子後台“峰值承载能力”;3月底前搭好台中子後台,预设“高校集中区域如逢甲商圈订单优先chu1理”的规则,避免中bu大市场上线即卡顿。
二、yT服务qi:从“单一y扛”到“三节点备份 动态扩充”,接住暴增订单
聊完架构,话题直指he心的伺服qi问题。周明点开伺服qi监控页面,上面还留着成大峰值当天的曲线:「现在咱们只有一台云服务qi,平时负载率60%看着没问题,但遇到成大1200单的峰值,直接冲到92%,CPU占用率拉满,才导致卡顿。要是台中上线服务qi遇到2000单的峰值,这台服务qi肯定。
「必须彻底放弃'