负责公司核心交易平台(覆盖日活500万+用户的订单、支付、库存链路)的架构设计与性能优化,主导高并发场景下技术方案落地,保障系统99.99%可用性,推动跨团队技术协作与规范沉淀。
- 针对大促期间订单创建接口QPS峰值从8万突增至25万的挑战,主导完成交易链路全链路压测与瓶颈定位:通过Arthas诊断发现MySQL慢查询占比35%,结合业务场景将热点商品库存扣减从行锁改为Redis分布式锁+本地Lua脚本校验,同时拆分订单主表为订单头表(存储基础信息)与订单明细表(存储SKU详情),配合ShardingSphere实现动态分库分表(按用户ID取模分16库),最终接口RT从180ms降至45ms,大促期间系统零宕机,订单成功率稳定在99.995%。
- 牵头设计跨业务线的统一支付中台,整合原各业务线独立支付模块(涵盖微信/支付宝/钱包等6种支付方式):基于Spring Cloud Alibaba重构服务治理体系,引入Sentinel实现支付流量分层限流(核心支付接口阈值设置为QPS 10万),通过RocketMQ事务消息保障支付状态与订单状态的一致性(消息投递成功率99.999%),上线后支付链路代码冗余度降低60%,新业务接入支付功能开发周期从7天缩短至2天。
- 推动团队技术规范升级,主导编写《高并发交易系统设计手册》与《分布式事务最佳实践指南》:结合Seata TCC模式在库存中心的应用案例(解决超卖问题成功率99.99%),沉淀出“业务场景-事务模式匹配矩阵”,覆盖秒杀、预售等8类高频场景;同步引入SonarQube进行代码质量门禁(圈复杂度阈值≤15,重复率≤3%),团队代码缺陷率下降45%。
- 优化分布式缓存体系,解决大促期间Redis热点Key击穿问题:针对爆款商品库存查询场景,采用“本地Caffeine缓存+Redis二级缓存”双写策略,设置本地缓存过期时间为500ms(动态调整),配合Redis Cluster的Hash槽位分散热点Key,热点Key查询成功率从92%提升至99.9%,缓存集群CPU利用率从85%降至60%。