负责电商平台核心交易链路(订单中心/支付中心)的架构设计与性能优化,保障大促期间亿级流量下的系统高可用,推动微服务治理与分布式技术落地
- 主导订单中心微服务架构升级:基于Spring Cloud Alibaba重构原单体架构,拆分为订单主服务、库存预占服务、物流对接服务,引入Sentinel实现全链路流量控制(QPS峰值限制2.5万),结合Seata TCC模式解决跨服务的分布式事务一致性,大促期间订单创建成功率从99.2%提升至99.9%,事务回滚耗时降低40%
- 优化支付链路高并发处理能力:针对支付回调接口的流量洪峰(峰值1.8万/秒),设计RocketMQ异步解耦方案,将同步回调改为消息通知+状态机轮询,配合本地Caffeine缓存存储支付状态,QPS承载能力从8000提升至2万,接口平均响应时间从500ms压缩至150ms
- 推动数据库分库分表落地:使用ShardingSphere对订单表按用户ID哈希分片(16库32表),解决单库5000万+数据量的查询瓶颈,结合覆盖索引优化(新增user_id+create_time联合索引),订单详情查询耗时从800ms降至200ms以内,慢SQL占比从12%降至1%
- 搭建全链路压测体系:基于Jmeter+Skywalking模拟双11真实流量场景,发现订单状态机状态流转死锁、Redis热点Key竞争等12个潜在问题,通过调整状态机并行度、Redis Cluster分片优化,大促期间系统连续3年零故障运行