负责电商平台商品视觉算法全链路研发,覆盖图像理解、跨模态匹配及端侧部署,支撑商品搜索、虚拟试穿、智能推荐三大核心场景,推动视觉能力与业务增长深度耦合。
- 主导设计「多模态商品表征模型」,针对传统CLIP模型对服饰纹理、材质等细粒度特征捕捉不足的问题,基于Vision Transformer改进注意力机制,引入跨尺度特征融合模块,结合电商商品库(含2000万+商品图)进行对比学习训练。通过难例挖掘策略(筛选标注置信度<0.7的样本)优化数据分布,解决小样本品类(如汉服配饰)特征稀疏问题。模型上线后,商品搜索点击率提升8%,跨类目推荐转化率提升5%,获当季技术突破奖。
- 牵头优化虚拟试穿算法实时性,针对移动端算力限制,基于MobileNetV3 backbone设计轻量级3D人体姿态估计模型,融合知识蒸馏技术(教师模型为HRNet-W48)压缩参数量至8.2M。联合前端团队解决端侧内存溢出问题,最终实现推理耗时从120ms降至45ms(骁龙8Gen2芯片),支撑「AR试衣间」功能在APP核心入口上线,用户日均使用次数达7.2次,留存率较旧版提升12%。
- 构建商品图像跨域适配体系,应对商家上传图片的光照、视角差异问题。基于CycleGAN设计风格迁移模块,结合域对抗损失约束,将非标准输入图像映射至统一视觉空间;同步开发在线增量学习框架,每周自动收录用户反馈的「模糊/变形」样本进行模型微调。方案落地后,商品详情页自动化生成的素材合格率从78%提升至94%,减少人工修图成本约40万元/月。
- 推动视觉算法与推荐系统深度融合,设计「图像-行为」双模态特征交叉模块。基于XGBoost融合商品视觉特征(如色彩饱和度、主体占比)与用户行为特征(点击/加购序列),优化推荐排序模型。A/B测试显示,实验组人均PV提升11%,高价值商品(客单价>500元)曝光占比增加7%,季度内带动GMV增量超2000万元。