当前模板已根据「实时计算开发工程师」岗位深度优化
选择其他岗位
开始编辑模板后,您可以进一步自定义包括:工作履历、工作内容、信息模块、颜色配置等
内置经深度优化的履历,将为你撰写个人简历带来更多灵感。
陆明哲
责任心不是口号,而是渗透在每个工作细节中的行动准则。
28岁
3年工作经验
13800138000
DB@zjengine.com
陆明哲的照片
求职意向
实时计算开发工程师
杭州
薪资面谈
一个月内到岗
工作经历
2024.07 - 至今
小楷电商科技
高级实时计算开发工程师

负责公司电商大促及日常场景下的实时数据处理系统全生命周期管理,覆盖用户行为分析、实时风控决策、GMV实时看板三大核心链路,主导从需求拆解到上线运维的技术落地,保障数据流端到端延迟≤200ms、日均处理量超50亿条的稳定性。

  • 主导设计实时数仓三层架构(ODS→DWD→DWS),基于Flink 1.17+SQL完成用户点击-加购-下单全链路事件流的标准化处理;针对大促期间Kafka消息乱序导致的窗口计算偏差问题,引入Watermark动态调整策略(允许5s延迟+1s乱序),结合事件时间分区键优化,将订单归因准确率从92%提升至98.6%,支撑双11期间实时GMV看板的精准性。
  • 牵头优化实时风控规则引擎的数据供给链路,通过Flink CEP(复杂事件处理)实现跨3个数据源(用户设备信息、交易流水、IP黑库)的多维度关联计算;针对传统规则匹配延迟高(平均800ms)的痛点,设计状态缓存复用方案(减少30%重复状态存储)与异步IO调用外部风控库,将单条风险事件处理耗时压缩至150ms内,支撑大促期间每秒10万+风险事件的实时拦截。
  • 构建实时数据质量监控体系,基于Flink Metrics扩展自定义指标(如消息积压量、窗口触发超时次数),集成Prometheus+Grafana实现分钟级告警;通过分析历史故障数据,定位到Kafka消费者拉取速率不均衡问题,优化分区分配策略(采用粘性分区+动态重平衡),将任务重启频率从每周2次降至每月0.5次,保障核心链路SLA≥99.95%。
  • 推动实时计算资源效能提升,基于YARN队列动态扩缩容机制,结合业务峰谷特征(如早8点/晚8点流量波峰)设计弹性调度策略;在大促预热期将Flink作业并行度从32调整至64,同时利用Spot实例降低成本,整体资源利用率提升40%,大促期间计算成本同比下降28%。
2022.03 - 2024.06
小楷生活服务
实时计算开发工程师

聚焦本地生活场景的实时数据处理需求,负责外卖订单履约时效监控、骑手调度实时决策、商家实时营收统计三大模块的开发与维护,支撑日均8000万+订单流的实时处理,保障关键指标延迟≤500ms。

  • 从0到1搭建外卖订单超时预警系统,基于Flink DataStream API实现订单接单-取餐-配送全流程事件的时间窗口聚合;针对早期Kafka消息堆积导致延迟飙升问题,优化消费者参数(fetch.min.bytes提升至1MB+max.poll.records调整至500),并结合背压监控动态调整并行度,将订单处理延迟稳定控制在300ms内,支撑运营团队实时干预超时订单。
  • 参与骑手实时调度系统的特征工程开发,从Kafka实时流中提取骑手位置、当前单量、商家出餐速度等12维特征,通过Flink Window Join关联历史轨迹数据,为调度算法提供秒级更新的特征输入;优化特征存储方式(改用RocksDB状态后端替代内存存储),将特征更新延迟从2s降低至500ms,助力骑手接单效率提升15%。
  • 优化商家实时营收统计的准确性,解决跨门店分账、优惠叠加导致的计算误差问题;引入Flink状态TTL机制清理过期订单数据(设置7天过期策略),结合窗口预聚合(每5秒输出一次中间结果)与最终一致性校验,将营收数据修正率从0.8%降至0.1%,满足财务对账的实时性要求。
  • 主导实时计算任务的大版本升级,将原有Spark Streaming任务迁移至Flink,同步完成代码重构(适配事件时间语义)与性能压测;通过对比测试发现Flink在反压处理上的优势(背压传播延迟降低60%),迁移后任务资源占用减少35%,同时支持了更高并发的订单流(从5000TPS提升至1.2万TPS)。
2020.07 - 2022.02
小楷金融科技
实时计算开发实习生/初级工程师

协助完成金融交易反欺诈系统的实时数据处理模块开发,参与用户交易行为的实时特征计算与风险规则匹配,保障日均200万+交易流的低延迟处理(≤1s)。

  • 参与反欺诈规则引擎的实时数据管道建设,基于Flink SQL完成银行卡交易流与用户设备指纹库的关联计算,通过Lookup Join实现每秒5000+次的外部数据查询,将单笔交易的特征计算耗时从800ms缩短至300ms,支撑风控规则引擎的实时决策。
  • 优化交易数据清洗逻辑,解决原始日志中字段缺失、格式错误导致的下游任务失败问题;设计Flink MapFunction+正则表达式校验的组合方案,对10类常见异常数据进行清洗(如手机号格式、金额精度),将数据质量问题导致的任务重启次数从每日3次降至每周0.5次。
  • 协助搭建实时交易监控看板,基于Flink ProcessFunction统计5分钟内交易频次、地域分布等指标,通过Redis缓存热点数据,实现前端页面的秒级刷新;上线后运营团队对异常交易的响应时间从5分钟缩短至30秒,有效降低了资金损失风险。
项目经验
2022.03 - 2023.08
星途互动科技有限公司
大数据开发负责人

星途社区用户行为实时分析平台研发

  • 项目背景:星途社区作为千万级UGC内容平台,原有离线用户行为分析系统存在T+1延迟,无法支撑运营团队对用户互动、转化的实时洞察;核心目标是搭建秒级延迟的全链路用户行为实时分析平台,覆盖注册、浏览、互动到转化的全生命周期追踪与多维度聚合。
  • 解决的关键难题:一是高并发下实时数据链路吞吐瓶颈(原Kafka集群峰值仅10万条/秒);二是多维度(用户属性、场景、行为类型)实时聚合性能不足(原Spark Streaming延迟超3分钟);三是跨组件的exactly-once数据一致性保障(易出现重复或丢失)。
  • 核心行动与创新:主导设计“三层实时数据架构”(原始事件层Kafka→明细清洗层Flink→聚合存储层ClickHouse),按“用户ID+行为类型+时间戳”分区提升查询效率;用Flink RocksDB状态后端预计算常用维度(小时级活跃、场景转化率),将聚合延迟降至10秒内;基于Flink Checkpoint+Redis幂等表实现数据幂等,重复率降至0.01%以下。
  • 成果与价值:平台上线后吞吐量提升至100万条/秒,支撑大促期间运营实时调整策略(如用户3分钟未互动推送福利),转化率提升25%;日均处理80亿+事件,覆盖90%实时业务场景;个人攻克高并发与一致性难题,奠定公司实时数仓技术基础。
2020.06 - 2022.02
星途互动科技有限公司
大数据开发工程师

电商直播观众留存实时预测与干预系统

  • 项目背景:电商直播业务30日留存仅40%,原有离线留存模型(T+1更新)无法实时识别高流失观众并干预;目标是搭建实时预测与干预系统,实现行为实时特征计算、留存概率预测及精准触达。
  • 解决的关键难题:一是实时特征时效性不足(原批处理需小时级更新);二是在线推理延迟高(XGBoost模型超500ms,无法支撑1秒内响应);三是线上线下特征不一致导致模型效果下降。
  • 核心行动与创新:设计“实时特征pipeline”,用Flink计算“过去5分钟互动次数”“当前会话停留时长”等特征,存入Redis供模型调用,更新延迟降至2秒内;将模型替换为LightGBM(推理速度提升3倍),通过TensorFlow Serving部署,在线响应控制在200ms内;建立特征一致性机制,离线复用实时schema,模型准确率稳定在85%以上。
  • 成果与价值:留存预测准确率从70%升至85%,高流失观众干预率从10%提至50%;观众平均留存时间延长30分钟,单场GMV增长20%;个人打通实时特征到业务干预闭环,支撑直播“千人千面”策略,成为业务核心增长工具。
自我评价
  • 懂实时计算的本质是用低延迟数据驱动业务决策——深耕流处理生态,支撑过推荐、监控核心场景,始终锚定“技术为业务结果负责”。
  • 擅长拆解高QPS实时系统稳定性问题,形成“预判-演练-兜底”方法论,故障时优先止损再溯源,最小化业务影响。
  • 能将电商大促、直播舆情等场景抽象为可扩展流模型,不沉迷细节,更关注数据与业务目标的强关联。
  • 习惯定期性能压测与成本复盘,曾调并行度降延迟至300ms,同时省30%资源——主动优化是我的技术惯性。
兴趣爱好
摄影
看书
阅读
跑步
试一下,换个颜色
选择配色
使用此模板创建简历
  • 支持电脑端、微信小程序编辑简历
  • 支持一键更换模板,自由调整字距行距
  • 支持微信分享简历给好友查看
  • 支持简历封面、自荐信、自定义简历模块
  • 支持导出为PDF、图片、在线打印、云端保存
该简历模板已内置
  • 个人名称
  • 头像
  • 基本信息
  • 求职意向
  • 工作经历
  • 项目经验
  • 实习经验
  • 作品展示
  • 奖项荣誉
  • 校园经历
  • 教育背景
  • 兴趣爱好
  • 技能特长
  • 语言能力
  • 自我评价
  • 报考信息
  • 简历封面
  • 自荐信
对话框
提示
说明