当前模板已根据「数据仓库开发工程师」岗位深度优化
选择其他岗位
开始编辑模板后,您可以进一步自定义包括:工作履历、工作内容、信息模块、颜色配置等
内置经深度优化的履历,将为你撰写个人简历带来更多灵感。
陆明哲
昨天的经验是今天的基石,而今天的突破将成为明天的标准。
28岁
3年工作经验
13800138000
DB@zjengine.com
陆明哲的照片
求职意向
数据仓库开发工程师
宁波
薪资面谈
到岗时间另议
工作经历
2023.03 - 至今
小楷云科技有限公司
数据平台架构师
  • 作为技术负责人,主导设计了公司新一代“云原生数据中台”的架构,基于Data Mesh理念进行领域驱动设计(DDD),将原有的集中式数仓重构为“统一中心化治理+分布式领域数据产品”的混合模式,成功解决了超大规模(PB级)数据下的研发效率瓶颈,数据需求平均交付周期从“月”缩短至“周”。
  • 通过设计“一体化数据开发与治理平台”,无缝集成数据集成、开发、测试、部署和运维,提供“SQL + Spark + DAG”混合编辑模式,并内置“数据血缘、数据质量、成本治理”能力,将数据开发的效率提升40%,同时将因数据质量问题导致的业务投诉降低了90%。
  • 带领团队攻克了“万亿级数据下的查询性能”难题,通过深度优化ClickHouse和StarRocks的集群部署、数据模型和查询语法,使即席查询(Ad-Hoc)的P95延迟稳定在秒级,赋能业务人员实现真正的数据自助分析。
  • 在此期间建立“数据资产运营”体系,通过数据地图、资产评分、热度分析等功能,将数据作为产品进行运营,使数据资产的可发现性和复用率提升了60%,直接推动了数据驱动的文化转型。
2021.08 - 2023.02
小楷云科技有限公司
高级数据仓库开发工程师
  • 负责公司最核心的“电商交易数据域”的模型设计与开发,基于Kimball维度建模理论,构建了覆盖“用户、商品、交易、营销”等主题的enterprise data warehouse (EDW),其稳定性和准确性成为公司所有关键报表和决策的唯一可信数据源。
  • 研发实现了“增量-全量一体化”数据处理框架,完美平衡了数据处理性能和复杂度,保障了T+1数据的高效产出,任务调度成功率高达99.99%。
  • 深入Hive & Spark性能调优,通过优化数据倾斜、小文件合并、计算参数调整,将核心ETL作业的执行时间缩短了50%,年节省计算成本超百万元。
项目经验
2022.03 - 2023.08
星途互动科技有限公司
大数据开发负责人

星途直播平台实时用户行为分析系统重构与性能优化

  • 项目背景:直播业务进入精细化运营阶段,原有离线Hadoop MapReduce架构的实时用户行为分析系统存在严重延迟(平均2小时),无法支撑运营团队对直播间热度、礼物转化、用户流失的分钟级决策需求。核心目标是将系统升级为流批一体的实时数仓,将关键指标延迟降至10秒内,同时支撑日均1亿条用户行为数据的处理。我在项目中主导技术方案设计、跨部门需求对齐及全链路落地。
  • 关键难题:1)原有烟囱式架构导致数据重复计算,资源浪费率达40%;2)Kafka分区策略固定,高峰期单分区吞吐量超上限引发热点;3)实时聚合查询依赖全表扫描,95%的ad-hoc查询响应时间超过30秒;4)Flink任务频繁因状态过大导致Checkpoint失败,稳定性不足。
  • 核心行动与创新:1)架构升级:采用Kappa架构整合Flink 1.17做实时计算、Apache Hudi 0.12做实时数据湖存储,实现“实时写入-增量计算-实时查询”流批一体链路;2)Kafka优化:基于主播粉丝量、礼物热度的动态分区算法,将分区数从32个扩展至64个,并自定义分区器分散热点数据;3)查询加速:构建“Hudi实时表+Flink SQL预聚合+Apache Druid二级索引”的双层架构,预计算12个核心指标(如实时在线人数、礼物转化率),将查询响应时间压缩至5秒内;4)稳定性保障:引入Flink增量Checkpoint、状态TTL清理机制,结合YARN Capacity Scheduler做任务队列隔离,将任务失败率从8%降至0.5%。
  • 项目成果:1)实时数据延迟从2小时降至5秒内,95%指标延迟<10秒,支撑大促期间单日10万场直播的实时运营;2)系统吞吐量从每小时100万条提升至1.2亿条,资源成本下降35%;3)运营团队决策效率提升70%,活动期间礼物策略调整从小时级缩短至分钟级,带动直播间ARPU提升18%;4)主导输出《直播实时数仓技术规范》,成为公司同类项目的技术标准,个人晋升为大数据开发负责人。
2020.06 - 2022.02
星途互动科技有限公司
大数据开发工程师

电商用户生命周期数据中台建设

  • 项目背景:公司电商业务用户数据分散在CRM、订单、行为日志等10+系统,缺乏统一的用户标签体系和生命周期管理,精准营销转化率仅3%。核心目标是搭建用户生命周期数据中台,整合多源数据生成300+用户标签,支撑运营团队对“拉新-促活-留存-转化”全链路的精准触达。我在项目中负责数据采集、ETL整合、标签计算及平台对接。
  • 关键难题:1)多源数据schema不一致,比如CRM用户属性为MySQL宽表,订单数据为Oracle事务表,行为日志为JSON半结构化数据;2)标签计算时效性差,如“最近30天复购率”需T+1更新,无法支撑实时营销;3)标签准确性低,因缺乏一致性校验,部分标签错误率超20%;4)隐私数据安全风险,用户手机号、地址等信息未加密存储。
  • 核心行动与创新:1)数据整合:用Flume采集行为日志、Sqoop同步关系型数据库,通过Spark ETL清洗转换,建立统一用户宽表(包含用户ID、消费金额、浏览时长等50+字段),采用星型模型优化查询性能;2)标签体系设计:基于RFM模型(最近消费、消费频率、消费金额)和行为特征(收藏、加购、分享),开发批量标签(如“高价值用户”)与实时标签(如“最近7天登录用户”),用Flink实现标签分钟级更新;3)质量管控:引入数据校验规则引擎(Great Expectations),对标签字段做唯一性、完整性、一致性检查,将错误率降至3%以内;4)安全合规:用AES-256加密用户隐私字段,结合Apache Ranger做权限分级,实现“看数据不碰数据”的安全访问。
  • 项目成果:1)整合10+数据源的2PB用户数据,建立公司首个统一用户数据仓库;2)生成320个用户标签,标签准确率从70%提升至95%,覆盖90%的运营场景;3)精准营销转化率提升45%,营销成本下降28%,支撑“双11”期间新用户留存率提升20%;4)数据中台成为公司用户增长的核心引擎,支撑了“潜力用户运营”“高价值用户召回”等多个重点项目,个人获当年“技术突破奖”。
技能特长
沟通能力
执行能力
热情坦诚
文案能力
奖项荣誉
  • 数据库系统工程师(中级)
  • 2023年度公司项目攻坚奖
  • 2024年部门优秀技术员工
自我评价
  • 深耕互联网数据仓库领域,擅长从用户行为、交易等业务链路拆解需求,将模糊业务目标转化为分层可扩展的数仓架构,支撑多场景分析。
  • 面对海量ETL瓶颈,习惯用“分层诊断+链路优化”思维,从数据倾斜到资源调度逐一突破,推动核心流程效率显著提升。
  • 主动联动业务与研发,以“业务语言+技术逻辑”双向翻译,推动指标体系标准化,减少跨团队沟通损耗。
  • 关注流批一体等行业趋势,将其融入现有架构,提前布局支持业务快速迭代,保持数仓对需求的敏捷响应。
试一下,换个颜色
选择配色
使用此模板创建简历
  • 支持电脑端、微信小程序编辑简历
  • 支持一键更换模板,自由调整字距行距
  • 支持微信分享简历给好友查看
  • 支持简历封面、自荐信、自定义简历模块
  • 支持导出为PDF、图片、在线打印、云端保存
该简历模板已内置
  • 个人名称
  • 头像
  • 基本信息
  • 求职意向
  • 工作经历
  • 项目经验
  • 实习经验
  • 作品展示
  • 奖项荣誉
  • 校园经历
  • 教育背景
  • 兴趣爱好
  • 技能特长
  • 语言能力
  • 自我评价
  • 报考信息
  • 简历封面
  • 自荐信
对话框
提示
说明