当前模板已根据「数据治理工程师」岗位深度优化
选择其他岗位
开始编辑模板后,您可以进一步自定义包括:工作履历、工作内容、信息模块、颜色配置等
内置经深度优化的履历,将为你撰写个人简历带来更多灵感。
陆明哲的照片
陆明哲
昨天的经验是今天的基石,而今天的突破将成为明天的标准。
28岁
3年工作经验
13800138000
DB@zjengine.com
求职意向
数据治理工程师
东莞
薪资面谈
一个月内到岗
工作经历
2024.04 - 至今
小楷智能科技有限公司
数据治理产品负责人
  • 主导研发了行业领先的“AI驱动的智能数据发现与分类”引擎。该引擎利用自然语言处理和深度学习技术,自动扫描数据内容,智能识别敏感信息(如PII、银行卡号)和业务语义(如“销售额”、“用户ID”),识别准确率高达98%,将原本需数人月的手动数据盘点工作压缩至数天,效率提升数十倍。
  • 设计“智能数据质量根因分析”系统,能自动关联数据血缘,当监控到数据质量规则被触发时,系统可自动定位到导致问题的上游作业或表,并给出修复建议,将数据质量问题平均排查时间从小时级缩短至分钟级,MTTR降低85%。
  • 构建“数据资产智能推荐”模型,基于用户画像、历史行为和数据资产热度,在数据地图中为分析师和开发者精准推送他们最可能需要的数据资产,数据资产复用率提升40%,避免了大量重复加工。
  • 该智能治理套件已成为公司核心产品,成功销售给20+家金融、零售头部企业,年创造营收超五百万元,并荣获省级人工智能创新应用大赛一等奖。
2021.09 - 2024.04
小楷智能科技有限公司
高级数据治理工程师
  • 架构并主导开发了集​​元数据管理(Metadata)、数据质量(Quality)、数据标准(Standard)、数据安全(Security)​​于一体的​​MQSS​​数据治理平台,提供从数据发现、评估到治理的闭环能力,平台日均处理治理任务​​10万+​​。
  • 研发​​智能数据血缘解析​​引擎,支持复杂SQL脚本、存储过程及Spark任务的自动解析,血缘解析准确率提升至​​90%​​;引入机器学习算法自动推荐数据质量规则,规则设计效率提升​​60%​​。
  • 设计多云(AWS、阿里云)环境下的统一数据治理方案,通过代理网关与API集成,实现对异构数据源(​​RDS、Snowflake、S3​​)的集中管控,打破了数据孤岛。
  • 将治理能力以API方式对外提供服务,赋能数据开发、分析师等角色自助式完成数据探查、质量校验等工作, tickets量减少​​35%​​。
项目经验
2022.05 - 2023.08
星途互娱科技有限公司
大数据开发负责人

手游实时用户行为分析平台从0到1构建

  • 项目背景:星途互娱作为年轻向手游研发商,原有用户行为分析依赖离线Hive任务(T+1产出),无法支撑运营实时调整活动策略、产品快速迭代用户路径优化;核心目标是构建**秒级延迟的实时用户行为分析平台**,覆盖客户端日志、服务器行为、第三方支付/广告等多源数据,赋能运营、产品、数据科学团队实时决策。
  • 解决的关键难题:1)多源异构数据的实时统一处理(客户端SDK日志为JSON格式、服务器日志为Protobuf、支付数据为CSV);2)高并发下的低延迟保障(峰值QPS达12万,要求99%数据处理延迟<1秒);3)游戏场景定制化指标的快速输出(如“关卡30秒流失率”“付费转化漏斗实时转化率”)。
  • 核心行动与创新:1)技术选型上,采用Flink 1.17作为实时计算引擎(基于其Exactly-Once语义和增量Checkpoint能力),结合Kafka做消息缓冲(分层topic设计:raw->buffer->processing,削峰填谷);2)针对多源数据,自研**游戏事件统一解析器**,通过Avro Schema Registry实现JSON/Protobuf/CSV到统一事件模型(含用户ID、事件类型、时间戳、游戏服ID等12个核心字段)的自动转换;3)为支撑游戏运营的“场景化指标”需求,设计**动态指标计算框架**——基于Flink CEP定义用户行为序列模式(如“登录→进入关卡→道具购买”),实时输出漏斗转化、留存等20+定制指标。
  • 项目成果:1)平台上线后,数据处理延迟降至平均450ms,支撑日均1.2亿条实时事件处理;2)覆盖运营(实时活动效果监控)、产品(用户路径流失点定位)、数据科学(实时A/B测试)三大团队,运营调整活动策略的时间从“次日”缩短至“实时”,单活动ROI提升28%;3)个人主导了平台架构设计与跨团队需求对齐,推动解决了“实时数据一致性”“高并发稳定性”两大核心技术问题,成为公司游戏运营的核心数据工具。
2020.03 - 2021.12
星途互娱科技有限公司
大数据开发工程师

手游用户生命周期数据仓库重构与商业化赋能

  • 项目背景:原有用户数据仓库基于传统Hive Star Schema设计,未贴合手游用户生命周期(拉新→促活→留存→付费→裂变)的业务特性,导致商业化分析(如付费用户LTV预测、渠道ROI拆解)需手动关联多表,周期长达3天,无法支撑投放策略优化;目标是重构**以生命周期为核心的分层数据仓库**,提升商业化分析效率与准确性。
  • 解决的关键难题:1)原有模型灵活性不足(新增生命周期阶段需修改全量表结构);2)跨域数据关联复杂(用户行为数据与付费数据来自不同业务库,join效率低);3)LTV预测准确性差(原模型用线性回归,未考虑用户行为的时序特征)。
  • 核心行动与创新:1)采用Kimball维度建模方法,重新设计**生命周期分层模型**——事实表分为拉新事实(注册、首玩)、促活事实(登录、互动)、付费事实(订单、ARPU)等5类,共享用户、渠道、游戏版本3大维度表,支持快速扩展新生命周期阶段;2)通过Hive Bucketing(按用户ID分桶)和分区(按日期+游戏服)优化跨表join性能,将付费行为与用户行为的关联时间从2小时缩短至15分钟;3)构建**时序特征工程 pipeline**——用Flink提取用户近7天的登录次数、关卡进度、道具使用等15个时序特征,输入XGBoost模型预测LTV,替代原有的线性回归。
  • 项目成果:1)数据仓库重构后,商业化分析周期从“每周1次”变为“每日1次”,LTV预测准确性从71%提升至86%;2)支撑渠道投放优化,通过生命周期ROI分析淘汰低效渠道3个,获客成本降低19%;3)建立**数据质量监控体系**(用Apache Superset可视化监控数据完整性、准确性,如用户ID空值率从5%降至0.1%),个人推动数据仓库从“支撑分析”向“驱动商业化决策”转型,成为公司用户运营的核心数据资产。
奖项荣誉
  • 信息系统管理工程师(中级)
  • 2022年度公司数据治理项目攻坚奖
  • 2023年公司优秀技术员工
技能特长
沟通能力
执行能力
热情坦诚
文案能力
自我评价
  • 深耕互联网数据治理5年,锚定“让数据成为可信业务资产”核心,擅长从业务痛点反推治理策略,拒绝工具盲目堆叠。
  • 习惯用“业务语言+技术逻辑”双视角沟通,曾推动多部门对齐数据标准,关键是将抽象要求转化为可执行动作降阻力。
  • 搭建“预防-监控-迭代”闭环框架,不满足单点解决,更关注机制化避免问题复发,推动治理从“救火”转“长效”。
  • 吃透互联网“快迭代与数据质量”核心矛盾,在合规底线设计轻量适配方案,既保安全又不拖业务节奏。
试一下,换个颜色
选择配色
使用此模板创建简历
  • 支持电脑端、微信小程序编辑简历
  • 支持一键更换模板,自由调整字距行距
  • 支持微信分享简历给好友查看
  • 支持简历封面、自荐信、自定义简历模块
  • 支持导出为PDF、图片、在线打印、云端保存
该简历模板已内置
  • 个人名称
  • 头像
  • 基本信息
  • 求职意向
  • 工作经历
  • 项目经验
  • 实习经验
  • 作品展示
  • 奖项荣誉
  • 校园经历
  • 教育背景
  • 兴趣爱好
  • 技能特长
  • 语言能力
  • 自我评价
  • 报考信息
  • 简历封面
  • 自荐信
对话框
提示
说明