当前模板已根据「数据治理工程师」岗位深度优化
选择其他岗位
开始编辑模板后,您可以进一步自定义包括:工作履历、工作内容、信息模块、颜色配置等
内置经深度优化的履历,将为你撰写个人简历带来更多灵感。
陆明哲
责任心不是口号,而是渗透在每个工作细节中的行动准则。
28岁
3年工作经验
13800138000
DB@zjengine.com
陆明哲的照片
求职意向
数据治理工程师
东莞
薪资面谈
三个月内到岗
工作经历
2020.07 - 2022.06
小楷教育科技有限公司
初级数据治理工程师

负责在线教育业务线数据资产全生命周期治理,涵盖数据标准落地、质量规则制定及元数据梳理,支撑业务报表准确性与分析效率提升

  • 主导设计在线教育业务线数据标准体系,结合课程排期、用户画像、订单交易核心场景梳理12类实体(如User、Course、Order)、36项属性标准,采用DCMM模型“数据模型”维度定义字段规范(如user_id统一为string类型、course_start_time为datetime),通过阿里云DataWorks数据标准模块完成规则下发与校验,解决跨系统字段不一致问题(如“用户性别”原存在“男/女”“M/F”两种写法),数据一致性从85%提升至98%
  • 搭建数据质量监控体系,针对订单支付成功率、课程完课率等5个核心指标,用Python编写自定义校验规则(如order_amount>0、payment_time < order_create_time + 30分钟),接入DataWorks质量中心配置实时告警策略(错误率超0.5%触发钉钉机器人通知),将数据质量问题发现时间从T+1缩短至实时,月度数据错误率从3%降至0.1%
  • 用Apache Atlas搭建元数据管理系统,通过JDBC爬取Hive、MySQL等数据源的元数据(累计梳理800+张表、1500+个字段),关联业务术语库(如定义“GMV”为“课程订单支付金额+会员续费金额”),输出《在线教育数据资产目录》,标注“高频使用”“需脱敏”等标签,业务人员查询目标数据的时间从平均2小时缩短至10分钟
  • 针对等保2.0三级要求,梳理用户敏感数据(手机号、身份证号、支付银行卡号),制定“静态脱敏+动态脱敏”规则(如手机号显示为“138****1234”、身份证号显示为“440301********1234”),用Flink SQL实现实时脱敏管道替换原有离线Shell脚本,脱敏覆盖率从70%提升至100%,助力公司顺利通过年度等保测评
2022.07 - 2024.06
小楷生活服务平台有限公司
高级数据治理工程师

主导本地生活服务板块数据治理体系迭代,聚焦跨域数据一致性、隐私合规及数据资产编目,推动数据共享机制落地

  • 推动跨域商家信息一致性治理,针对外卖、到店、酒店三个业务线商家名称、地址差异率达15%的问题,设计“商家主数据管理流程”,用Apache Kafka搭建CDC(Change Data Capture)同步管道,定义“merchant_id”作为全局唯一标识(如“mer_12345”映射外卖“shop_12345”、到店“store_12345”),同步规则覆盖商家基础信息、资质证照等10+个字段,解决数据不一致问题后跨域数据一致性提升至99%
  • 响应GDPR与中国《个人信息保护法》要求,针对用户行为数据(如外卖“浏览轨迹”、酒店“入住偏好”)的跨业务线共享需求,引入FATE联邦学习框架搭建横向联邦模型,实现“用户兴趣标签”在不传输原始数据的情况下完成联合建模,支撑“本地吃喝玩乐套餐”精准营销活动,活动转化率从8%提升至10%(增长25%),同时降低数据泄露风险
  • 用Java开发数据标准管理工具(技术栈:Spring Boot+MyBatis+Vue),实现数据标准“新增-审核-发布-同步”全流程自动化,替代人工Excel维护方式,将标准更新周期从每周1次缩短至每日1次,支撑10+个新业务线(如“社区团购”“家政服务”)的标准快速落地,标准覆盖率从75%提升至95%
  • 构建数据资产价值评分模型(维度包括数据质量(40%)、使用频率(30%)、业务贡献(30%)),用Tableau搭建资产价值可视化看板,识别出“用户地理位置数据”(评分9.2/10)、“商家交易频次数据”(评分8.9/10)等高价值资产,推动将其接入集团数据中台,支撑“附近3公里商家推荐”场景,相关场景GMV提升18%
2024.07 - 2026.06
小楷全场景数字服务集团有限公司
资深数据治理工程师

统筹集团全场景数据治理战略,搭建统一数据标准框架与自动化治理工具链,支撑多业务线数据融合分析与商业决策

  • 整合教育、本地生活、电商三大板块业务术语与数据规范,参考DAMA-DMBOK“数据架构”维度,定义20类集团级核心实体(如“Member”“Merchant”“Product”)、50项公共属性标准(如“member_id”全局唯一、“product_category”采用GB/T 13715-2007商品分类标准),通过集团数据中台的元数据管理模块落地,实现跨板块数据标准的统一,数据融合分析的效率从每周5人天降至2人天(提升60%)
  • 基于Apache Airflow+Argo Workflows开发“数据治理自动化Pipeline”,整合数据质量检查(DataWorks)、元数据采集(Atlas)、脱敏处理(Flink SQL)、资产编目(自研工具)四个环节,实现“数据入库-自动校验-自动打标-自动同步”的全流程闭环,人工干预率从60%降至15%,治理周期从月度1次缩短至每周1次,支撑集团日均10PB数据的治理需求
  • 针对“用户生命周期管理”核心场景,梳理教育APP“学习时长”、生活平台“订单频次”、电商平台“购买金额”三类行为数据的治理需求,定义“用户活跃度”指标计算规则(综合三个板块数据,权重分别为40%、30%、30%),通过数据治理确保指标计算逻辑的一致性,支撑运营团队制定“高活跃用户专属权益”“流失用户召回”等分层策略,用户30日留存率从28%提升至31.4%(增长12%)
  • 主导集团数据治理体系文档化,输出《数据治理手册》(覆盖标准制定、质量管控、元数据管理全流程)、《数据标准指南》(含20类实体、50项属性说明)、《隐私合规操作指南》(含脱敏、权限、审计要求)三份核心文档;搭建数据治理培训体系,针对业务人员(讲“如何查数用数”)、技术人员(讲“如何落地治理规则”)、管理人员(讲“如何用数据资产创造价值”)开展12场培训,累计覆盖500+人次,数据质量问题投诉率从15%降至4.5%(下降70%)
项目经验
2022.05 - 2023.08
星途互娱科技有限公司
大数据开发负责人

手游实时用户行为分析平台从0到1构建

  • 项目背景:星途互娱作为年轻向手游研发商,原有用户行为分析依赖离线Hive任务(T+1产出),无法支撑运营实时调整活动策略、产品快速迭代用户路径优化;核心目标是构建**秒级延迟的实时用户行为分析平台**,覆盖客户端日志、服务器行为、第三方支付/广告等多源数据,赋能运营、产品、数据科学团队实时决策。
  • 解决的关键难题:1)多源异构数据的实时统一处理(客户端SDK日志为JSON格式、服务器日志为Protobuf、支付数据为CSV);2)高并发下的低延迟保障(峰值QPS达12万,要求99%数据处理延迟<1秒);3)游戏场景定制化指标的快速输出(如“关卡30秒流失率”“付费转化漏斗实时转化率”)。
  • 核心行动与创新:1)技术选型上,采用Flink 1.17作为实时计算引擎(基于其Exactly-Once语义和增量Checkpoint能力),结合Kafka做消息缓冲(分层topic设计:raw->buffer->processing,削峰填谷);2)针对多源数据,自研**游戏事件统一解析器**,通过Avro Schema Registry实现JSON/Protobuf/CSV到统一事件模型(含用户ID、事件类型、时间戳、游戏服ID等12个核心字段)的自动转换;3)为支撑游戏运营的“场景化指标”需求,设计**动态指标计算框架**——基于Flink CEP定义用户行为序列模式(如“登录→进入关卡→道具购买”),实时输出漏斗转化、留存等20+定制指标。
  • 项目成果:1)平台上线后,数据处理延迟降至平均450ms,支撑日均1.2亿条实时事件处理;2)覆盖运营(实时活动效果监控)、产品(用户路径流失点定位)、数据科学(实时A/B测试)三大团队,运营调整活动策略的时间从“次日”缩短至“实时”,单活动ROI提升28%;3)个人主导了平台架构设计与跨团队需求对齐,推动解决了“实时数据一致性”“高并发稳定性”两大核心技术问题,成为公司游戏运营的核心数据工具。
2020.03 - 2021.12
星途互娱科技有限公司
大数据开发工程师

手游用户生命周期数据仓库重构与商业化赋能

  • 项目背景:原有用户数据仓库基于传统Hive Star Schema设计,未贴合手游用户生命周期(拉新→促活→留存→付费→裂变)的业务特性,导致商业化分析(如付费用户LTV预测、渠道ROI拆解)需手动关联多表,周期长达3天,无法支撑投放策略优化;目标是重构**以生命周期为核心的分层数据仓库**,提升商业化分析效率与准确性。
  • 解决的关键难题:1)原有模型灵活性不足(新增生命周期阶段需修改全量表结构);2)跨域数据关联复杂(用户行为数据与付费数据来自不同业务库,join效率低);3)LTV预测准确性差(原模型用线性回归,未考虑用户行为的时序特征)。
  • 核心行动与创新:1)采用Kimball维度建模方法,重新设计**生命周期分层模型**——事实表分为拉新事实(注册、首玩)、促活事实(登录、互动)、付费事实(订单、ARPU)等5类,共享用户、渠道、游戏版本3大维度表,支持快速扩展新生命周期阶段;2)通过Hive Bucketing(按用户ID分桶)和分区(按日期+游戏服)优化跨表join性能,将付费行为与用户行为的关联时间从2小时缩短至15分钟;3)构建**时序特征工程 pipeline**——用Flink提取用户近7天的登录次数、关卡进度、道具使用等15个时序特征,输入XGBoost模型预测LTV,替代原有的线性回归。
  • 项目成果:1)数据仓库重构后,商业化分析周期从“每周1次”变为“每日1次”,LTV预测准确性从71%提升至86%;2)支撑渠道投放优化,通过生命周期ROI分析淘汰低效渠道3个,获客成本降低19%;3)建立**数据质量监控体系**(用Apache Superset可视化监控数据完整性、准确性,如用户ID空值率从5%降至0.1%),个人推动数据仓库从“支撑分析”向“驱动商业化决策”转型,成为公司用户运营的核心数据资产。
技能特长
沟通能力
执行能力
热情坦诚
文案能力
奖项荣誉
  • 大数据工程师(中级)职业技能等级证书
  • 2022年度公司数据治理项目攻坚奖
  • 中国数据治理联盟优秀实践案例奖
自我评价
  • 深耕互联网数据治理5年,锚定“让数据成为可信业务资产”核心,擅长从业务痛点反推治理策略,拒绝工具盲目堆叠。
  • 习惯用“业务语言+技术逻辑”双视角沟通,曾推动多部门对齐数据标准,关键是将抽象要求转化为可执行动作降阻力。
  • 搭建“预防-监控-迭代”闭环框架,不满足单点解决,更关注机制化避免问题复发,推动治理从“救火”转“长效”。
  • 吃透互联网“快迭代与数据质量”核心矛盾,在合规底线设计轻量适配方案,既保安全又不拖业务节奏。
试一下,换个颜色
选择配色
使用此模板创建简历
  • 支持电脑端、微信小程序编辑简历
  • 支持一键更换模板,自由调整字距行距
  • 支持微信分享简历给好友查看
  • 支持简历封面、自荐信、自定义简历模块
  • 支持导出为PDF、图片、在线打印、云端保存
该简历模板已内置
  • 个人名称
  • 头像
  • 基本信息
  • 求职意向
  • 工作经历
  • 项目经验
  • 实习经验
  • 作品展示
  • 奖项荣誉
  • 校园经历
  • 教育背景
  • 兴趣爱好
  • 技能特长
  • 语言能力
  • 自我评价
  • 报考信息
  • 简历封面
  • 自荐信
对话框
提示
说明