当前模板已根据「数据治理工程师」岗位深度优化
选择其他岗位
开始编辑模板后,您可以进一步自定义包括:工作履历、工作内容、信息模块、颜色配置等
内置经深度优化的履历,将为你撰写个人简历带来更多灵感。
陆明哲的照片
陆明哲
昨天的经验是今天的基石,而今天的突破将成为明天的标准。
28岁
3年工作经验
13800138000
DB@zjengine.com
求职意向
数据治理工程师
东莞
薪资面谈
到岗时间另议
工作经历
2022.05 - 2023.12
小楷数安科技公司
数据安全治理专家
  • 为某大型金融机构客户成功落地“GDPR/《数据安全法》/《个人信息保护法》”合规治理项目。通过自主研发的“敏感数据自动发现与分类分级”引擎,对PB级历史数据仓库进行扫描,识别准确率超95%,并自动打标,奠定了数据安全治理的基石。
  • 设计“数据安全策略中心”,实现了基于角色、数据分级、使用场景的动态访问控制和脱敏策略,统一管理了Hive、HBase、ClickHouse等多种数据源的权限,权限申请流程从3天缩短至1小时,且安全无事故。
  • 构建“数据合规审计”体系,能够对所有数据的访问、查询、导出行为进行全链路追踪与记录,并自动检测异常操作,满足了金融监管的苛刻要求,助力客户顺利通过多项审计。
  • 该项目成为行业标杆案例,成功复制到银行、保险等多个客户,年创造咨询与产品收入超三千万元。
2020.10 - 2022.04
小楷数安科技公司
数据治理顾问
  • 主导制定并推行公司级数据治理战略蓝图与实施路线图,构建涵盖​​数据标准、质量、安全、血缘、生命周期​​的完整治理体系,统一管理公司​​PB级​​数据资产,使数据治理成熟度从混乱提升到受管级别。
  • 建立数据价值与成本量化评估模型,通过治理手段精准识别并下线​​30%​​ 的低价值高成本数据存储,年节省存储与计算成本超​​数百万元​​,并推动数据资产入表工作。
  • 主导落地数据分类分级与敏感数据动态脱敏方案,全面满足​​GDPR、数安法、个保法​​等合规要求,实现敏感数据访问100%受控,全年零数据安全事件。
  • 领导研发​​一站式数据治理平台​​,集成元数据、数据质量、数据标准等功能,将治理流程工具化、自动化,提升协同效率​​50%​​;带领​​5人​​跨职能团队,建立数据治理文化。
项目经验
2022.03 - 2023.08
星途互动(北京)科技有限公司
大数据开发负责人

星途社区用户行为深度分析平台研发

  • 星途社区作为千万级MAU的UGC内容平台,原有用户行为分析系统存在三大痛点:实时性不足(离线T+1、实时链路延迟超5分钟)、多端(APP/小程序/Web)数据Schema不统一、无法支撑用户行为路径关联分析,导致运营决策滞后、推荐系统无法利用实时行为优化。我的核心职责是主导平台从0到1的架构设计与落地,对齐“实时洞察+深度归因”的业务目标,构建“实时+离线”一体化的用户行为分析能力。
  • 项目面临三重技术挑战:1)多源异构数据的实时同步与标准化——不同端的用户行为事件定义混乱(如APP的“点赞”与小程序的“喜欢”字段不一致),且原有Kafka消息格式无规范;2)实时计算的低延迟与高吞吐矛盾——原有Spark Streaming处理10万TPS数据时延迟超5分钟,无法满足实时运营的即时反馈需求;3)用户行为路径的深度挖掘——传统SQL无法高效处理“点击→收藏→分享→转化”的长链路关系,难以支撑运营找高价值路径。
  • 针对Schema混乱问题,我牵头梳理全端20+核心用户行为事件(如“视频完播”“商品点击”“评论互动”),制定标准化字段规范,通过Flink CDC同步业务库变更,结合Kafka Connect实现多端数据的清洗、转换与统一入湖;对于实时延迟,将计算引擎从Spark Streaming迁移至Flink,优化Checkpoint策略(启用增量检查点+调整间隔至30秒),将延迟压降至30秒内;针对路径分析,设计“用户-内容”双节点图模型,用Flink实时将行为事件写入Neo4j图数据库,支撑秒级查询用户转化路径。
  • 平台上线后,实时分析延迟从5分钟降至30秒,离线分析周期从T+1缩短至小时级,可支撑10万+TPS的用户行为数据处理。业务价值显著:运营团队基于实时路径分析优化活动策略,转化率提升25%;个性化推荐系统接入实时行为数据后,点击率提升18%,月均用户留存率提升8%。我个人主导了平台核心架构设计与多源数据整合,解决了实时性与深度分析的核心矛盾,成为团队在用户行为领域的关键技术负责人。
2020.07 - 2021.12
星途互动(北京)科技有限公司
大数据开发工程师

星途短视频内容分发大数据Pipeline重构

  • 随着公司短视频业务从100万DAU增长至500万DAU,原有内容分发数据Pipeline基于Storm构建,存在耦合度高(计算、存储、监控模块混杂)、扩展性差(新内容类型如直播切片接入需修改核心代码)、数据质量无保障(下游每周因字段缺失/错误报错2次)等问题,严重制约新业务上线速度。我的职责是负责Pipeline核心模块重构,提升系统可扩展性与数据可靠性,支撑直播、短剧等新业务快速落地。
  • 项目挑战集中在三点:1)Storm框架的维护成本高——复杂逻辑需编写Java代码,迭代周期长;2)元数据管理混乱——不同内容类型的标签、分发渠道字段无统一标准,导致调度逻辑复杂;3)数据质量失控——缺乏实时校验,下游应用频繁因脏数据故障。
  • 重构中,我将原有Pipeline拆解为“采集-清洗-转换-存储”四个通用组件:用Spark Structured Streaming替代Storm,利用其声明式API与端到端Exactly-Once语义,降低维护成本;引入Apache Atlas作为元数据管理系统,定义覆盖“内容ID、类型、标签、分发渠道”的统一模型,新内容类型只需配置元数据即可接入;搭建基于Flink的数据质量监控系统,实时校验10+核心规则(如“视频时长≥10秒”“标签非空”),异常数据拦截并报警,同时写入隔离区排查。
  • 重构后,Pipeline扩展性提升50%,新内容类型接入时间从1周缩短至1天,数据错误率从8%降至1%以下,下游故障率几乎清零。业务层面,支撑直播业务快速上线,直播内容分发效率提升40%,播放量占比从10%增长至30%。我个人完成了核心组件的解耦与元数据体系搭建,解决了原有系统的耦合性问题,为后续业务规模化扩展奠定了基础。
技能特长
沟通能力
执行能力
热情坦诚
文案能力
奖项荣誉
  • 大数据工程师(中级)职业技能等级证书
  • 2022年度公司数据治理项目攻坚奖
  • 中国数据治理联盟优秀实践案例奖
自我评价
  • 深耕互联网数据治理,擅长从业务目标倒推治理优先级,用“问题-机制-追踪”闭环破解数据资产化碎片化难题。
  • 通晓行业数据合规与业务增长的平衡逻辑,主导过适配多业务线的元数据体系搭建,更会用“业务语言”让技术规则落地。
  • 是主动预判风险的治理者,能从数据异常里嗅出隐患,习惯联动产品/研发提前埋点,拒绝事后救火。
  • 以“让数据成为业务可信资产”为锚点,过往通过优化流程推动跨部门数据协作效率显著提升。
试一下,换个颜色
选择配色
使用此模板创建简历
  • 支持电脑端、微信小程序编辑简历
  • 支持一键更换模板,自由调整字距行距
  • 支持微信分享简历给好友查看
  • 支持简历封面、自荐信、自定义简历模块
  • 支持导出为PDF、图片、在线打印、云端保存
该简历模板已内置
  • 个人名称
  • 头像
  • 基本信息
  • 求职意向
  • 工作经历
  • 项目经验
  • 实习经验
  • 作品展示
  • 奖项荣誉
  • 校园经历
  • 教育背景
  • 兴趣爱好
  • 技能特长
  • 语言能力
  • 自我评价
  • 报考信息
  • 简历封面
  • 自荐信
对话框
提示
说明