当前模板已根据「数据治理工程师」岗位深度优化
选择其他岗位
开始编辑模板后,您可以进一步自定义包括:工作履历、工作内容、信息模块、颜色配置等
内置经深度优化的履历,将为你撰写个人简历带来更多灵感。
陆明哲
在平凡的岗位上创造不平凡的价值,这是我的职业信仰。
28岁
3年工作经验
13800138000
DB@zjengine.com
陆明哲的照片
求职意向
数据治理工程师
东莞
薪资面谈
一周内到岗
工作经历
2024.04 - 至今
小楷智能科技有限公司
数据治理产品负责人
  • 主导研发了行业领先的“AI驱动的智能数据发现与分类”引擎。该引擎利用自然语言处理和深度学习技术,自动扫描数据内容,智能识别敏感信息(如PII、银行卡号)和业务语义(如“销售额”、“用户ID”),识别准确率高达98%,将原本需数人月的手动数据盘点工作压缩至数天,效率提升数十倍。
  • 设计“智能数据质量根因分析”系统,能自动关联数据血缘,当监控到数据质量规则被触发时,系统可自动定位到导致问题的上游作业或表,并给出修复建议,将数据质量问题平均排查时间从小时级缩短至分钟级,MTTR降低85%。
  • 构建“数据资产智能推荐”模型,基于用户画像、历史行为和数据资产热度,在数据地图中为分析师和开发者精准推送他们最可能需要的数据资产,数据资产复用率提升40%,避免了大量重复加工。
  • 该智能治理套件已成为公司核心产品,成功销售给20+家金融、零售头部企业,年创造营收超五百万元,并荣获省级人工智能创新应用大赛一等奖。
2021.09 - 2024.04
小楷智能科技有限公司
高级数据治理工程师
  • 架构并主导开发了集​​元数据管理(Metadata)、数据质量(Quality)、数据标准(Standard)、数据安全(Security)​​于一体的​​MQSS​​数据治理平台,提供从数据发现、评估到治理的闭环能力,平台日均处理治理任务​​10万+​​。
  • 研发​​智能数据血缘解析​​引擎,支持复杂SQL脚本、存储过程及Spark任务的自动解析,血缘解析准确率提升至​​90%​​;引入机器学习算法自动推荐数据质量规则,规则设计效率提升​​60%​​。
  • 设计多云(AWS、阿里云)环境下的统一数据治理方案,通过代理网关与API集成,实现对异构数据源(​​RDS、Snowflake、S3​​)的集中管控,打破了数据孤岛。
  • 将治理能力以API方式对外提供服务,赋能数据开发、分析师等角色自助式完成数据探查、质量校验等工作, tickets量减少​​35%​​。
项目经验
2022.03 - 2023.08
星途互动(北京)科技有限公司
大数据开发负责人

星途社区用户行为深度分析平台研发

  • 星途社区作为千万级MAU的UGC内容平台,原有用户行为分析系统存在三大痛点:实时性不足(离线T+1、实时链路延迟超5分钟)、多端(APP/小程序/Web)数据Schema不统一、无法支撑用户行为路径关联分析,导致运营决策滞后、推荐系统无法利用实时行为优化。我的核心职责是主导平台从0到1的架构设计与落地,对齐“实时洞察+深度归因”的业务目标,构建“实时+离线”一体化的用户行为分析能力。
  • 项目面临三重技术挑战:1)多源异构数据的实时同步与标准化——不同端的用户行为事件定义混乱(如APP的“点赞”与小程序的“喜欢”字段不一致),且原有Kafka消息格式无规范;2)实时计算的低延迟与高吞吐矛盾——原有Spark Streaming处理10万TPS数据时延迟超5分钟,无法满足实时运营的即时反馈需求;3)用户行为路径的深度挖掘——传统SQL无法高效处理“点击→收藏→分享→转化”的长链路关系,难以支撑运营找高价值路径。
  • 针对Schema混乱问题,我牵头梳理全端20+核心用户行为事件(如“视频完播”“商品点击”“评论互动”),制定标准化字段规范,通过Flink CDC同步业务库变更,结合Kafka Connect实现多端数据的清洗、转换与统一入湖;对于实时延迟,将计算引擎从Spark Streaming迁移至Flink,优化Checkpoint策略(启用增量检查点+调整间隔至30秒),将延迟压降至30秒内;针对路径分析,设计“用户-内容”双节点图模型,用Flink实时将行为事件写入Neo4j图数据库,支撑秒级查询用户转化路径。
  • 平台上线后,实时分析延迟从5分钟降至30秒,离线分析周期从T+1缩短至小时级,可支撑10万+TPS的用户行为数据处理。业务价值显著:运营团队基于实时路径分析优化活动策略,转化率提升25%;个性化推荐系统接入实时行为数据后,点击率提升18%,月均用户留存率提升8%。我个人主导了平台核心架构设计与多源数据整合,解决了实时性与深度分析的核心矛盾,成为团队在用户行为领域的关键技术负责人。
2020.07 - 2021.12
星途互动(北京)科技有限公司
大数据开发工程师

星途短视频内容分发大数据Pipeline重构

  • 随着公司短视频业务从100万DAU增长至500万DAU,原有内容分发数据Pipeline基于Storm构建,存在耦合度高(计算、存储、监控模块混杂)、扩展性差(新内容类型如直播切片接入需修改核心代码)、数据质量无保障(下游每周因字段缺失/错误报错2次)等问题,严重制约新业务上线速度。我的职责是负责Pipeline核心模块重构,提升系统可扩展性与数据可靠性,支撑直播、短剧等新业务快速落地。
  • 项目挑战集中在三点:1)Storm框架的维护成本高——复杂逻辑需编写Java代码,迭代周期长;2)元数据管理混乱——不同内容类型的标签、分发渠道字段无统一标准,导致调度逻辑复杂;3)数据质量失控——缺乏实时校验,下游应用频繁因脏数据故障。
  • 重构中,我将原有Pipeline拆解为“采集-清洗-转换-存储”四个通用组件:用Spark Structured Streaming替代Storm,利用其声明式API与端到端Exactly-Once语义,降低维护成本;引入Apache Atlas作为元数据管理系统,定义覆盖“内容ID、类型、标签、分发渠道”的统一模型,新内容类型只需配置元数据即可接入;搭建基于Flink的数据质量监控系统,实时校验10+核心规则(如“视频时长≥10秒”“标签非空”),异常数据拦截并报警,同时写入隔离区排查。
  • 重构后,Pipeline扩展性提升50%,新内容类型接入时间从1周缩短至1天,数据错误率从8%降至1%以下,下游故障率几乎清零。业务层面,支撑直播业务快速上线,直播内容分发效率提升40%,播放量占比从10%增长至30%。我个人完成了核心组件的解耦与元数据体系搭建,解决了原有系统的耦合性问题,为后续业务规模化扩展奠定了基础。
技能特长
沟通能力
执行能力
热情坦诚
文案能力
奖项荣誉
  • 计算机技术与软件专业技术资格(水平)证书(信息系统管理工程师)
  • 2023年度公司数据治理项目攻坚奖
  • 2024年公司优秀技术员工
自我评价
  • 深耕互联网数据治理,擅长从业务目标倒推治理优先级,用“问题-机制-追踪”闭环破解数据资产化碎片化难题。
  • 通晓行业数据合规与业务增长的平衡逻辑,主导过适配多业务线的元数据体系搭建,更会用“业务语言”让技术规则落地。
  • 是主动预判风险的治理者,能从数据异常里嗅出隐患,习惯联动产品/研发提前埋点,拒绝事后救火。
  • 以“让数据成为业务可信资产”为锚点,过往通过优化流程推动跨部门数据协作效率显著提升。
试一下,换个颜色
选择配色
使用此模板创建简历
  • 支持电脑端、微信小程序编辑简历
  • 支持一键更换模板,自由调整字距行距
  • 支持微信分享简历给好友查看
  • 支持简历封面、自荐信、自定义简历模块
  • 支持导出为PDF、图片、在线打印、云端保存
该简历模板已内置
  • 个人名称
  • 头像
  • 基本信息
  • 求职意向
  • 工作经历
  • 项目经验
  • 实习经验
  • 作品展示
  • 奖项荣誉
  • 校园经历
  • 教育背景
  • 兴趣爱好
  • 技能特长
  • 语言能力
  • 自我评价
  • 报考信息
  • 简历封面
  • 自荐信
对话框
提示
说明