赞
踩
如何撰写一份能够凸显个人技能与经验、吸引人的简历呢?本文将为大家提供一份大数据开发工程师的简历模板范文,同时,幻主简历网还提供精美简历模板以及简历在线制作工具,欢迎大家阅读参考。
大数据开发工程师简历模板范文:
求职意向
求职类型:全职
意向岗位:大数据开发工程师
意向城市:广东广州
薪资要求:面议
求职状态:随时到岗
教育背景
时间:20xx.9-20xx.7 学校名称:幻主简历大学 专业名称:空间信息与数字技术(计算机系) 学校描述:大学学习了程序设计基础、 数据库原理课程设计、JAVA 框架编程课程设计等,基本掌握专业相关知识及技术,能够使用eclipse等开发工具,在校期间积极参加学校组织的专业实践,在专业学科学习上得到了长足的进步和锻炼。计算机操作能力熟练,也具有一定的英语听说能力,同时对互联网相关知识保持高度的敏感性和关注度。
工作经历
时间:20xx.11-至今 公司名称:广州幻主简历有限公司 职位名称:研发工程师 工作描述:在职期间从事技术支持工作,参与协助项目组完成大数据、区块链等相关技术开发工作。
项目经验
时间:20xx.2-至今 项目名称:幻主简历xxx项目案例 项目角色:数据平台开发及运维
项目架构:doris + dolphinscheduler + dataX +kafka + streamX + flink
项目描述:线下实时数据传输处理。
项目职责: 1、平台搭建 2、平台运维 3、数据入库
技术实现: 1、通过flink实时接收数据并处理,存入数据中台。
时间:20xx.3-20xx.2 项目名称:幻主简历xxx项目案例 项目角色:java开发、区块链开发
项目架构:vue + springboot + 智能合约 + MySQL
项目描述:存证平台位于业务系统和区块链底层平台之间,是一个可以快速构建数据存证类应用场景的基础支撑平台,主要由数据存储智能合约、JAVA调用接口、综合展示界面及管理功能等部分组成,能满足各类结构化数据和非结构化数据可信存储的需求,具有学习成本低、技术门槛低、集成快速便捷、适用范围广、跨底层平台等特点。
项目职责:
1、搭建区块链平台2、设计研发智能合约3、将智能合约转换成JAVA调用接口提供给业务方使用4、区块链及相关业务数据的采集,提供展示查看页面
技术实现:
1、准备至少两台服务器搭建多节点区块链平台2、使用Solidity语言开发符合需求的智能合约3、整个项目采用了 vue-springboot 框架进行开发,前后端分离,高效快捷,通过区块链对应的SDK实现与区块链的连接交互。时间:20xx.6-20xx.5 项目名称:幻主简历xxx项目案例 项目角色:区块链开发
项目架构:spring + 智能合约 + MySQL
项目描述: 通过区块链防篡改高可信的特性,可以更好的建设政法战线协同业务平台,提升各单位的互信程度,提升政法战线业务信息的严谨度、准确度和可信度,降低各业务系统间接口的业务和技术难度。甚至通过区块链对政法战线业务进行可信管理,在适当条件下还能提升人民群众对于政法战线的信任程度,是为提升党和政府现代社会治理能力的一个重要环节。
项目职责:
1、学习了解区块链理论知识,对比各个区块链适配情况,参与决策区块链使用场景2、设计研发智能合约3、数据上链及查询
技术实现:
1、了解以太坊,Fisco,蚂蚁链等区块链特性2、使用Solidity语言开发符合需求的智能合约3、采用spring框架进行蚂蚁链Sdk包的样例编辑时间:20xx.9-20xx.3 项目名称:幻主简历xxx项目案例 项目角色:大数据开发
项目架构:strom+Kafka +Hadoop+Hive + HBAse + MySQL +Redis
项目描述:物联网大数据平台(以下简称本平台)是消防大数据中心的基础平台,主要运用物联网、大数据等技术,实时采集、处理、分析、存储重点单位物联网(全天候监测二级消防重点单位)和窄带物联网(全天候监测窄带物联区域)的物联网数据。为智慧消防(总平台)、智慧消防(分平台)、智慧消防大数据中心、智慧消防APP提供数据服务。
项目职责:
1、解析物联网实时信号、推送物联网设备实时运行情况、设备报警、设备故障、GPS信号至消息分发中心;实现分级预警机制。2、物联网数据存储到HBase中,设备最新的实时运行情况及数据可视化分析结果存储到关系型数据库中。3、物联网数据处理后的实时信号,推送至Kafka 消息分发中心,为应用系统提供数据分发服务。
技术实现:
1、Storm直接通过Socket协议接收设备传来的数据,经过storm流式处理框架对采集的信息进行协议解析,然后根据数据类型的不同分别处理2、所有通过Socket协议接收的信息,经过协议解析后,传递给HBase进行数据存储,支撑后续的大数据离线分析和报告功能3、所有通过Socket协议接收的告警信息,传递给Kafka,由Kafka消息中间件传递给需要的应用,实现采集平台和业务系统的分离4、对于需要短期历史数据才能实现的业务功能,Storm将相关的数据传递给Redis内存数据库,业务系统在内存数据库的支撑下完成相应业务逻辑判断5、业务系统通过Kafka获得处理好的实时数据,实现实时告警类应用;通过Redis获得近期告警数据,实现三级预警机制;通过HBase获得海量历史数据,实现基于物联网信息的大数据分析及报表类应用时间:20xx.2-20xx.8 项目名称:幻主简历xxx项目案例 项目角色:大数据开发
项目架构:Flume+Kafka +Hadoop+Hive +Spark + MySQL+Redis
项目描述:传统的旅游分类,建议操作主要是人力进行,这种方式效率低,处理成本高,现在互联网上的浏览 历史和旅行记录的用户有很多。该项目主要通过用户在网站上浏览记录和旅游记录,根据产品的特性以及用户 的偏好进行关联匹配,可以有效地提高用户浏览时间,提供更高质量的指南服务等。
项目职责:
1、收集用户的基本信息,用户订单记录,产品的特征信息2、对数据进行清洗,对数据进行离散化和添加数据关联特征,而构建训练数据集;3、数据向量化处理,使用逻辑回归进行训练集的生成4、用生成的测试集来验证模型,符合要求后保存5、查询用户购买行为,特征抽取,代入模型,根据结果进行评估
技术实现:
1、通过 Flume 收集服务器日志,日志数据直接保存到 HDFS 中2、数据清洗后,导入 hive 表中 3、对数据进行离散化和添加数据关联特征,而构建训练数据集 4、评估模型预测结果,对准确度进行量化评估;5、将模型和特征值数据存入 Redis。6、当用户登陆时,根据用户历史购买记录和浏览记录,带入到训练好的逻辑回归模型中进行加权,最终根据加权的结果计算排名,得到产品推荐列表时间:20xx.3-20xx.1 项目名称:幻主简历xxx项目案例 项目角色:大数据开发
项目架构:Flume+Kafka+Hive+SparkStreaming+HDFS+Hadoop+Sqoop+MySQL
项目描述:从不同维度来分析城市每个卡口,道路,区域的拥堵情况,流量分布情况,以及车辆行驶轨迹等, 将结果提供给交警部门使用。项目主要模块有天网搜索、稽查布控、智能研判、统计分析。
项目职责:
1、卡口数据清洗;2、负责车辆的黑名单功能,实时缉查布控;3、行车轨迹分析,描述出车辆的行驶轨迹。4、随机抽样,随机抽取 N 辆车的信息,采用分层抽样的思想保留数据特征;5、卡口道路转化率,即车辆行驶经过连续卡口的转化率;6、卡口监控,统计出各个区域卡口信息,以及卡口流量 topN 具体车辆信息;7、道路实时拥堵分析,实时报警。
技术实现:
1、道路卡口数据通过 Flume 实时传给消息队列 Kafka,Kafka 把消息传递给 SparkStreaming 进行清洗;2、使用 SparkStreaming 对从 Kafka 获取到的记录与黑名单的车牌号相匹配时进行微批处理,把对应卡口 的车牌号和记录的时间,放到设计好的 RowKey 中,并存放到 Hbase 数据库里面;3、通过对于数据的抽样处理,得到每辆车的列族,然后对于车辆进行按照时间 id 排序,通过 Sqoop 数据 迁移放到 Mysql 数据库里面;4、统计出各个车辆的行驶轨迹,根据车辆的行驶轨迹计算指定卡口的车辆数,得到各个卡口到另一个卡口 的车辆数后,统计对应的转化率;5、使用 SparkSQL 实现,自定义卡口车辆的统计函数,自定义添加散列字段的函数,设置开窗函数;6、通过 SparkStreaming 从 Kafka 获取实时数据,编写代码实现对道路拥堵的实时预警 ;7、将分析结果通过 Sqoop 导入 MySQL 供前台展示。时间:20xx.6-20xx.3 项目名称:幻主简历xxx项目案例 项目角色:大数据开发
项目架构:Nginx+Flume+Hadoop+Hive+Hbase+Sqoop+Mysql+Zookeeper
项目描述:通过分布式 Hadoop 集群处理网站产生的大量日志,分析出网站的流览量 PV、访客数 UV(包括 新访客数、新访客比例)、访问的IP数、跳出率、平均访问时长/访问页数、重点用户等 KPI 供网站管理者分 析网站使用。
项目职责:
1、负责网站的埋点设计;2、负责日志数据的采集;3、网站日志数据的数据清洗;4、对于新用户进行统计分析。5、对数据结果进行迁移;6、使用定时调度脚本自动处理。
技术实现:
1、通过 Java SDK 调用后台事件接口,被调用时立即触发埋点数据的请求发送到服务器;2、通过 Flume 采集 Nginx 服务器的 Log 到 HDFS 上面;3、读取 HDFS 上的数据,进行 IP 解析、浏览器信息解析、Log 日志解析,通过 Hive 进行数据清洗,进行 多维度的组合构建,并把清洗后的数据放到 HBase 中;4、使用 Hive 读取在 Hbase 上面的数据,收集各个维度的数据,利用外部表和 UDF 对数据进行分析;5、通过 Sqoop 把 Hive 分析的数据结果导入到 Mysql 中;6、使用 Crontab 实现以上步骤定时自动处理。自我评价
参与过多个项目开发,熟悉常见业务。能快速融入团队,善于和客户及领导同事沟通。思维逻辑能力强,思路清晰,学习能力强,能快速解决项目中遇到的问题。在工作中尽职尽责,对新技术有强烈的好奇心,乐于从事有挑战性的工作。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。