赞
踩
最近一年大数据火爆异常,各种培训班开课广告满天飞,很多做开发的朋友也想转到大数据这一行,在投递简历的时候进场被几个岗位搞迷糊,他们是大数据分析师,大数据研发工程师,大数据建模工程师,大数据挖掘工程师。我会根据前同事所在公司的相应岗位,列出岗位职责和要求,供大家借鉴。
职位描述:
负责数据接入、数据清洗、底层重构,业务主题建模等工作;
负责金融大数据整体的计算平台开发与应用;
计算机或相关专业本科以上学历;
有5年及以上大数据平台开发方面相关工作经验;
熟悉数据仓库和数据建模的相关技术细节,有编程经验,熟悉JAVA语言;熟悉SQL/Hadoop/Hive/Hbase/Spark等大数据工具
具有海量数据处理经验,或有互联网行业数据挖掘工作经验者优先;
有第三方支付或金融业务经历者优先考虑;
职位描述:
1、负责大数据系统的开发工作;
2、指导协助同事解决日常工作中的问题
3、对系统存在的问题进行跟踪和定位并及时解决;
4、严格执行工作计划,主动汇报并高效完成任务保证部门及个人工作目标实现。
1、计算机、软件工程等相关专业,本科及以上学历,具有3年及以上Java开发经验;1年及以上互联网或大数据分析工作经验优先;
2、 熟悉Hadoop或Spark生态相关技术,包括MapReduce、hdfs、Hive、Spark等,1个以上大数据平台项目实施经验; 熟悉Oracle或MySQL数据库技术;
3、具有BI系统的开发实施经验,能够独立开发设计数据仓库、ETL设计、Cube建模、OLAP开发、报表开发等;一定的应用系统分析与设计能力,有良好、规范的编程习惯和文档编写习惯;
4、有较强的学习能力,对技术有钻研精神,并有较高的热情,热衷于新技术、新理论、新开发实践的学习和实践。
职位描述:
工作年限:2年以上
1、负责hadoop/spark平台技术引进和推广,并能结合用户需求快速落地推广;
2、负责大数据分析需求设计和开发,包括数据集市、实时分析、数据展示等的开发,并交付生产,确保输出成果;
3、负责项目成果在公司内的推广应用、培训,以及对外对内合作交流,不断提升公司的技术和应用能力。
1、计算机科学、应用数学、物理学等相关专业,本科以上学历;
2、具有2年以上BI/报表相关工作经验,熟练掌握hadoop hive开发,有一定调优经验;
3、能熟练使用sqoop等作为etl工具,有tableau/qlikview开发经验;
4、有良好的口头和书面表达能力;
5、良好的结构化问题解决能力。
注:以上岗位要求国家统招学历,本科及以上学历需要有学位证书。
相同的大数据开发工程师职位在不同的互联网公司,岗位职责不一样,相应的岗位要求差异也比较大。不过,核心技能要求相近:
1. 熟悉hadoop集群
2. 熟悉hive
3. 熟悉Java
4. 有一定的BI开发经验
5. 善于沟通,善于分析(软技能,需要不断培养和提升)
以上应该是大数据开发岗位的基本要求。因此,在面试该岗位前,首先基础技能一定要满足,然后在看岗位职责中还有哪些其他技能要求。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。