赞
踩
本模块内容为我们团队一位优秀的童鞋总结的,分享给各位参加比赛的同学们,如果有感兴趣的同学或者友友,可以微信搜索BI and BME理解更多内容。
上一期我从赛题的角度分析了比赛需要的技能,那么这次我将从上期的技能中并结合我的参赛经历推荐一个我认为合适的队员分工,以及在比赛时每个人需要干些什么。
一、人员分工任务
按照比赛要求,每个队伍可有1-3人,按照通常的方式,我将队伍人数假设为3人(队员1,队员2,队员3)
赛题内容 | 所需技能 | 负责人 |
搭建大数据环境 | Linux基本命令使用 | 队员1(主要负责)、队员2、队员3 |
MapReduce预处理与分析 | Java语言基础、MapReduce原理、HDFS在Java eclipse的使用 | 队员2 |
Hive数据仓库的使用 | SQL语言基础 | 队员3 |
数据可视化 | Python语言基础 | |
人工智能部分 | Tensorflow搭建 | 队员1(主要负责)、队员3 |
Python语言基础、机器学习、深度学习基础 | 队员3 | |
Spark大数据综合应用 | Scala语言基础、Spark项目运行 | 队员2 |
Spark SQL在Spark中的应用 | 队员3 |
大数据环境搭建每个人都需要会,这是基础技能。队员2,3在做题过程中也需要Linux一些命令的使用,并且前期练习也要在自己搭建好的平台上练习。队员1也要负责人工智能部分环境的搭建,队员3也要熟练搭建,前期练习也是在自己的电脑上练习。
队员2主要任务就是Mapreduce原理的java实现。同时,spark的应用也可以学习,scala语言的规律个人觉得类似于Java与Python融合,所以一个人负责此部分,可以更好的连贯。
队员3负责的内容多,但是难度不大,得分容易。但内容零碎。SparkSQL与Hive SQL类似,Python数据挖掘与可视化都对Python语言有要求,可以做到连贯操作。
二、比赛时做题顺序
1、网络赛
【所需设备】3个队员每个人自备一台笔记本电脑
【比赛环境】
队员1:准备三台已经安装好的Linux虚拟机,无需安装任何环境。比赛时会对虚拟机的节点名称有要求!
队员2:准备三台已经搭建好集群的Linux虚拟机,平时练习使用的Linux虚拟机可直接使用。
队员3:(1)准备三台已经搭建好集群的Linux虚拟机,平时练习使用的Linux虚拟机可直接使用。
(2)Windows已经搭建好的Python平台用于可视化,平时练习使用的可直接使用。
【做题顺序】
队员1:在准备好的并未搭建环境的虚拟机搭建环境并截图
队员2:直接利用已经准备好的环境做自己负责部分的题目,完成后截图
队员3:直接利用已经准备好的环境做自己负责部分的题目,完成后截图
在完成各自内容后将各自的答题卡内容汇总到一张答题卡上后上交。
2、现场赛
【所需设备】无,比赛官方准备电脑3台。
【比赛环境】三台电脑使用同一个账号登录平台网站,网站中记录有三台虚拟机的IP地址以及登录密码。三台机器有一台并未搭建环境(官方会说明),另外两台环境搭建完成。
队员1:在准备好的并未搭建环境的虚拟机搭建环境并截图
队员2:直接利用已经准备好的环境做自己负责部分的题目,完成后截图
队员3:直接利用已经准备好的环境做自己负责部分的题目,完成后截图
【做题顺序】
队员1:在准备好的虚拟机搭建环境并截图
队员2:直接利用已经准备好的环境做自己负责部分的题目,完成后截图
队员3:直接利用已经准备好的环境做自己负责部分的题目,完成后截图
在完成各自内容后将各自的答题卡内容汇总到一张答题卡上后上交。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。