当前位置:   article > 正文

安徽省大数据与人工智能竞赛经验分享-4【从赛题角度看人员分工】_安徽省大数据技术与应用技能大赛实操是个人吗

安徽省大数据技术与应用技能大赛实操是个人吗
  • 写在前面

        本模块内容为我们团队一位优秀的童鞋总结的,分享给各位参加比赛的同学们,如果有感兴趣的同学或者友友,可以微信搜索BI and BME理解更多内容。

         上一期我从赛题的角度分析了比赛需要的技能,那么这次我将从上期的技能中并结合我的参赛经历推荐一个我认为合适的队员分工,以及在比赛时每个人需要干些什么。

一、人员分工任务

          按照比赛要求,每个队伍可有1-3人,按照通常的方式,我将队伍人数假设为3人(队员1,队员2,队员3)

赛题内容所需技能负责人
搭建大数据环境Linux基本命令使用队员1(主要负责)、队员2、队员3
MapReduce预处理与分析Java语言基础、MapReduce原理、HDFS在Java eclipse的使用队员2
Hive数据仓库的使用SQL语言基础队员3
数据可视化Python语言基础
人工智能部分Tensorflow搭建队员1(主要负责)、队员3
Python语言基础、机器学习、深度学习基础队员3
Spark大数据综合应用Scala语言基础、Spark项目运行队员2
Spark SQL在Spark中的应用队员3

           大数据环境搭建每个人都需要会,这是基础技能。队员2,3在做题过程中也需要Linux一些命令的使用,并且前期练习也要在自己搭建好的平台上练习。队员1也要负责人工智能部分环境的搭建,队员3也要熟练搭建,前期练习也是在自己的电脑上练习。

           队员2主要任务就是Mapreduce原理的java实现。同时,spark的应用也可以学习,scala语言的规律个人觉得类似于Java与Python融合,所以一个人负责此部分,可以更好的连贯。

           队员3负责的内容多,但是难度不大,得分容易。但内容零碎。SparkSQL与Hive SQL类似,Python数据挖掘与可视化都对Python语言有要求,可以做到连贯操作。

二、比赛时做题顺序

 1、网络赛

      【所需设备】3个队员每个人自备一台笔记本电脑

      【比赛环境】

        队员1:准备三台已经安装好的Linux虚拟机,无需安装任何环境。比赛时会对虚拟机的节点名称有要求!

        队员2:准备三台已经搭建好集群的Linux虚拟机,平时练习使用的Linux虚拟机可直接使用。

        队员3:(1)准备三台已经搭建好集群的Linux虚拟机,平时练习使用的Linux虚拟机可直接使用。

                     (2)Windows已经搭建好的Python平台用于可视化,平时练习使用的可直接使用

      【做题顺序】

        队员1:在准备好的并未搭建环境的虚拟机搭建环境并截图

        队员2:直接利用已经准备好的环境做自己负责部分的题目,完成后截图

        队员3:直接利用已经准备好的环境做自己负责部分的题目,完成后截图

         在完成各自内容后将各自的答题卡内容汇总到一张答题卡上后上交。

2、现场赛

       【所需设备】无,比赛官方准备电脑3台。

       【比赛环境】三台电脑使用同一个账号登录平台网站,网站中记录有三台虚拟机的IP地址以及登录密码。三台机器有一台并未搭建环境(官方会说明),另外两台环境搭建完成。

        队员1:在准备好的并未搭建环境的虚拟机搭建环境并截图

        队员2:直接利用已经准备好的环境做自己负责部分的题目,完成后截图

        队员3:直接利用已经准备好的环境做自己负责部分的题目,完成后截图

【做题顺序】

        队员1:在准备好的虚拟机搭建环境并截图

        队员2:直接利用已经准备好的环境做自己负责部分的题目,完成后截图

        队员3:直接利用已经准备好的环境做自己负责部分的题目,完成后截图

        在完成各自内容后将各自的答题卡内容汇总到一张答题卡上后上交。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/不正经/article/detail/375610
推荐阅读
相关标签
  

闽ICP备14008679号