赞
踩
2022年江西省职业院校技能大赛
软件测试技能竞赛方案(高职组)
根据江西省教育厅《关于举办2022年江西省职业院校技能大赛的通知》(赣教职成字〔2022〕15号)文件精神,现举办2022年江西省职业院校技能大赛“软件测试”技能竞赛(高职组),为了确保竞赛工作顺利开展,特制定本竞赛方案。
一、比赛时间及地点
报名时间:2022年9月13日-2022年9月17日报到时间:2022年11月28日14:30-15:45
比赛时间:2022年11月29日
比赛地点:九江职业技术学院(濂溪校区)(九江市濂溪区前进东路881号)
二、比赛项目及形式
软件测试(团体赛,每组选手 2人)
三、参赛对象与组队原则
参赛选手须为普通高等学校全日制在籍专科学生,本科院校高职类全日制在籍学生可报名参加高职组比赛,五年制高职学生四、五年级参加高职组比赛。凡在往届全国职业院校技能大赛中获得一等奖的选手,不能再参加省赛同一项目同一组别的比赛。
本赛项为团体赛,不得跨校组队,每所参赛院校限报1队。如赛项只有3-5所参赛院校,每校可限报2队。
参赛队可配指导老师,指导老师须由本校实际指导选手训练的专、兼职教师担任,每队限报2名指导老师。
四、组织领导
主办单位:江西省教育厅
承办单位:九江职业技术学院
协办单位:江西师范大学职教师资培训基地
为保证比赛顺利进行,设立江西省职业院校技能大赛软件测试技能竞赛执行委员会和仲裁委员会。
赛项执委会构成如下:
主 任:曾青生 九江职业技术学院 校长
副主任:周贵忠 江西省高校师资培训中心常务副主任
(江西师范大学职教师资培训基地主任)卢致俊 九江职业技术学院 副校长
待 定 赛项裁判长
成 员:李良仁 九江职业技术学院 教务处处长张 丹 江西省高校师资培训中心副主任
(江西师范大学职教师资培训基地副主任)殷 侠 九江职业技术学院 信息工程学院院长
王 蓉 九江职业技术学院 电气工程学院院长
叶智彪 九江职业技术学院 教务处副处长
虞 芬 九江职业技术学院 信息工程学院副院长徐鲁宁 九江职业技术学院 电气工程学院副院长柯 茜 江西省高校师资培训中心干部
(江西师范大学职教师资培训基地)干部赛项仲裁委员会构成如下:
主 任:周贵忠
成 员:江西师范大学职教师资培训基地相关同志、九江职业技术学院纪委相关同志、赛项裁判组等
五、奖项设置
本赛项设一、二、三等奖,奖项设置按实际参赛队数四舍五入方法确定,其中:
一等奖 占参赛队数10二等奖 占参赛队数20三等奖 占参赛队数30
获赛项一、二、三等奖的选手,其指导老师获优秀指导老师奖,由大赛组委会颁发“优秀指导老师”奖。
六、竞赛规程
根据软件测试赛项规程,组织专家制定2022年江西省职业院校技能大赛软件测试技能竞赛规程(见附件1),对比赛进行公平、公正、公开的评判。
七、选手资格审查
承办单位对参赛选手的参赛条件进行统一身份核查(以学籍系统注册信息为准),对不符合参赛条件的选手将作出禁止参赛处理。参赛选手需提供以下证明材料:
《报名系统》打印)。
参赛证及其他证件查核后当场退回,复印件留查,对各代表队赛前报到时材料不符合要求或身份造假的选手将取消其参赛资格;赛后若发现参赛选手身份造假将收回证书并通报批评。
八、竞赛费用
省级竞赛不收取任何参赛费用。竞赛期间食宿自理,由承办学校统一安排,参加竞赛的学校领队、教师、学生差旅费、食宿费、交通费按标准回原单位报销。
比赛期间,各代表队须为每位参赛选手办理意外伤害险。
十、申诉与仲裁
附件1:2022年江西省职业院校技能大赛(高职组)软件测试 赛项规程
附件 1
2022 年江西省职业院校技能大赛 “软件测试”赛项(高职组)竞赛规程
一、赛项名称
赛项名称:软件测试赛项组别:高职组
赛项归属产业:电子信息大类
二、竞赛目的
(一)检验教学成效
本赛项竞赛内容以《国家职业教育改革实施方案》为设计方针,以电子信息产业发展的人才需求为依据,以软件测试岗位真实工作过程为载体,全面检验高等职业院校人才培养方案和用人单位岗位要求的匹配程度,检验学生的软件测试工程实践能力和创新能力,从而展现专业教学成效、人才培养成果。
(二)促进教学改革
本赛项按照行业企业软件测试岗位真实工作过程设计竞赛内容,促进教学过程与生产过程对接、课程内容与职业标准对接、专业设置与产业需求对接、学历证书与职业资格证书对接,最大限度匹配与适应人才培养供给侧和产业需求侧。通过“以赛促学、以赛促教、以赛促改、以赛促建”,持续推进专业目录、专业教学标准、课程标准、顶岗实习标准、实训条件建设标准建设,从而提高人才培养的针对性、有效性和专业建设水平。
(三)向世界高水平看齐
本赛项紧跟软件测试行业企业发展趋势,瞄准软件测试国际发展水平,参考国际技术技能标准,借鉴世界技能大赛办赛机制,全面对标世界技能大赛电子信息类赛项技术工作内容组织方式,通过大赛让参赛选手经历完整工作过程。瞄准世界最高技能水平,选拨具有大国工匠素质的技术技能人才。
(四)营造崇尚技能氛围
职业技能竞赛是培养和选拔技能人才的重要途径,是激励广大职工和青年学习技能、钻研技术、展示“工匠精神”的大舞台。通过本赛项,引导全社会尊重、重视、关心技能人才的培养和成长,让尊重劳动、尊重技术、尊重创新成为社会共识,在全社会倡导“崇实尚业”之风,营造尊敬技能人才的社会氛围,激励广大职工和青年走技能成才、技能报国之路,为国家高质量发展添砖加瓦。
三、竞赛内容
竞赛以“资产管理系统”为被测对象,采用实际操作形式,完成软件测试工作。竞赛突出实战过程,既满足软件产业对高素质技能人才的需求特点,又符合高等职业院校基于工作过程的课程教学特点。比赛围绕软件测试应用领域的主流技术及应用,考察选手面对实际问题的综合分析能力,对测试用例、测试方法的设计能力,对软件测试相关技术的掌握程度。考核内容包括:环境搭建及系统部署;测试计划制定、测试总结报告编写;测试用例设计、测试执行和提交 Bug、;自动化测试要求分析、测试工具使用、代码编写和测试执行;性能测试要求分析、测试工具使用、测试执行;单元测试要求分析、编写应用程序、设计测试数据并得出测试结果;接口测试要求分析、测试工具使用和测试执行;团队合作能力以及应用创新能力等职业素养。
竞赛过程包括以下任务:
序号 | 内容模块 | 具体内容 | 说明 |
任务一 | 环境搭建及系统部署 | 根据软件测试 竞赛项目需求,搭建与配置测 试环境,安装与 部署应用系统 | 能搭建与配置 JDK、Tomcat 等环境; 能安装与部署应用系统及在 Windows 下浏览器正确访问。 |
任务二 | 单元测试 | 根据单元测试 的要求,执行单元测试 | 根据单元测试要求,编写应用程序、设计测试 数据,考查语句、判定、条件、判定条件、条件组合基本路径等覆盖方法,并得出测试结果。 |
任务三 | 设计测试文档 | 根据软件测试竞赛项目需求,制定功能测试计划文档、编写功能测试总结报告文档 | 功能测试计划: 能够根据需求文档进行需求理解和分析;功能测试范围划分和界定; 功能测试任务分解; 对功能测试难度进行预估; 能够对功能测试工作量和进度进行预估。功能测试总结报告: 能使用典型测试方法进行功能测试用例设计;对功能测试用例的输入、预计输出、实际输出等规范描述。 文档编写规范等。 |
任务四 | 设计功能测试用例 | 根据软件测试竞赛项目需求,设计功能测试用例 | 能使用典型测试方法进行功能测试用例设计。对功能测试用例的输入、预计输出、实际输出等规范描述。 文档编写规范等。 |
执行功能测试用例 | 执行功能测试用例,提交缺陷报告 | 根据功能测试用例进行测试,发现并记录 Bug。对 Bug 描述、输入、预计输出、实际输出等规范描述,并对 Bug 截图。 文档编写规范等。 | |
任务五 | 自动化测试 | 根据软件自动化测试的要求,编写并执行自动化测试脚本 | 根据自动化测试要求,考查自动化测试理论知识、浏览器基本操作、页面元素进行识别并定位、Selenium 基本方法使用、Unittest 框架、数据驱动、数据断言等,以及自动化测试脚本编写,执行自动化测试脚本。 |
任务六 | 性能测试 | 根据软件性能测试的要求,执行性能测试 | 根据性能测试要求分析性能测试的压力点,使用性能测试工具(JMeter 及 LoadRunner),添加脚本,设置场景,执行性能测试,截取过程及结果截图。 |
任务七 | 接口测试 | 根据软件接口测试的要求,执行接口测试 | 根据接口测试要求,使用接口测试工具,考查 HTTP、JSON、参数设置、变量设置、数据断言、数据驱动等,执行接口测试,截取过程及结果截图。 |
竞赛各任务分值权重和时间分布如下:
序号 | 任务名称 | 竞赛时间 |
任务一 | 环境搭建及系统部署,权重 3% | 480 分钟 |
任务二 | 单元测试,权重 10% | |
任务三 | 设计测试文档,权重 10% | |
任务四 | 设计测试用例,权重 15% | |
执行测试用例,权重 15% | ||
任务五 | 自动化测试,权重 20% | |
任务六 | 性能测试,权重 20% | |
任务七 | 接口测试,权重 5% | |
职业素养,权重 2% |
四、竞赛方式
师须为本校专兼职教师,每队限报 2 名指导教师,竞赛期间不允许指导教师进入赛场进行现场指导。参赛选手和指导教师报名获得确认后不得随意更换。
五、竞赛流程
根据竞赛任务要求,参赛队伍在 480 分钟竞赛时间内完成规定的各项任务,每项任务用时自行掌握。
(一)竞赛时间安排
日期 | 时间 | 内容 |
11 月 28 日 | 14:30-15:45 | 各参赛队报到 |
16:00-16:30 | 开赛仪式、 | |
16:30-17:30 | 领队会、赛前说明 |
16:30-17:00 | 选手熟悉赛场 | |
17:00-18:00 | 现场裁判赛前检查,封闭赛场 | |
11 月 29 | 07:00-07:30 | 赛场检录 |
07:30-08:00 | 信息加密,竞赛选手入场等候 | |
08:00-16:00 | 竞赛选手完成竞赛任务(含午餐) | |
17:00-23:00 | 成绩评定与复核 |
(二)竞赛流程
协办单位委托专家工作组负责本赛项赛题的编制工作,遵从公开、公平、公正原则,命题专家需与协办单位签订保密协议。赛项的赛卷、技术参数方案的印制、装订和保密工作由协办单位指定专人负责。竞赛结束后,对竞赛竞赛用的所有材料,如赛卷、成绩评定过程材料等进行回收,再核对赛卷份数后,赛卷、答卷及竞赛作品由赛项承办单位就地封存,妥善保管,未经大赛执委会授权任何人不得随意查阅,所有材料的有效追溯期为三年。
本赛项样题详见附件。
七、竞赛规则
八、竞赛环境
九、技术规范
参赛代表队在实施竞赛项目时要求遵循如下规范:
序号 | 标准号 | 中文标准名称 |
1 | GB/T15532—2008 | 计算机软件测试规范 |
2 | GB/T16260—2006 | 软件工程 产品质量 |
3 | GB/T9385—2008 | 计算机软件需求规格说明规范 |
4 | GB/T18905—2002 | 软件工程 产品评价 |
5 | GB/T8567-2006 | 计算机软件文档编制规范 |
6 | GB/T25000.1-2010 | 软件质量要求与评价(SQuaRE)指南 |
7 | GB/T25000.10-2016 | 软件质量要求与评价(SQuaRE)第 10 部分:系统与软件质量模型 |
8 | GB/T25000.51-2016 | 软件质量要求与评价(SQuaRE)第 51 部分:商业现货 (COTS)软件产品的质量要求与评测细则 |
9 | GB/T25000.62-2014 | 软件质量要求与评价(SQuaRE)易用性测试报告行业通用格式(CIF) |
十、技术平台
赛项采用国赛技术支持方—北京四合天地科技有限公司提供的设备及技术支持服务。
(一)竞赛设备
设备类别 | 数量 | 设备用途 | 基本配置 |
1 套功能自动化测试服务器, | |||
服务器 | 每支参赛队 2 套 | 内嵌软件测试实训系统、功能 测试被测系统、自动化测试被测系统;1 套性能测试服务 | 性能相当于 2.0GHZ 处理器,4G 及以上内存。 |
器,内嵌性能测试被测系统。 | |||
客户端 | 每支参赛队 3 台 | 竞赛选手比赛使用。 | 性能相当于 2.0GHZ处理器,4G 及以上内 存。 |
(二)竞赛软件平台
《四合天地软件测试实训系统》。
(三)相关软件
设备类别 | 软件类别 | 软件名称 |
服务器 | 操作系统 | Ubuntu |
操作系统 | Windows10 64 位 | |
浏览器 | Chrome 67 | |
IE11 | ||
浏览器驱动 | Chrome 67 对应驱动-Chromedriver | |
文档编辑器 | WPS | |
截图工具 | Windows10 系统自带 | |
输入法 | 搜狗拼音输入法、搜狗五笔输入法 | |
Virtual Box-6.1.18-142142-Win.exe | ||
环境搭建及系 | Cent OS-7-x86_64-DVD-1810.iso | |
统部署 | JDK-8u271-linux-x64.tar.gz | |
apache-tomcat-8.5.63.tar.gz | ||
客户端自带软件 | 单元测试工具 环境 | JDK-8u172-windows-x64 |
Apache-JMeter-5.3 | ||
FiddlerSetup | ||
性能测试工具 | JDK-8u172-windows-x64 npp.7.9.2.Installer.exe | |
LoadRunner12.55_Community_Edition 英文版及 | ||
以上 | ||
Python-3.5.0-amd64 | ||
自动化测试工 | Selenium 版本 3.141.0 | |
具环境 | ddt 版本 1.4.1 | |
PyCharm(2017.1.1) | ||
接口测试工具 | Postman-win64-6.6.1-Setup | |
环境 |
十一、成绩评定
(一)评分细则(总分 100 分)
任 务 | 考查点 | 评分标准 | 评分细则 | 分值(分) |
任务一 | 环境搭建及系统布署 | 环境搭建及系统部署包括搭建与配置测试环境,安装与部署应用系统等,对 完成环境搭建及系统部署指令及步骤进行考核。 | JDK 安装、JDK 环境变量配置及查看 JDK 版本信息指令操作 | 3 |
Tomcat 的安装、Web 应用系统 部署及在 Windows 下浏览器访问操作 | ||||
任 | 单元测 | 按照要求编写 Java 程序, | 程序完整、清晰、正确性 | 10 |
务二 | 试执行 | 设计测试用例,执行单元测试,编写单元测试报告。 | 测试数据合理、完整性 | |
截图内容完整、清晰,结果正确性 | ||||
任务三 | 设计测试文档 | 功能测试计划应包括测试 目的、测试范围、测试人员、测试环境、测试人员进度安排与模块划分等。 主要评分点包括明确测试范围、合理并完备的进行任务分配、制定有效完备的测试策略等。 | 1.概述说明清晰。 | 5 |
2.测试任务说明清晰。 | ||||
3.测试资源说明清晰。 | ||||
4.功能测试计划列出全部功能 点。 | ||||
5.对每个功能点进行分工。 | ||||
6.功能点的测试分工合理。 | ||||
7.测试整体进度安排说明清晰。 | ||||
8.相关风险说明清晰。 | ||||
功能测试总结报告应包括测试目的、测试环境、测试人员、测试进度情况、Bug汇总、测试结论等。 主要评分点包括:测试总结报告内容完整。 | 1.测试概述、测试参考文档、项目组成员、测试设计介绍填写完 整。 | 5 | ||
2.用例汇总填写完整。 | ||||
3.测试进度回顾填写完整。 | ||||
4.功能测试回顾描述清晰合理。 | ||||
5.缺陷汇总填写完整。 | ||||
6.测试结论描述清晰合理。 | ||||
任务四 | 设计功能测试用例 | 测试用例包括功能测试用 例。测试用例文档应包括:测试用例编号、功能点、用例说明、前置条件、输入、执行步骤、预期结果、重要程度。 | 1.用例数量。每写一条规范的测试用例得分=4/用例数量(不能有重复的测试用例,编写要符合 需求且正确)。 | 15 |
2.重点测试用例数量。每发现 1个得分=10/重点测试用例数量 (不能有重复的测试用例,编写 要符合需求且正确)。 | ||||
3.测试用例编写符合测试用例 规范。 | ||||
执行功能测试用例 | Bug 提交包括功能缺陷等。 Bug 提交文档应包括缺陷 编号、角色、模块名称、摘要描述、操作步骤、预期结果、实际结果、缺陷严重程度、提交人、截图等。 | 1.Bug 数量。每发现一个 Bug 得分=4/Bug 数量(Bug 描述要规范 且正确,重复的 Bug 不计入 Bug数量)。 | 15 | |
2.重点 Bug 数量。每发现一个重点 Bug 得分=10/重点 Bug 数量 (Bug 描述要规范且正确,重复 |
的 Bug 不计入 Bug 数量)。 | ||||
3.测试 Bug 缺陷报告清单编写 符合规范,每一项均需要填写, 否则得 0 分。 | ||||
任务五 | 自动化测试执行 | 自动化测试执行包括自动化测试脚本编写,执行自动化测试脚本,完成自动化测 试总结报告。 | 1.术语定义描述清晰 | 20 |
2.自动化测试脚本代码正确性。 | ||||
任务六 | 性能测试执行 | 性能测试执行包括使用性能测试工具,添加脚本、回放脚本、配置参数、设置场景、执行性能测试,对测试过程和结果进行截图,完成 性能测试报告。 | 1.术语定义描述清晰。 | 20 |
2.测试策略描述清晰。 | ||||
3.性能测试实施过程执行截图 正确性。 | ||||
4.执行结果填写完整。 | ||||
任务七 | 接口测试执行 | 接口测试执行包括使用接口测试工具进行设置,对测试过程和结果进行截图,完 成接口测试总结报告。 | 1.术语定义描述清晰。 | 5 |
2.接口测试实施过程执行截图正确性。 | ||||
职业素养 | 竞赛现场符合企业“5S”(整理、整顿、清扫、清洁和素养)原则, | 1.团队分工明确合理。 | 2 | |
2.操作规范。 | ||||
3.文明竞赛。 |
(二)组织分工
(三)评分方法
十二、奖项设定
竞赛设团体奖。竞赛奖以实际参赛队数为基数,设定为:一等奖占比 10%,二等奖占比 20%,三等奖占比 30%,小数点后四舍五入。
获得一、二、三等奖的参赛队指导教师获“优秀指导教师奖”。
十三、赛项预案
赛场备用工位:赛场提供占总参赛队伍 10%的备用工位。
竞赛系统可靠性:竞赛系统使用的服务器应进行冗余,数据库、存储应使用高可用架构。提前开始运行,经过多次压力测试,由学校组织的真实竞赛环境测试。
竞赛备用服务器:现场提供占总参赛队伍 10%的备用服务器。现场应急预案详情,如下:
(一)服务器问题预案
若服务器在比赛过程中出现卡顿、死机等情况,参赛选手举手示意裁判,在裁判与技术支持人员确定情况后,可更换服务器。更换服务器的等待时间,可在比赛结束后延时。
(二)交换机问题预案
若交换机在比赛过程中出现传输速度慢或无故中断等情况,参赛选手举手示意裁判,在裁判与技术支持人员确定情况后,可更换交换机。更换交换机的等待时间,可在比赛结束后延时。
(三)PC 机问题预案
若PC 机在比赛过程中出现死机、蓝屏等现象(重启后无法解决),参赛选手举手示意裁判,在裁判与技术支持人员确定情况后,可更换备用工位或更换PC 机进行答题。
十四、赛项安全
赛场严格按照国家防疫措施执行,以对应突发情况发生。
赛事安全是技能竞赛一切工作顺利开展的先决条件,是赛事筹备和运行工作必须考虑的核心问题。采取切实有效措施保证大赛期间参赛选手、指导教师、裁判员、工作人员及观众的人身安全。
(一)比赛环境
地,防止无关人员进入发生意外事件。比赛现场内应参照相关职业岗位的要求为选手提供必要的劳动保护。在具有危险性的操作环节,裁判员要严防选手出现错误操作。
(二)生活条件
遵守国家相关法律法规,保护个人隐私和人身自由。
(三)组队责任
(四)应急处理
比赛期间发生意外事故时,发现者应在第一时间报告,同时采取措施,避免事态扩大。立即启动预案予以解决。出现重大安全问题的赛项可以停赛,是否停赛由大赛执委会决定。事后,承办校应向大赛执委会报告详细情况。
(五)处罚措施
十五、竞赛须知
(一)参赛队须知
(二)指导教师须知
(三)参赛选手须知
素养)的原则,如果过于脏乱,裁判员有权酌情扣分。
(四)工作人员须知
九江职业技术学院(承办单位)
江西师范大学职教师资培训基地(协办单位) 2022 年 8 月
附件:
2022 年江西省职业院校技能大赛 “软件测试”赛项高职组
竞赛任务书
(样卷)
2022 年 8 月
一、竞赛时间、内容及成绩组成
(一)竞赛时间
本次竞赛时间共为 8 小时,参赛选手自行安排任务进度,休息、饮水、如厕等不设专门用时,统一含在竞赛时间内。
(二)竞赛内容
本次竞赛考核技能点包括:环境搭建及系统部署;测试计划制定、测试总结报告编写;功能测试用例设计、功能测试执行和提交 Bug;自动化测试要求分析、测试工具使用、代码编写和测试执行;性能测试要求分析、测试工具使用、测试执行;单元测试要求分析、编写应用程序、设计测试数据并得出测试结果;接口测试要求分析、测试工具使用和测试执行;团队合作能力以及应用创新能力等职业素养。
(三)竞赛成绩组成
“软件测试”赛项竞赛成绩为 100 分,其中职业素养占 2 分,竞赛任务占 98 分。各项竞赛任务占总分权重如下:
序号 | 竞赛任务名称及占总分权重 |
任务一 | 环境搭建及系统部署,权重 3% |
任务二 | 单元测试,权重 10% |
任务三 | 设计测试文档,权重 10% |
任务四 | 设计测试用例,权重 15% |
执行测试用例,权重 15% | |
任务五 | 自动化测试,权重 20% |
任务六 | 性能测试,权重 20% |
任务七 | 接口测试,权重 5% |
职业素养,权重 2% |
二、竞赛须知
1、本次竞赛平台地址、用户名及密码,功能测试被测系统地址、用户名及密码,自动化测试被测系统地址、用户名及密码,性能测试被测系统地址、用户名及密码,以竞赛现场发放为准;
2、本次竞赛提交的所有成果物及 U 盘中不能出现参赛队信息和参赛选手信息,竞赛文档需要填写参赛队及参赛选手信息时以工位号代替;
3、本次竞赛提交的U 盘中只能保存竞赛成果文档,与竞赛成果无关的文件均不能出现在此 U 盘中;
4、请不要擅自更改竞赛环境(包括强行关闭竞赛服务器),对于擅自更改竞赛环境所造成的后果,由参赛选手自行承担,对于恶意破坏竞赛环境的参赛选手,根据大赛制度予以处理;
5、环境搭建及系统部署严格按照《A1-环境搭建及系统部署要求》执行,擅自修改参数或破坏安装环境而造成问题,后果由参赛选手自行承担;
6、单元测试过程中,参赛选手对JDK 所含内容及其在系统中的路径设置擅自进行删除、修改,造成程序无法编译、运行的后果,由参赛选手自行承担;
7、自动化测试严格按照《A10-BS 资产管理系统自动化测试要求》编写自动化测试脚本,擅自恶意编写无限循环或破坏环境脚本造成系统死机或软件出现问题,后果由参赛选手自行承担;
8、性能测试请严格按照《A12-BS 资产管理系统性能测试要求》设置并发数量和执行时间,擅自提高并发数量和延长执行时间造成的后果由参赛选手自行承担;
9、性能测试过程中,参赛选手可根据需要重置数据库或者重启 Tomcat服务。重置数据库后数据恢复到开赛初始状态,此结果由参赛选手自行承 担(严禁使用 JMeter、LoadRunner 访问性能测试-重置数据库和重启Tomcat服务地址)。重置数据库和重启 Tomcat 服务的动作以服务器日志记录为准。重置数据库或者重启 Tomcat 服务不设专门用时(包括现场技术支持),统一含在竞赛时间内;
10、竞赛过程中及时保存相关文档;
11、竞赛结束后请竞赛选手不要关闭竞赛设备,由于竞赛选手关闭竞赛设备造成的数据丢失等后果由参赛选手自行承担;
12、竞赛中出现各种问题请及时向现场裁判举手示意,若出现问题后自行进行任何操作而导致问题原因无法定位,后果由参赛选手自行承担。
三、任务说明
(一)竞赛环境
竞赛环境由服务器A、服务器B、客户机 1、客户机 2、客户机 3 组成。服务器部署说明:服务器A 中部署竞赛平台(下载文档,上传文档)、
功能测试被测系统、自动化测试被测系统,服务器B 中部署性能测试被测系统。
服务器部署说明:客户机 1 已安装JDK、PostMan、WPS 相关环境;客 户机 2 已安装 JDK、PyCharm、WPS 相关环境;客户机 3 已安装LoadRunner、 JMeter、WPS 等相关环境。
客户机访问限制说明:客户机1只可访问竞赛平台、功能测试被测系统,客户机2只可访问自动化测试被测系统,客户机3只可访问性能测试被测系统。
竞赛相关文档可在客户机 1 上访问竞赛平台下载以及上传;任务一、二、三、四可在客户机 1、2、3 上进行;任务五可在客户机 2 上进行;任务六可在客户机 3 上进行;任务七在客户机 1 上进行。
(二)竞赛任务文档
序号 | 文档名 | 文档下载位置 |
1 | A1-环境搭建及系统部署要求.doc | 竞赛平台 |
2 | A2-环境搭建及系统部署报告模板.doc | |
3 | A3-单元测试要求.doc | |
4 | A4-单元测试报告模板.doc | |
5 | A5-BS 资产管理系统需求说明书.doc | |
6 | A6-功能测试计划模板.doc | |
7 | A7-功能测试总结报告模板.doc | |
8 | A8-功能测试用例模板.xls | |
9 | A9-功能测试 Bug 缺陷报告清单模板.xls | |
10 | A10-BS 资产管理系统自动化测试要求.doc | |
11 | A11-自动化测试报告模板.doc | |
12 | A12-BS 资产管理系统性能测试要求.do |
13 | A13-性能测试报告模板.doc | |
14 | A14-BS 资产管理系统接口测试要求.doc | |
15 | A15-接口测试报告模板.doc |
(三)任务组成
任务一:环境搭建及系统部署(2 分) 1、任务描述
根据《A1-环境搭建及系统部署要求》文档,完成 JDK、Tomcat 等测试环境搭建与配置。按照《A2-环境搭建及系统部署报告模板》完成环境搭建及系统部署报告文档。
2、任务要求
环境搭建及系统部署报告文档应包括以下内容:
3、任务成果
1、任务描述
根据《A3-单元测试要求》文档执行代码走查,进行Java 应用程序的编写,源程序文件名构成规则为:bhcs_XX_YY.java(XX 为工位号,YY 为题顺序号),然后在命令行状态下执行命令,完成编译和程序运行,设计测试数据并对输入的测试数据和运行结果进行界面截图;按照《A4-单元测试报告模板》完成单元测试报告文档。
2、任务要求
单元测试报告文档应包括以下内容:
3、任务成果
(1)XX-A4-单元测试报告.doc(XX 代表工位号)
(2)所有生成的.class 文件
任务三:设计测试文档(10 分) 1、制定测试计划(5 分)
根据《A5-BS 资产管理系统需求说明书》进行需求分析,划分和界定测试范围,分解测试任务,预估测试风险、测试工作量和测试进度。按照《A6-功能测试计划模板》完成功能测试计划文档。
功能测试计划文档应包括以下内容: 1)测试概述:编写目的、项目背景。
2)测试任务:测试目的、测试参考文档、测试范围、测试提交文档。
(3)任务成果
根据功能测试情况,按照《A7-功能测试总结报告模版》完成功能测试总结报告文档。
功能测试总结报告文档应包括以下内容: 1)测试概述:编写目的、项目背景。
1、设计功能测试用例(15 分)
根据《A5-BS 资产管理系统需求说明书》和测试计划进行需求分析,理解业务功能,设计功能测试用例。按照《A8-功能测试用例模板》完成功能测试用例文档。
功能测试用例文档应包括以下内容: 1)按模块汇总功能测试用例数量。
2)功能测试用例应包含以下项目:测试用例编号、功能点、用例说明、前置条件、输入、执行步骤、预期输出、重要程度、执行用例测试结果。
根据《A5-BS 资产管理系统需求说明书》和功能测试用例,执行功能测试,发现Bug、记录Bug 并对Bug 截图。按照《A9-功能测试Bug 缺陷报告清单模板》完成功能测试Bug 缺陷报告清单文档。
①按模块和Bug 严重程度汇总Bug 数量;
②Bug 缺陷报告清单应包含以下项目:缺陷编号、角色、模块名称、摘要描述、操作步骤、预期结果、实际结果、缺陷严重程度、提交人(工 位号)、附件说明(截图)。
①使用谷歌浏览器(Chrome)执行 Web 端功能测试(含界面测试);
1、任务描述
根据《A10-BS 资产管理系统自动化测试要求》文档,对页面元素进行识别和定位、编写自动化测试脚本并执行脚本,将脚本粘贴在自动化测试报告中。按照《A11-自动化测试报告模板》完成自动化测试报告文档。
2、任务要求
①简介:目的、术语定义。
②自动化测试脚本编写:第一题脚本、第二题脚本、第三题脚本、第四题脚本。
使用 2 号客户机上安装的PyCharm 作为编写自动化测试脚本工具,使用Chrome 浏览器执行自动化测试。
注意:运行自动化测试脚本过程中,出现报错(网址输入错误、定位元素没有找到等原因),属于脚本编写错误,请自行调整;
在PyCharm 中编写自动化测试脚本时对于单引号、双引号、括号和点要在英文状态下进行编写;
在将自动化测试脚本粘贴到自动化测试报告时要和在PyCharm 中的脚本格式保持一致,同时在粘贴时不要出现将所有代码粘贴在一行中或出现空行情况。
3、任务成果
1、任务描述
根据《A12-BS 资产管理系统性能测试要求》文档,使用性能测试工具添加脚本、回放脚本、配置参数、设置场景、执行性能测试,对测试过程 和结果进行截图。按照《A13-性能测试报告模板》完成性能测试报告文档。
2、任务要求
①简介:目的、术语定义。
②测试策略:测试方法、用例设计、测试场景。
③性能测试实施过程:性能测试脚本设计、性能测试场景设计与场景执行、性能测试结果。
④执行结果。
使用 3 号客户机 上安装的JMeter、LoadRunner 作为性能测试工具,使用IE11 浏览器执行性能测试。
注意:性能测试过程中,出现录制失败、回放失败、脚本执行失败、白屏、500 错等情况,属于性能测试工具使用或配置错误,请调试。
3、任务成果
XX-A13-性能测试报告.doc(XX 代表工位号)任务七:接口测试(5 分)
1、任务描述
根据《A14-BS 资产管理系统接口测试要求》,使用接口测试工具进行发送请求、变量设置等内容,对测试过程和结果进行截图。按照《A15-接口测试报告模板》完成接口测试报告文档。
2.任务要求
①简介:目的、术语定义。
②接口测试实施过程。
③执行结果。
使用 1 号客户机上安装的Postman 作为接口测试工具。 3.任务成果
XX-A15-接口测试报告.doc(XX 代表工位号)
四、竞赛结果提交
1、提交方式
任务成果文档需同时在竞赛平台和U 盘中进行提交(所有文档在竞赛平台和 U 盘中不得以压缩包形式提交),如果竞赛平台和U 盘中提交的文档内容不一致,以U 盘为准。提交前请按照竞赛提交文档检查表进行检查。在U 盘中以XX 工位号建一个文件夹(例如 01),将所有竞赛成果文档保存至该文件夹中,不按照要求命名后果自行承担。
注意:要求使用谷歌浏览器(Chrome)访问竞赛平台。 2、文档要求
竞赛提交的所有文档中不能出现参赛队信息和参赛选手信息,竞赛文档需要填写参赛队信息时以工位号代替(XX 代表工位号),竞赛文档需要填写参赛选手信息时以工位号和参数选手编号代替(举例:21_03,21 代表工位号,03 代表 3 号参赛选手)。
3、竞赛提交文档检查表
序号 | 文档名(XX 代表工位号) | 提交方式 |
1 | XX-A2-环境搭建及系统部署报告.doc | 竞赛平台和 U 盘 |
2 | XX-A4-单元测试报告.doc | 竞赛平台和 U 盘 |
3 | XX-A6-功能测试计划.doc | 竞赛平台和 U 盘 |
4 | XX-A7-功能测试总结报告.doc | 竞赛平台和 U 盘 |
5 | XX-A8-功能测试用例.xls | 竞赛平台和 U 盘 |
6 | XX-A9-功能测试 Bug 缺陷报告清单.xls | 竞赛平台和 U 盘 |
7 | XX-A11-自动化测试报告.doc | 竞赛平台和 U 盘 |
8 | XX-A13-性能测试报告.doc | 竞赛平台和 U 盘 |
9 | XX-A15-接口测试报告.doc | 竞赛平台和 U 盘 |
10 | 所有生成的.class 文件 | U 盘 |
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。