前言
软件测试流程静下心来想想,自己一直以来都是用传统的测试思维来管理和执行测试,渐渐地感到力不从心,近半年来,一直在拼命挣扎尝试突破瓶颈,却未能如愿。心大眼窄,未来要走的路还很长很长,在此对先前的工作做一个总结,下一阶段重新出发。
笔者坚信,大多公司的测试团队依然遵循以上这套软件测试流程。但是,面对繁琐的流程,作为测试执行者或管理者的您,是否也和笔者一样为每阶段重复且枯燥的工作而苦恼。我们都清楚,测试执行人员的主要职责是业务功能的验证,但受限于“软件测试流程潜规则”,其不得不把大量时间花在更新用例执行结果、描述Bug、提交Bug、关注Bug流转、验证Bug等与版本质量守护无直接关联的工作上。而测试经理的主要职责是协调测试资源、监控测试进度、评估测试风险,但又不得不把时间花在提醒测试人员更新用例执行结果及置Bug状态等琐事上,另一方面,还得根据案例管理系统及缺陷系统的统计数据来整理测试报告。综上所言,测试效率低下在所难免,测试团队苦不堪言亦能理解。
该篇文章,笔者将致力于解决上述繁琐测试流程的痛点,提升团队测试效率,解放“流程潜规则”禁锢,让测试人员专注于业务验证,专注于质量守护。
"流程潜规则":
1、用例执行后,更新结果至案例管理系统。
2、发现Bug后,详细描述Bug,然后提交Bug并关联至案例管理系统。
3、Bug修复后,验证Bug并置状态。
4、提醒测试人员更新用例及Bug状态等。
5、统计各类数据并编写系统测试报告。
针对文章开头阐述的软件测试流程,笔者把测试团队成员划分为两大角色:测试经理和测试执行者。两者共同的目标是追求高质量的版本交付,自身关注点在于:
角色关注点
测试执行者关注点:需求分析、案例编写、数据准备、案例执行、缺陷提交、缺陷验证等。
测试经理关注点:组织案例评审、测试方案拟订、测试进度监控、测试环境搭建及资源协调、缺陷分析、风险评估、测试报告提交等。
首先,站在测试执行者的角度,我们试想一下是否有方法使自己的工作达到轻松加愉快的境地?比如:
1、批量执行用例。
2、用例执行后,结果自动更新案例管理系统。
3、执行失败的用例由测试人员确认后自动提交缺陷。
4、缺陷自动关联测试用例。
5、开发修复缺陷提交版本后,自动触发缺陷验证并置缺陷状态为关闭或不通过。
6、一键完成回归测试。
其次,站在测试经理的角度,我们希望达到的效果是:
1、拥有一个稳健的测试调度平台,每天进行质量监控
2、透明的测试进度
3、完善的风险评估机制
4、自动生成一份完美的测试报告
毫无疑问,解决以上问题,团队的测试效率必定会上升一个台阶,质量守护亦更有保障。接下来笔者将结合自身的经历和思考,谈谈传统的测试团队应如何建立和完善“一体化测试管理体系”。以最常见的接口测试为例,依赖Jmeter、Testlink、Jira、Jenkins、Git等工具,笔者将与诸位一同开启“一体化测试管理”的探索之旅。
一体化测试管理
一、半自动化体系
测试执行者专注于业务验证及脚本编写,案例执行结果更新、Bug描述、Bug提交、案例断言等工作由工具辅助完成。
半自动化测试体系
1、定义模板
测试用例模板测试数据模板
测试用例模板的“用例名称”、“用例编号”分别与测试数据模板的testPoint,caseNo字段对应。测试数据模板的preResult字段表示预期结果,YorN字段控制该条案例是否执行(Y表示执行),tableCheck字段用于控制是否做数据库断言(Y表示执行断言),其他字段为接口入参。
2、案例导入系统
测试用例编写完成后,使用Testlink小工具导入案例管理系统。
案例结构
用例结构分为4层,第一层为项目名,第二层为接口名称,第三层为用例集描述,第四层为具体用例。Tesltink系统的用例名称以caseNo_CaseName命名,方便关联测试脚本的用例,从而实现脚本执行结果同步Tesltink。
3、脚本执行结果及缺陷同步系统
对于执行不通过的案例,跳出缺陷提示框,由测试人员进行确认,其中“预期结果”、“实际结果”、“缺陷描述”、“响应报文”、“上送报文”字段可编辑,以便测试人员对缺陷进行更详细的描述。
测试人员确认缺陷-编辑缺陷描述
测试人员也可为缺陷添加附件,附件目录如下图所示。
缺陷附件目录
测试人员确认缺陷-添加bug附件
添加附件,并勾选缺陷后,既可自动提交缺陷至缺陷管理系统,同时同步案例执行结果至案例管理系统。
确认并提交缺陷
执行结果同步Tesltink
缺陷描述模板定制如下,方便开发分析及重现bug。
Jira缺陷描述【测试要点】
XXX
【预期结果】
XXX
【实际结果】
XXX
【缺陷描述】
XXX
【响应报文】
XXX
【上送报文】
XXX
Jira缺陷附件
用例执行结果描述模板如下,方便测试人员对用例进行分析和二轮评审。
Testlink执行结果【自动化预期结果】
XXX
【自动化实际结果】
XXX
【自动化断言结果】
XXX
【响应报文】
XXX
【上送报文】
XXX
提交缺陷及同步用例执行结果至(Jira,Testlink)系统的同时,亦自动把bug关联了对应的测试用例,以便后续进行缺陷分析。
Testlink缺陷统计
4、案例执行结果导出
使用小工具导出用例执行结果,用例执行结果模板如下图所示。
5、生成测试报告
依赖用例执行结果,使用小工具自动生成测试报告。测试报告部分内容如下所示。
二、自动化体系
1、缺陷自动验证
传统测试团队一般是根据Bug状态来驱动缺陷验证,比如开发集成版本后,将Bug状态置为“已集成”,测试人员收到通知后,对Bug进行验证,验证不通过则退回开发处理,置状态为“处理中”,验证通过则置状态为“关闭”。
换一种思路,咱们可以持续监控缺陷管理系统Bug状态,如果为“已集成”,则触发Bug关联的测试脚本进行验证,然后根据脚本执行结果自动更新Bug状态。当然,如果公司实施的是DevOps模式,则可根据开发代码更新来驱动Bug验证。
自动验证缺陷
2、一键回归测试,质量监控
还记得“半自动化体系”提到的测试脚本么?那不仅仅应用于手工测试,依赖Jenkins+Ant+Jmeter+Git+Testlink,咱们可以建立一套完整的持续集成体系,持续进行质量监控或回归测试。测试人员编写Jmx脚本并push到Git服务器,即可触发自动构建,并生成测试报告。当然也可以设置定时构建,每天进行质量监控。
持续集成体系g
三、性能测试平台
接口性能测试也是不少公司重点关注的,相比于Loadrunner,笔者更喜欢使用更轻便的Jmeter,依赖Jenkins+Ant+Git+Jmeter+telegraf+influxdb+Grafana,我们也很方便地搭建一套性能测试框架。当然,由于Jmeter是纯java应用,其对cpu和内存等损耗比较大,使用起来就仁者见仁了。
框架理念:测试人员专注于测试脚本编写,专注于性能结果分析。
实现方式:测试人员编写测试脚本后,push到Git服务器,触发自动构建,随后登录Grafana查看性能测试结果。
性能展现
结语
文章针对接口测试所阐述的“一体化测试管理体系”不一定适合每个团队,但是,“专注质量守护,专注效率提升”的理念却是每个团队努力追求的,希望笔者的经历和思考对各位同行有所启发。最后写下一句话,与诸位共勉:只有不断思考探索,才能发现工作中的不足并致力改进,从而提升效率。
网友评论