首页 专利交易 科技果 科技人才 科技服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

基于改进的GPT2的Robot Framework框架测试用例自动生成方法及系统 

申请/专利权人:广东电网有限责任公司

申请日:2023-07-05

公开(公告)日:2023-10-03

公开(公告)号:CN116841893A

主分类号:G06F11/36

分类号:G06F11/36

优先权:

专利状态码:在审-实质审查的生效

法律状态:2023.10.24#实质审查的生效;2023.10.03#公开

摘要:本发明涉及一种基于改进的GPT2的RobotFramework框架测试用例自动生成方法及系统,对基于RobotFramework框架的Web应用测试用例脚本进行预处理,提取预处理后的测试用例脚本的数据构建训练数据集;构建改进的GPT2模型,使用已有大规模数据集对所述改进的GPT2模型进行预训练;基于训练数据集对得到的预训练的改进的GPT2模型进行微调;设计损失函数并计算损失并更新,得到训练好的改进的GPT2模型;将目标语句输入到部署好的改进的GPT2模型中通过自回归机制自动生成测试用例。本发明对GPT2模型进行改进,使用数据集训练改进的GPT2模型以在学习和理解脚本内在的测试逻辑的基础上自动生成新的测试用例脚本。

主权项:1.一种基于改进的GPT2的RobotFrameWork框架测试用例自动生成方法,其特征在于,包括以下步骤:步骤1:对基于RobotFramework框架的Web应用测试用例脚本进行预处理,提取预处理后的测试用例脚本作为训练数据集中的数据构建训练数据集;步骤2:构建改进的GPT2模型,使用已有大规模数据集对所述改进的GPT2模型进行预训练;所述改进的GPT2模型包括:使用BERT的Tokenizer的词向量编码层和基于LongTransformer改进的注意力机制模块的TransformerDecoder;带有BERT的Tokenizer的词向量编码层,能够更有效的将输入的测试用例脚本转化成词向量序列,使词向量序列包含更多的语义信息;基于LongTransformer改进的注意力机制模块的TransformerDecoder,能够提取更长的词向量序列的特征,具有更强的关联上下文能力;步骤3:基于步骤1得到的训练数据集对步骤2得到的预训练的改进的GPT2模型进行微调;设计损失函数并计算损失并更新,得到训练好的改进的GPT2模型;步骤4:将目标语句输入到部署好的改进的GPT2模型中通过自回归机制自动生成测试用例。

全文数据:

权利要求:

百度查询: 广东电网有限责任公司 基于改进的GPT2的Robot Framework框架测试用例自动生成方法及系统

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。