买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
申请/专利权人:天津大学;中国电力科学研究院有限公司;国网黑龙江省电力有限公司电力科学研究院
摘要:本发明公开了一种微网群边缘调度与智能体轻量化裁剪方法,包括:构建包括电力终端和边缘设备的微网群,计算能力最强的边缘设备k中设有任务分配模型;设置总训练轮次、初始训练轮数,初始化每个电力终端的本地训练模型、稀疏度范围、本地训练模型的聚合权重、经验重放内存;电力终端基于深度强化学习方法对任务分配模型进行训练,并基于模型剪裁对本地训练模型进行剪裁,边缘设备k对训练后的模型进行聚合并更新任务分配模型;根据更新后的任务分配模型,并以最大化长期效益期望为目标预测资源分配策略;电力终端根据资源分配策略执行任务。本发明可以在保证决策准确高效的同时避免大量原始数据的传输、降低模型训练时传输的数据量和传输时延。
主权项:1.一种微网群边缘调度与智能体轻量化裁剪方法,其特征在于,包括如下步骤:S1,构建包括电力终端和边缘设备的微网群,且边缘设备k中设有任务分配模型;S2,设置总训练轮次T、初始训练轮数t=0,初始化每个电力终端的本地训练模型、稀疏度范围、本地训练模型的聚合权重、电力终端的经验重放内存;S3,电力终端基于深度强化学习方法对任务分配模型进行训练,并基于模型剪裁的方法对本地训练模型进行剪裁,边缘设备k对训练后的模型进行聚合并更新任务分配模型;S4,根据更新后的任务分配模型,并以最大化长期效益期望为目标预测资源分配策略,所述资源分配策略包括任务卸载决策和能量分配决策;S5,电力终端根据步骤S4所预测的资源分配策略执行任务;所述步骤S3包括如下步骤:S3.1,执行t=t+1,将M个电力终端的随机集合赋值到集合St;S3.2,集合St中的每个电力终端分别从边缘设备k中下载任务分配模型,并将其赋值给电力终端的本地训练模型;S3.3,电力终端对经验重放内存进行感知并更新;S3.4,电力终端对利用深度强化学习的方法对本地训练模型进行训练,并基于模型剪裁的方法对训练出的模型参数进行剪裁;S3.5,将步骤S3.4剪裁后的本地训练模型的参数和电力终端进行本地训练的次数上传到边缘设备k;S3.6,边缘设备k对每个电力终端的本地训练次数分别进行统计;S3.7,边缘设备k根据统计后的本地训练次数对接收到的模型参数进行聚合;S3.8,判断tT,如果是,返回步骤S3.1,否则执行步骤S4;所述步骤S3.4包括如下步骤:S3.4.1,将集合St中的每个电力终端的神经网络进行初始化,所述神经网络包括若干个全连接层和若干个卷积层;S3.4.2,对神经网络的全连接层的参数进行剪裁;所述剪裁需要满足的条件为: 式中,m1表示神经网络中的全连接层的层数,表示剪裁后的全连接层的第ifc层的参数集合,表示神经网络的全连接层的第ifc层的参数集合,且1≤ifc≤m1,表示剪裁后的全连接层的第m1层的参数集合,表示神经网络的全连接层的第m1层的参数集合,W1′表示剪裁后的全连接层的第1层的参数集合,W1表示神经网络的全连接层也即剪裁前的全连接层的第1层的参数集合;S3.4.3,根据稀疏度范围设置全连接层每层的稀疏度,对应的设置公式为: 式中,表示全连接层的第ifc层的稀疏度,γmax表示最大稀疏度,γmin表示最小稀疏度;S3.4.4,将每层全连接层的参数按照由小到大的顺序进行排列,然后将前个参数较小的参数值设置为0,其中,为全连接层的第ifc层的参数个数;S3.4.5,根据稀疏度范围设置卷积层每层的稀疏度,对应的设置公式为: 式中,表示卷积层的第ic层的稀疏度;S3.4.6,对每层卷积层的滤波器的个数进行修剪,修剪的要求为: 式中,nl表示滤波器的内核数量,Fu表示被修剪的每层卷积层的滤波器的集合,||K||表示K的L2范数,K表示过滤器中的内核,l表示卷积层的标号。
全文数据:
权利要求:
百度查询: 天津大学 中国电力科学研究院有限公司 国网黑龙江省电力有限公司电力科学研究院 一种微网群边缘调度与智能体轻量化裁剪方法
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。