Document
拖动滑块完成拼图
个人中心

预订订单
服务订单
发布专利 发布成果 人才入驻 发布商标 发布需求

在线咨询

联系我们

龙图腾公众号
首页 专利交易 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 恭喜东南大学;中国人民解放军63983部队燕锋获国家专利权

恭喜东南大学;中国人民解放军63983部队燕锋获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网恭喜东南大学;中国人民解放军63983部队申请的专利一种无人机自组织网络信道接入方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN114599115B

龙图腾网通过国家知识产权局官网在2025-06-10发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202210142923.5,技术领域涉及:H04W74/0816;该发明授权一种无人机自组织网络信道接入方法是由燕锋;杭天阳;李昊;丁凯;唐琪;夏玮玮;沈连丰设计研发完成,并于2022-02-16向国家知识产权局提交的专利申请。

一种无人机自组织网络信道接入方法在说明书摘要公布了:本发明公开了一种无人机自组织网络信道接入方法,包括:当无人机节点有发送需求时,节点首先侦听信道,若无空闲信道则推迟传输,否则节点根据闲时接入概率决定是否接入、选择哪条空闲信道进行接入;节点做完决策后获得对应的反馈,根据当前节点与周围节点的决策相似度修改反馈的奖励值,并训练神经网络;下一次决策前,节点将历史决策和反馈作为状态输入神经网络,网络计算输出闲时接入概率指导节点的下一步决策;在每个时步重复以上过程,无人机决策体不断与环境交互学习,最终获得兼具自适应性、信道利用率和节点公平性的接入策略。

本发明授权一种无人机自组织网络信道接入方法在权利要求书中公布了:1.一种无人机自组织网络信道接入方法,其特征在于,所述接入方法应用于基于无人机自组织网络的通信场景,将无人机自组织网络中的每个节点作为决策体,再基于深度强化学习算法,使得决策体与环境进行交互学习,得到具有自适应性的接入策略,所述接入方法具体包括如下步骤:步骤S1、在某一时隙,当所述无人机自组织网络中一个或者多个节点在执行数据传输任务时,首先对信道进行载波侦听,判断是否有空闲信道,若所有道均为占用状态,则选择推迟接入,在下一个时隙再进行决策;若存在至少一条空闲信道,则根据闲时接入概率,选择其中一条空闲信道进行接入,占用若干个时隙对接收节点进行数据包发送,或者,选择推迟接入,继续进行载波侦听;步骤S2、定义节点在进行不同决策时,获得的信道反馈以及反馈对应的奖励值,包括:若节点选择推迟接入,则信道反馈为信道的忙闲状态,奖励值为0;若节点选择接入一条空闲信道且信道反馈为接入成功,则奖励值为1;若节点选择接入一条空闲信道且信道反馈为节点碰撞,接入失败,则奖励值为C,其中,-1C0;步骤S3、选择某一节点与其他节点进行交互学习,并且比较该节点与周围邻近无人机节点的决策,根据决策的相似程度修改步骤S2中的奖励值,其中,相似程度越高,其接入成功的奖励值就越大,其余奖励值保持不变;步骤S4、构建深度Q网络以及训练用经验重放池,以该经验重放池作为输入对所述深度Q网络进行训练,通过梯度下降法更新网络中的参数,在进行多次迭代之后固定网络参数,得到信道分配模型,其中,经验重放池包括步骤S3中选择的节点,其当前与过去若干时步内的决策和反馈;步骤S5、针对步骤S3中选择的节点,将其历史经验作为当前状态输入至步骤S4中得到的信道分配模型中,通过该模型计算出节点下一步进行不同决策对应的不同概率,即所述闲时接入概率;步骤S6、针对该通信场景中所有具有数据传输任务的节点,重复步骤S1-步骤S5,根据闲时接入概率做下一个决策,直至各节点获得具有自适应性的接入策略;所述基于无人机自组织网络的通信场景,在该场景中,包括N个节点,M个信道,每个信道具有相同的带宽和接入条件,每条信道划分为多个时隙,其中,节点和信道的集合分别记为:和所述步骤S3具体包括:步骤S301、设定节点在接入信道进行发送时,将当前决策对应的闲时接入概率附在数据包上发出;步骤S302、每个节点记录收到的来自周围节点的闲时接入概率p,其中,pmin为接收到的最小值,pmax为接收到的最大值;步骤S303、将区间[pmin,pmax]均匀分为8个小区间,按p所在区间的数量将8个小区间降序排序为{[It0,It1],[It1,It2],······,[It7,It8]},即在区间[It0,It1]中p值出现最频繁,8个区间对应的奖励值为步骤S304、当节点当前决策是接入信道且接入成功,则根据决策的闲时接入概率p所在区间将本次决策的奖励值从1改为RACE;在所述步骤S4中,采用两个结构相同但参数不同的深度Q网络进行训练,分别命名为主网络和目标网络,网络参数分别初始化为θ和θ-,每隔F个时步将主网络的参数赋值给目标网络,以降低数据之间的相关性,其中,所述的深度Q网络,其采用了循环神经网络RNN结构,包括一个输入层,两个隐藏层和一个输出层,其中两个隐藏层分别为长短期记忆层LSTM和一个前向传播层FNN;在所述步骤S4中,在训练之前,需要建立初始集合{st,at,rt+1,st+1},其中,st为时步t的状态,at为时步t采取的决策,rt+1为时步t采取决策后获得的奖励,st+1为时步t的下一个时步的状态;节点在时步t可能采取的动作at∈{0,1,2,...,M},at为0时,节点选择推迟接入,at为m,且m不为0时,节点选择信道m进行接入;状态st+1=[ct-Ω+2,...,ct,ct+1],其中ct+1=[at,zt]T,zt为节点在时步t采取决策后获得的反馈,表达式为:分别代表了载波侦听的结果和接入信道的结果,Ω为状态历史长度;在所述步骤S4中,在进行训练时,以st作为网络输入,其网络输出为: 公式1中,a表示在动作集合中所有可能的动作,θ是神经网络中边的权重,Q即为在t时刻状态下所有可能决策所对应的得分;对经过公式1得到的Q用ε-greedy和softmax算法处理,整合成闲时接入概率,其表达式为:σnt={pn,0t,pn,1t,...,pn,Mt}2公式2中,当m不为0时,pn,Mt表示为节点n在时步t选择接入信道m的概率,m为0时,pn,0t表示节点推迟接入的概率;在所述步骤S4中,在进行训练时,需考虑时步的非均匀分布特性,来计算损失函数,通过梯度下降法更新神经网络参数,其具体包括:每个决策都对应一个时间步骤,载波侦听决策需要1个时隙,信道接入决策则需要若干个时隙,则在τ时步现实奖励值计算表达式为: 在公式3中,γ为时间折扣因子,0<γ<1,daτ为节点在时步τ所做决策需要持续的时间;损失函数的计算表达式为: 在公式4中,NE为训练神经网络时从经验池E取出的样本数量,eτ为离散的样本;对损失函数Lθ运用梯度下降法,更新神经网络参数,计算方法如下: 在公式5中,为Qsτ,aτ;θ的梯度函数。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人东南大学;中国人民解放军63983部队,其通讯地址为:211189 江苏省南京市江宁区东南大学路2号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。