首页 专利交易 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

一种基于随机贪心算法的横向联邦梯度提升树优化方法 

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

申请/专利权人:新智数字科技有限公司

摘要:本发明公开了一种基于随机贪心算法的横向联邦梯度提升树优化方法,包括如下步骤协调方设置梯度提升树模型相关参数,包括但不限于决策树最大数量T、树最大深度L、初始预测值base等,并下发到各个参与方pi,各个参与方根据分割特征f和分割值v分割当前节点数据集,并将新的分割数据分配给子节点,该基于随机贪心算法的横向联邦梯度提升树优化方法,利支持的横向联邦学习中包括参与方和协调方,参与方拥有本地数据,协调方不拥有任何数据,进行参与方信息聚合的中心,参与方分别计算直方图,将直方图发送给协调方,协调方汇总全部直方图信息后,根据贪心算法寻找最优分割点,然后分享给各个参与方,配合内部的算法进行工作。

主权项:1.一种基于随机贪心算法的横向联邦梯度提升树优化方法,其特征在于:其步骤如下:步骤一:协调方设置梯度提升树模型相关参数,包括决策树最大数量T、树最大深度L、初始预测值base,并下发到各个参与方pi;步骤二:对每个参与方pi,初始化第k棵树训练目标其中步骤三:对每个参与方pi,根据本地当前节点n的数据,根据最优分割点算法,确定当前节点的分割点,并将分割点信息发送给协调方;步骤四:协调方统计全部参与方的切割点信息,根据epsilon-贪心算法,确定分割特征f和分割值v;步骤五:协调方将最终确定的分割信息,包括确定分割特征f和分割值v,下发给各个参与方;步骤六:各个参与方根据分割特征f和分割值v分割当前节点数据集,并将新的分割数据分配给子节点;步骤七:令n=n+1,如果n小于或等于当前层最大节点数,继续步骤三;反之,继续下一步;步骤八:根据l层节点的子节点重置当前层节点信息,令l=l+1,如果l小于或等于树最大深度L,继续步骤五;反之,继续下一步;步骤九:令t=t+1,如果t大于或等于决策树最大数量T,继续步骤3;反之,结束;所述步骤三中的最优分割点算法:确定分割目标函数:包括目标函数,信息增益:信息增益是度量样本集合纯度最常用的一种指标;节点样本集合D中共有K类样本,其中第k类样本所占的比例为pk,则D的信息熵定义为 假设节点根据属性a切分为V个可能的取值,则信息增益定义为 信息增益率: 其中 基尼系数: 结构系数: 其中GL为根据分割点分割数据集后划分到左节点的数据集的一阶梯度和,HL为左节点的数据集的二阶梯度和,GR及HR为相应右节点的梯度信息和,γ为树模型复杂度惩罚项,λ为二阶正则项;确定分割值候选列表:根据当前节点数据分布,确定分割值列表;分割值包括分割特征和分割特征值;分割值列表根据以下方法确定:数据集中所有特征的所有取值;针对数据集中每个特征的取值范围,确定离散分割点;分割点的选择根据数据的分布,均匀分布在取值范围内;其中均匀体现在分割点间的数据量近似相等或者二阶梯度和近似相等;遍历分割值候选列表,寻找使目标函数最优的分割点;其中,横向联邦学习,是联邦学习的一种分布式结构,其中各个分布式节点的数据特征相同,样本空间不同。

全文数据:

权利要求:

百度查询: 新智数字科技有限公司 一种基于随机贪心算法的横向联邦梯度提升树优化方法

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。