首页 专利交易 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

基于人工智能的数据智能模型训练与硬件加速方法及系统 

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

申请/专利权人:广州佳新智能科技有限公司

摘要:本发明涉及人工智能领域,具体公开了一种基于人工智能的数据智能模型训练与硬件加速方法,包括:设置原始深度卷积神经网络模型DNN的网络结构;经过首次训练得到卷积神经网络模型;进而进行阶段和类别划分,从而得到块;计算每一个块中各个类别卷积层的滤波器滤波通道大小及剪枝权重;使用剪枝后的智能模型执行推理任务;根据任务类型选择对应的激活函数;并进行量化和知识蒸馏;设计通用硬件加速器,将优化后的深度卷积神经网络模型DNN部署在FPGA中。本发明通过深度卷积神经网络模型DNN的网络结构的构建,设计多种激活函数通用硬件架构,使其在更轻量化的同时,在提高卷积神经网络的表达能力的同时,能够准确提高智能化水平。

主权项:1.一种基于人工智能的数据智能模型训练与硬件加速方法,其特征在于,所述方法包括:步骤S1,设置原始深度卷积神经网络模型DNN的网络结构,权重通过随机取值,初始化原始深度卷积神经网络模型DNN;步骤S2,采集历史任务数据的控制指令及网络参数,输入任务队列,经过首次训练得到网络权值,用于得到首次训练后的卷积神经网络模型;步骤S3,根据各个卷积层的属性共性对首次训练后的卷积神经网络模型DNN的卷积层进行阶段和类别划分,从而得到块;步骤S4,计算每一个块中各个类别卷积层的滤波器滤波通道大小及剪枝权重,通过能够调节滤波通道大小的滤波器,来进行权值的重要性筛选;步骤S5:使用剪枝后的智能模型执行推理任务,当不满足推理任务时,调整滤波通道大小;步骤S6:根据任务类型选择对应的激活函数,对优化后的神经网络模型进行重新训练;步骤S7:对剪枝之后的深度卷积神经网络模型DNN进行量化;步骤S8,对量化后深度卷积神经网络模型DNN的网络结构进行知识蒸馏,并优化;步骤S9,设计通用硬件加速器,其中,所述通用硬件加速器的集成电路由CPU、GPU和现场可编程门阵列FPGA共同构成,线性训练任务由CPU完成,非线性训练任务由GPU完成;步骤S10,将优化后的深度卷积神经网络模型DNN部署在FPGA中;根据优化后的深度卷积神经网络模型DNN和FPGA的资源限制,选择对应的硬件并行化结构,包括计算单元、控制单元和存储单元,将优化后的深度卷积神经网络模型DNN部署在FPGA当中,实现硬件加速。

全文数据:

权利要求:

百度查询: 广州佳新智能科技有限公司 基于人工智能的数据智能模型训练与硬件加速方法及系统

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。