前言:
而今同学们对“遗传算法的全局收敛性和计算效率分析”可能比较关怀,各位老铁们都需要了解一些“遗传算法的全局收敛性和计算效率分析”的相关资讯。那么小编在网络上汇集了一些关于“遗传算法的全局收敛性和计算效率分析””的相关内容,希望大家能喜欢,咱们快快来学习一下吧!文 | 娱乐爆社说
编辑 | 娱乐爆社说
●—≺ 前言 ≻—●
数控机床热误差是机床主要误差源,占机床总误差的40%~70%,近年来,众多学者将人工智能算法引入到热误差建模中,提高热误差模型的预测精度。
有学者等人提出一种基于贝叶斯神经网络的热误差建模方法,部分学者采用基于人工智能的神经网络建立热误差模型。
神经网络模型解决了温度与热误差的非线性映射问题,提高了预测精度,但基于人工神经网络的模型易陷入局部极值。
为了解决模型陷入局部极值问题,一些学者将具有强大非线性映射能力的神经网络结合智能优化算法的全局寻优能力,建立热误差模型。
例如,遗传算法优化反向传播神经网络、基于鸡群算法的径向基神经网络、遗传算法优化Elman神经网络和遗传算法结合小波基神经网络等建模方法。
但这类模型的输入通常为多个温度测量点的数据,模型内部的参数与温度测量点的个数呈倍数关系,不利于嵌入到机床的数控系统进行应用。
美国有学者提出主轴热变形误差通用模型:
实验中,ΔEi为i时刻的热误差变化量的预测值;a0、a1、a2、a3为参数;ΔTi为i时刻的温度变化量。是该模型为热误差的补偿建模提供了一种思路,它数幂函数的近似逼近。
且该模型只需单个温度传感器该据,其内部参数仅有4个,易于嵌入数控系统,但模型为三阶幂函数,泛化能力较差,其输入的温度数据取决于当前时刻的温度数据,没有考虑机床热特性和热滞后等问题。
为了解决该模型上述问题,本文修正该模型,将三阶幂函数修改成变阶幂函数,使得模型的泛化能力更好。
并且结合满兵等人和屈力刚等对温度数据的优化分析,将模型的输入增加前一时刻的温度数据,一定程度上解决了热滞后问题。
同时,保留该模型只需单个温度传感器数据的特点。文中修正模型(T模型)结合智能优化算法,利用智能优化的遗传算法全局寻优,避免模型陷入局部极值。
实验设计混合编码使得遗传算法能同步辨识T模型的所有参数,加快建模效率,基于上述思想,提出一种遗传算法优化T模型的主轴热误差辨识模型。
●—≺ 1GA-T主轴热误差辨识模型 ≻—●
将提到的通用模型加入前一时刻的温度变化量,将三阶幂函数修正为变阶幂函数,其修正模型如下:
式中:αj、βk、C为参数;ΔTi-1为i-1时刻的温度变化量,T模型考虑了上一时刻的温度变化量,能够更好地处理机床热滞后问题。
遗传算法通过模拟自然进化的过程,根据自然界适者生存的机制,使种群不断进化,从而得到全局最优解或接近全局最优解的解。
从实验数据可以看出:遗传算法主要由4个操作(父代选择、交叉、变异和更新种群)和1个收敛条件组成。
其中每个操作都影响物种多样性,物种多样性保持得好,算法就不易于陷入局部极值,而收敛条件决定了算法的效率和精度。
例如实验数据中,T模型只需要单个温度传感器数据即可预测主轴轴向热误差,模型内部参数个数为n+m+3,能够适用于寄存器较少的数控系统。
由实验数据得知,T模型需要辨识的参数有正整数n、m,向量α、β和实数C,为了使遗传算法和T模型结合,设计混合编码作为遗传算法的个体基因,定义为(n,m,α1,α2,…,αn,β1,β2,…,βm,C)。
因此进行父代选择时,需要计算个体适。文中将预测的热误差变化量累加得到当前时刻机床主轴轴向热误差的预测值E,再将预测值E与实际值的最大残差的倒数作为个体适应值,
实验操作让预测值与实际值的最大残差降到最低,提高模型预测机床热误差的稳定性,从而提高机床平均加工精度,当前时刻的机床主轴轴向热误差预测值函数和遗传算法的个体适应值函数又以下实验公式提供。
其中Ej为j时刻机床主轴轴向热误差的预测值,fk为个体k的适应值;ek{N}为个体k的所有预测残差。
遗传算法的种群经过若干代进化后,选择最佳个体(个体适应值最大的个体),解码后作为T模型的参数,
为了使GA-T模型的精度更高,建模速度更快,文中对遗传算法进一步优化,在GA-T模型中,交叉操作是影响模型精度的关键因素,而收敛条件对模型的效率和精度都有直接影响。文中优化交叉操作以及收敛条件的设置。
在交叉操作中,应保持物种多样性,避免收敛到局部最优,本文作者设计了基于物种多样性保持的交叉操作优化方法,
根据个体适应值进行父代选择,得到两个父代个体,并进行随机交叉生成两个子代个体,使两个子代个体基因的并集等于两个父代个体基因的并集,保持了物种多样性,再计算两个子代个体的适应值,选出较优的子代个体作为下一代。
该实验中,由选择操作得到两个父代个体,对两个父代个体的每位基因进行随机交叉,生成子代个体。
收敛条件决定了遗传算法的进化次数,通常,将固定进化次数作为遗传算法的收敛条件,但由于无法判断算法何时收敛,故只能适当增加进化次数,提高模型精度。
文中设计自适应收敛条件,即当种群连续进化若干代后,仍未有更好的个体(最佳适应值没有更新)出现时,结束遗传算法。
训练自适应收敛条件的GA-T模型时,无需提前设置进化次数。对比固定进化次数的收敛条件,自适应收敛条件可以让模型的效率变高,面对不同热误差数据时泛化性更强。
●—≺ 实验与验证 ≻—●
以某型号三轴数控机床为研究对象,搭建了热误差建模与实验验证平台,机床实切加工,将加工好的工件用三坐标测量仪测量加工误差。
利用温度传感器采集主轴前端温度,如上述实验操作可知:工件每个凹槽有两个深度,其中较深的深度标准值为7mm,另一个为5mm。
而实验所数示据的采每集个凹槽的加工时间为3min,故每3min记录一次温度数据,共加工123min。
机床加工结束后,将在三坐标测量仪测量整个工件每个凹槽的深度,再将测量数据整理成热误差数据。
图6为机床实切采集的一组数据,温度从23.7℃升温到28.4℃,热误差从0μm增长到59μm。
GA-T模型里,遗传算法种群规模为30,高斯分布初始化,变异率为0.1,收敛条件为自适应收敛条件。
为了评估模型,引入了平均绝对误差(MAE)、最大绝对残差(MAX)和拟合优度(R2),其实验操作如下所示如下:
实验显示,n为数据总数(即123/3=41);Ei和Ei分别是预测值与实际值。
从以上实验结果得知:GA-T模型的拟合能力很强,最大绝对残差为3.41μm,平均绝对误差为1.57μm。
神经网络采用2-10-1的网络架构,训练次数为1000,进步率为0.01,采用Adam优化器,训练集与GA-T模型的训练集一致,其预测热误差与实际热误差的曲线如以下实验操作可知。
根据上述实验得知,神经网络模型的最大绝对残差为14.28μm,平均绝对误差为9.45μm。
由实验计算数据可以看出:模型输入为单温度传感器的数据时,GA-T模型的平均误差和最大误差皆小于神经网络模型,GA-T模型预测精度高,拟合能力强。
在某型号三轴机床上,采集两组工件实切数据,用上述训练好的两个模型做4组实验,第1组和第2组使用第1组机床实切采集的温度数据作为模型输入,分别使用神经网络模型和GA-T模型预测机床热误差,计算实际值与预测值的MAE和MAX。
第3组和第4组使用第2组机床实切采集的温度数据作为模型输入,其余与第1组和第2组一致。
从实验数据分析中可以看出:GA-T模型对机床主轴轴向热误差的预测远优于神经网络模型,GA-T模型最大预测误差均在10μm,而神经网络模型在20μm左右。
●—≺ 总结 ≻—●
针对基于单个温度传感器数据的热误差模型现存的问题,提出了GA-T模型,设计混合编码,使遗传算法和T模型相结合。
该模型利用遗传算法全局寻优,更好地避免陷入局部最小值,设计基于物种多样性保持的交叉操作优化方法,提高模型精度,设计自适应收敛条件,加快建模效率。
GA-T模型的输入只需单个温度传感器数据,且模型自身的参数少,易于嵌入机床数控系统。
通过某型号三轴机床热误差测试平台搭建与实切实验,针对机床主轴轴向热误差,进行实际建模分析与对比,GA-T模型各项性能指标均大幅领先神经网络模型,且具有泛化性强、建模时间短、参数可选范围广和预测精度高等优点。
参考文献:
[1]李高强,张宇,李鸣.基于GA-LSSVM的数控机床热误差建模方法研[J].机床与液压,2021,49(2):26-30.
[2]刘阔,韩伟,王永青,等.数控机床进给轴热误差补偿技术研究综述[J].机械工程学报,2021,57(3):156-173.
[3]王子涵,杨秀芝,段现银,等.基于贝叶斯神经网络的机床热误差建模[J].制造技术与机床,2022(1):141-145.
[4]郭世杰,张学炜,张楠,等.机床主轴热关键点选择与典型转速热误差预测[J].吉林大学学报(工学版),2023,53(1):72-81.
[5]魏效玲,张宝刚,杨富贵,等.基于GA-BP网络的数控机床热误差优化建模研究[J].组合机床与自动化加工技术,2016(12):100-102.
[6]黄玉春,田建平,杨海栗,等.基于遗传算法优化Elman神经网络的机床热误差建模[J].组合机床与自动化加工技术,2015(4):74-77.
标签: #遗传算法的全局收敛性和计算效率分析