打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
ANSYS Workbench优化设计技术系列讲座(七):目标驱动优化的实现过程(上)

本文为优化设计系列讲座系列的第七篇,前面发布的相关内容的链接如下:

ANSYS Workbench优化设计技术系列讲座(一):设计探索与优化技术概述

ANSYS Workbench优化设计技术系列讲座(二):重要概念与术语 

ANSYS Workbench优化设计技术系列讲座(三):参数相关性分析

ANSYS Workbench优化设计技术系列讲座(四):DOE技术

ANSYS Workbench优化设计技术系列讲座(五):响应面

ANSYS Workbench优化设计技术系列讲座(六):目标驱动优化技术概述

本文介绍ANSYS DX的目标驱动优化(GDO)组件的基本操作过程(上),通常情况下该过程包括如下环节:

选择优化系统

指定优化算法及选项

指定优化目标和约束条件

指定优化域

优化求解

优化结果的后处理与分析

本文介绍优化系统的选择、主要优化算法与选项。

1.选择优化系统

首先选择GDO系统的类型:Response Surface Optimization以及Direct Optimization。两种GDO均可以通过鼠标拖拽添加至Project Schematic中。Response Surface Optimization也可拖拽至包含有响应面的系统的Response Surface组件上。直接优化方法通过实际的结构分析获取优化设计点,而不是通过响应面近似,因此也可将Direct Optimization优化组件直接拖放到其他包含设计点的系统或组件(如Response SurfaceParameters Correlation)上,在这些组件和Direct Optimization优化组件之间将会创建设计点数据传递的链接。

无论选择了何种GDO系统,Project Schematic界面中,双击该GDO系统的Optimization组件单元格,即可进入到优化的工作空间。在优化工作空间的Outline中包含Optimization处理节点,此节点下面又包含Objectives and ConstraintsDomainResults三个子处理节点。这些处理节点的选项包含了应用Response Surface Optimization系统进行优化分析所有关键参数的设置。

 

2.指定优化方法及选项
在优化工作空间的Outline选择Optimization处理节点,在其下方的Optimi zation 属性中,通过Optimization method下拉列表即可指定拟采用的优化算法及选项。下面分别对DX所提供的六种优化方法的选项进行介绍。
(1)  Screening方法选项设置

Screening优化方法的选项主要包括:

Number of Samples:生成优化搜索样本个数,样本数越多则越有可能包含最优化解,不能小于输入及输出参数的总个数且不少于2最大为10000,对响应面优化缺省为1000个;对直接优化缺省为100个。

Maximum Number of Candidates算法形成备选设计的最大可能个数。

Verify Candidate Points:如勾选此选项,在响应面优化计算结束后自动通过有限元分析对形成的备选设计点进行验证。


(2)  MOGA方法选项设置

MOGA优化方法的选项主要包括:

Number of Initial Samples:指定使用的初始样本个数。最小值推荐为10倍的连续型输入参数个数;初始样本越多,找到包含最优解的输入参数空间的机会越大。不能小于参与优化的输入参数及输出参数总个数以及2,不大于10000,对响应面优化和直接优化缺省均为100个。如果是由Screening 方法转向MOGA方法,MOGA会形成一个新的样本集,为了保持一致性,可输入与Screening 相同的初始样本个数。

Number of Samples Per Iteration:指定每一次迭代的样本数,不能小于参与优化的输入参数和输出参数总个数及2,但也不能大于前面所指定的“number of initial samples”及10000。对响应面优化缺省为100个,对直接优化缺省为50个。

Maximum Allowable Pareto Percentage:欲得到的Pareto前沿点个数与“Number of Samples Per Iteration”之比。例如,输入75并指定Number of Samples Per Iteration200 将意味着一旦MOGA 方法优化形成的前沿点包含150个样本点时优化将停止。(优化也有可能在达到下面的“Maximum Number of Iterations”时停止)。此百分比过低(低于30%)会导致过早的收敛,过高(高于80%)则可能导致收敛缓慢,通常选择55-75可满足大部分问题的求解。

Maximum Number of Iterations:指定MOGA方法的最大可能迭代次数。MOGA可能评估的最大样本点数=Number of Initial Samples+Number of Samples Per Iteration×(Maximum Number of Iterations-1)。实际上,算法可能在达到最大迭代次数之前已经收敛而停止。

Maximum Number of Candidates算法形成备选设计的最大可能个数。

Verify Candidate Points如勾选此选项,在响应面优化计算结束后自动通过有限元分析对形成的备选设计点进行验证。

(3) NLPQL方法选项设置

NLPQL优化方法的选项主要包括:

Allowable Convergence PercentageNLPQL算法相对于Karush-Kuhn-Tucker (KKT) 最佳性准则的容差。指定一个较小的值意味着更多的迭代次数和较精确但更慢的求解,而指定一个较大的值则意味着较少的迭代次数和较不精确但相对较快的求解。典型缺省值为1.0e-06

Defference ApproximationNLPQL计算目标函数导数的近似数值方法选项,可选择Central Difference(中心差分)或Forward Difference(向前差分)。

如选择了Central Difference选项,导数计算将采用中心差分近似。中心差分有助于提高梯度计算的精度,但样本点评估的工作量倍增。中心差分法是新建响应面优化系统的缺省选项。如选择了Forward Difference选项,则计算导数时将采用向前差分近似,向前差分使用较少的样本点评估,但导数计算的精度不高,是新建直接优化系统的缺省选项。

Maximum Number of Iterations:指定NLPQL方法的最大可能迭代次数。实际上,优化迭代可能在到达此最大迭代次数之前就已经达到收敛而停止计算。NLPQL方法的最大可能评估样本点个数可根据梯度计算方法和此参数进行估计。对于中心差分方法,最大评估样本点数为number of iterations ×(2×number of inputs +1);对向前差分方法,最大评估样本点数为number of iterations×(number of inputs+1)

Maximum Number of Candidates算法形成备选设计的最大可能个数。

(4)MISQP方法选项设置

MISQP优化方法的选项主要包括:

Allowable Convergence PercentageMISQP算法相对于Karush-Kuhn-Tucker (KKT) 最佳性准则的容差。指定一个较小的值意味着更多的迭代次数和较精确但更慢的求解,而指定一个较大的值则意味着较少的迭代次数和较不精确但相对较快的求解。典型缺省值为1.0e-06

Derivative ApproximationNLPQL计算目标函数导数的近似数值方法选项,可选择Central Difference(中心差分)或Forward Difference(向前差分)。

如选择了Central Difference选项,导数计算将采用中心差分近似。中心差分有助于提高梯度计算的精度,但样本点评估的工作量倍增。中心差分法是新建响应面优化系统的缺省选项。如选择了Forward Difference选项,则计算导数时将采用向前差分近似,向前差分使用较少的样本点评估,但导数计算的精度不高,是新建直接优化系统的缺省选项。

Maximum Number of Iterations:指定NLPQL方法的最大可能迭代次数。实际上,优化迭代可能在到达此最大迭代次数之前就已经达到收敛而停止计算。NLPQL方法的最大可能评估样本点个数可根据梯度计算方法和此参数进行估计:

对于中心差分方法,最大评估样本点数为number of iterations ×(2×number of inputs +1)

对向前差分方法,最大评估样本点数为number of iterations×(number of inputs+1)

Maximum Number of Candidates算法形成备选设计的最大可能个数。

Verify Candidate Points勾选此选项,在响应面优化计算结束后自动通过有限元分析对形成的备选设计点进行验证。

(5)  ASO方法选项设置


ASO优化方法的选项主要包括:

Number of LHS Initial Samples:为形成初始Kriging或为后续缩减优化域形成Kriging所生成的样本数。最小为 (NbInp+1)×(NbInp+2)/2 (缺省值,也是形成克里格所需的最少LHS样本数),最大为10000。由于ASO工作流程 (其中一个新的LHS样本集是在每一次域缩减后生成),提高LHS样本数未必能改善结果的质量而且会显著增加计算成本。

Number of Screening Samples:筛选样本数。用于创建下一次Kriging以及验证备选点的样本数,可输入最小值为 (NbInp+1)×(NbInp+2)/2 ,最大为10000,缺省为100×NbInp。越大越有可能获得好的验证点,过大可能导致Kriging的发散。

Number of Starting Points:起始点数量。此参数决定要搜索的局部最优解数量,此参数越大则搜索到的局部最优解越多。对线性响应面情况无需使用过多的起始点。此参数必须小于“Number of Screening samples”,因为起始点从这些样本中产生。缺省值为“Number of LHS Initial Samples”。

Maximum Number of Evaluations:这是ASO算法的一个停止法则,即最大可能计算的设计点数量。缺省值为20×(NbInp +1)

Maximum Number of Domain Reductions:这也是ASO算法的一个停止法则,即最大可能的优化域缩减次数,缺省为20次。

Percentage of Domain Reductions:这也是ASO算法的一个停止法则,即当前域相对于初始域的最小百分数,缺省为0.1。比如,某输入参数变化区间为[0100](初始域),当此百分比设为1%时,当前域的区间宽度不得小于1 (比如在56之间变化)

Maximum Number of Candidates算法形成备选设计的最大可能个数。

(6)  AMO方法选项设置

AMO优化方法的选项主要包括:

Number of Initial Samples:指定使用的初始样本个数。最小值推荐为10倍的连续型输入参数个数;初始样本越多,找到包含最优解的输入参数空间的机会越大。初始样本个数不得小于激活的输入参数及输出参数总个数且不小于2激活输入参数个数也是形成敏感性图结果所需的最小样本个数。初始样本个数也不能大于10000,对响应面优化和直接优化缺省均为100个。如果是由Screening 方法转向MOGA方法,MOGA会形成一个新的样本集,为了保持一致性,可输入与Screening 相同的初始样本个数。

Number of Samples Per Iteration:指定每一次迭代并更新的样本数,缺省为100个。不能大于初始样本数(Number of Initial Samples)。

Maximum Allowable Pareto Percentage:欲得到的Pareto前沿点个数与“Number of Samples Per Iteration”之比。例如,输入75并指定Number of Samples Per Iteration200 将意味着一旦MOGA 方法优化形成的前沿点包含150个样本点时优化将停止。(优化也有可能在达到下面的“Maximum Number of Iterations”时停止)。此百分比过低(如:低于30%)会导致优化过早的收敛,过高(高于80%)则可能导致收敛缓慢。此参数依赖于参数个数以及设计空间自身的性质,通常选择55-75可满足大部分问题的求解。

Maximum Number of Iterations:指定优化方法的最大可能迭代次数。AMO方法可能评估的最大样本点数=Number of Initial Samples + Number of Samples Per Iteration×(Maximum Number of Iterations - 1),这给出了优化方法可能耗用时间的一个粗略估计。不过,算法可能在达到最大迭代次数之前已经收敛而停止。

Maximum Number of Candidates算法形成备选设计的最大可能个数。

在设置了优化方法后,即可设置优化目标、约束条件并进行优化求解了,相关问题我们将在后一篇文章中进行讲解。


注:本文内容主要参考资料为《工程结构优化设计方法与应用》(中国铁道出版社,2015),相关算例请参考原书。

关于本书的更多信息,可参考:

专业图书推荐:《工程结构优化设计方法与应用》

本书购买链接:


本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
梯度下降优化算法Momentum
感知器及其在Python中的实现
深度强化学习综述(上)
各种优化方法总结比较(sgd/momentum/Nesterov/adagrad/adadelta)
聊聊EM算法~
Haar特征与积分图
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服