利用机器学习技术对夹具的概念设计

上传人:鲁** 文档编号:506671186 上传时间:2024-01-24 格式:DOC 页数:12 大小:335KB
返回 下载 相关 举报
利用机器学习技术对夹具的概念设计_第1页
第1页 / 共12页
利用机器学习技术对夹具的概念设计_第2页
第2页 / 共12页
利用机器学习技术对夹具的概念设计_第3页
第3页 / 共12页
利用机器学习技术对夹具的概念设计_第4页
第4页 / 共12页
利用机器学习技术对夹具的概念设计_第5页
第5页 / 共12页
点击查看更多>>
资源描述

《利用机器学习技术对夹具的概念设计》由会员分享,可在线阅读,更多相关《利用机器学习技术对夹具的概念设计(12页珍藏版)》请在金锄头文库上搜索。

1、利用机器学习技术对夹具的概念设计序言:夹具工件是指用来固定和稳固工件的,用来对一个工件进行大部分加工操作的固定工具。夹具的设计是一个复杂的和直观的过程,这需要知识和经验的积累。而自动化夹具设计过程是困难的,这是因为这个问题需要运用设计的知识.人工智能领域最新的研究进展表明,特别是在机械学习方面,提供了运用设计的方法和知识.本文试图运用夹具工件学习技术的概念设计来提供案例研究。关键词:夹具设计;知识型系统;机器学习1。介绍制造业目前正在向高度自动化的制造系统发展,这通常导致较低的生产成本和更高的效率。对于加工一批复杂或精密零件、高度准确的设备是必需的.这些设备在加工操作时,可以用来稳定和固定工件

2、。由于启发式知识要求的设计设备是复杂的,因此自动化设计也是复杂的,象一些应用于自动化夹具设计过程的人工智能工具,又比如一些更常见的人工智能运用于如专家系统、神经网络和遗传算法等中。每一种都有其优点和缺点.专家系统利用现有的规则,为夹具设计功能相对较好的初始模型。然而,他们太死板,不能随着时间的推移,调整和改进自己。一个神经网络具有良好的学习能力, 但是建设合适的神经网络可能是非常复杂的。遗传算法更像是优化工具而非学习工具。机器学习是指具有学习和适应改变的能力,因此它被选为此次夹具设计的研究对象.在随后的章节中,如何开发一个分类模型的装置,以及如何学习使用机器程序,C45将作为研究的内容。在发展

3、过程中遇到的问题,以及提升分类模型的意义,将进行详细的讨论。此案例的研究将演示如何使用分类模型以及如何提出夹具的概念设计。2. 方法论本研究是通过一个固定数量的属性来描述表示数据的一种象征性方法.分类模型来源于这些数据的内在规律,模型的发展可以分为两个阶段,即建设阶段和生成分类规则的阶段.2。1 夹具数据的描述所有使用的数据都可以分为若干案例,每个案例共由6个属性和类组成,本课程内容就属于此案例。这些属性主要描述了个领域:夹具配置,工件特性和加工工艺条件。夹具配置起到了元件的稳定,夹紧和固定作用。一般空间位置和所需的公差,以及工件的特征涉及工件表面的粗糙程度,显著的特性,大致的尺寸和重量.加工

4、条件包括元件的批量大小,材料去除率,切削力的作用,和适合加工的区域。对于一个简单适用性的测试,其包含有概念性的夹具设计,多种类型的夹具和切削过程。此外,该类型的工件被认为是仅限于棱镜的研究。这些属性都是离散的,平均3的浮动值。2建设的决策树感应理论是使用5,6的建设决策树,即熵的数据集是第一次计算。假设S表示一组病例可分为n类1.病例数量的年代,属于类C的频率。病例数量的年代是寻常的因此,案件的概率选择是 在每个案例所传达的信息是 利用以上,预计所需的信息确定一个案例中的类将变成 接下来,数据将被每个属性依次分析,由此产生了熵的数据计算。通过熵的减少或数据的增加来计算出其差异并进行比较。而属性

5、提供了最高的增益,然后形成决策树的分支.这个过程将一直进行到这部分的所有情况完成.然后分支停止增长,最终形成一片树叶.在树完全成熟后,它将裁剪下来一个较小的尺寸通过删除无关的属性.决定哪些属性删除,而标准统计测试将被使用的情况下,任何分支可以分布到正确或错误分类的案例中。因为只有两个主要类型的分类,剪枝方法解释使用如图表1。图表 1 修剪决策树树上有个属性(,,C)和2类(好的和坏的).它有6叶,数字在括号的每片叶子中,(N E)是注明数量的情况下覆盖的叶,(N)是病例数错误分类的叶,(E)是预测错误率,可以用UCF(E,N)表示,CF是信心水平计算的误差。通过使用N作为样本大小、E / 作为

6、示例。在错误分类的情况下:U25(E,N)可以推断出75的置信区间的比例.考虑到子树 C =1:好(6)C 2:好(9/)C = 3:坏(1/0)第一叶,N = 6和E = 0、75%的置信区间是发现是,0206。保守误差的上限比例使用,U25(0,6) .26。同样,对于剩余的叶子,U5(0,9)0.和U25%(,1)= 0.75。最后,预测误差这个子树(60.26)+(9.143)+(075)= 3.273。如果它的子树有一个叶与类,它将覆盖共有16例中1例的错误。因此预测误差16U25(。16)= 16。15 2.512.因为现有的子树有更高的预测误差,将删除,导致树见图2.反过来,通过

7、删除每个属性,重新计算新的错误率,这些属性的删除会导致较低的估计错误率,部分将会永久地修剪。因此,最后合成树的应该有一个总体上较低的估计错误率.2.代的分类规则每个路径主要从树上的一片叶子上来,然后转化为一个分类规则.虽然决策树已经被简化,但进一步简化规则可能还有助于对降低出错率估计。比如一些条件,这可能适用于树,也可能是冗余的规则。在证明这种情况下,使用以下规则:规则1:如果 =小B=大C =对 是的 =没有然后类负面规则2:如果 A=小 =大 = 错D 是的 没有然后类负面图表 2 修剪决策树对于所有其他属性,上面的规则是相同的,除了C(这可能需要只有值正确或者错误).因为所有可能的值的属

8、性会被覆盖,条件变得冗余和两个规则C的可能。在一定条件下,已经被简化了的规则,可能有重复,如上图所示,这些规则将不再相互排斥。因此,最小描述长度(MDL)原理是用来过滤规则,不做出显著贡献的准确性的规则集,MDL原理表明,最好的理论可诱导出要求最低数量的比特编码理论,和它的异常都将其应用到决策树,可以在5,发现。在这个原则下,平衡编码规则和案例,这样达到总成本将是一个最小的编码。因此,一些规则则不会编码,从而在许多情况下,不包括在最终的规则集。这些个案将被归类在一个默认的类,如出现最频繁的类中发现病例.3。夹具分类模型在这个研究中,共有两个分类模型构建,第一个是一个简单的模型包括个夹具,26和

9、14的工件,共有100例用于培训.这第一个模型用于帮助理解感应过程和预期中可能会遇到的问题。生成模型中,感应过程应用12次,每次对一个夹具属性和这些属性表1中列出.每个属性取决于工件夹具,夹具流程和其他属性。由此产生的误差利率如图表3和4所示。正如预期的那样,结果误差利率非常高,范围从4到4%的决策树和0% 7的分类规则集.其原因在于,总空间覆盖的属性中的使用训练数据集太小.基侧和最终定位器(夹具属性、2和3)依赖于各种属性,因此这些导致更高的错误率.此外,还有边定位器。 表1固定属性 夹具编号 夹具属性 1 基本定位器 2 侧定位器 端定位器4 定位公差 夹方向 夹式7 夹具公差8 夹驱动9

10、 支持目的10 支持方向11 支持宽容 图表3第一个模型的决策树的错误率 图表 4第一个模型的分类规则的错误率这也依赖于基础定位,而最终定位依赖于两个数据,这也催生了增加出错率.类似的结果在图里观察到3号,4号.它可能推断出这个出错率的数量会有成正比的依赖属性。此外,它提供决定属性中描述不够详细的综合模型。因此,修改所有的属性是用于第二个模型。而第二个模型使用21夹具属性,26件属性以及一个6进程总数为54000例的属性。一个1个夹具的列表提出了基本属性如表2.表2。叶子的数量和规则为每个夹具属性 固定属性 叶数的数目 叶数的规则 1。底面 279 62。基地定位 1年 43。侧面 533 4

11、。侧定位器 275 55。端面 88 .端定位器 313 15。夹+X 10 38。夹 2 1.夹+ Y 27 90。夹2 y 127 1311。夹+Z 11 92。夹2 z 1 13。夹驱动 3 24。支持+ 185 31.支持 161 1。支持+ Y 1 317。支持 66 318。支持 Z 17 319。支持2 z 228 30.支持体重 9 31.公差 3 这0例,随机抽取其中0%作为测试数据,而其余的被用于培训。第二个模型的结果显示,对于决策树有很大的改进。错误率(图)范围从相对于简单的树0(20叶)变为8相对复杂的树(300叶).在决策树结果的改进预计中,由于样本数量增加了,显示的

12、树木可能更准确。如图所示的错误率,在训练过程中,使用的情况下,计算基础上的测试与错误率培训的情况不同,从上面的最大值0表明,用例遵循类似的分布测试与培训的情况下,因此是无偏的.这些更精确的树,提高了分类规则与低错误率设置的应预期。不过,发现规则集的结果是个矛盾的预测(图6).非常高的分类错误率的原因是由于切除决策树过度的琐碎叶。从表2中可以看出,平均决策树约有100200叶,造成约2至15的规则。错误率高(20%)。当树是非常大的时候(1000叶),而由此产生的规则数小(10)。这表明,在树上有太多的分支被许多叶子覆盖,只有少数病例,在MDL原则下,较少的比特编码所需这些情况,而不是规则本身。因此,这些规则遵从最终的规则集.无论他们原来是什么类,需要发现案件然后分类。仔细看看夹具的属性分类,其中“端”支持这一论点(图7).默认为类的“端”是“2”。用字母表示(A)至().矩阵显示的情况下,其实际的类是在正确的分布。例如,在矩阵的第一行显示的2278例病例中属于类”+ X”,只有7箱,1805箱,正确分类在默认的类“2 z”.最后一列在右边显示了比例的情况下,属于一般错误的类。显然,实际上大多数100测试情况是

展开阅读全文
相关资源
正为您匹配相似的精品文档
相关搜索

最新文档


当前位置:首页 > 高等教育 > 其它相关文档

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号