(完整版)基于SVM的齿轮箱轴承故障诊断(含matlab程序) 下载本文

内容发布更新时间 : 2024/5/4 9:47:12星期一 下面是文章的全部内容请认真阅读。

基于支持向量机(SVM)的齿轮箱轴承故障识别

一、轴承故障诊断

1、概述

轴承是旋转设备的一个重要部件,它提供重要的负载承受能力,以支撑转子系统抵抗静态的和动态的外力。轴承构件,由于它的使用寿命长、负载能力高、能量损失低而被广泛应用于工业和公用设施,是大型机械装备(包括动力机械、机车车辆、泵与风机等)中的关键部件。高速运转的大型机械装备,其轴承的载荷重且为交变载荷,而且工作环境恶劣,经常发生轴承性能劣化和损坏,影响整个装置的安全可靠性,一旦出现故障将导致严重的损失,有必要对轴承工作状态进行模式识别与诊断。

轴承根据工作的摩擦性质不同可分为滑动摩擦轴承(简称滑动轴承)和滚动摩擦轴承(简称滚动轴承)两大类。本文所测得的数据来自实验室齿轮箱的滑动轴承,滑动轴承的特点有:(1)在高速重载下能正常工作,寿命长。

(2)精度高。

(3)滑动轴承可做成剖分式的,能满足特殊结构的需要。

(4)液体摩擦轴承具有很好的缓冲和阻尼作用,可以吸收震动,缓和冲击。 (5)滑动轴承的径向尺寸比滚动轴承的小。 (6)起动摩擦阻力较大。

通过对轴承进行故障诊断有以下优势:

(1)早期预报、防止事故发生,降低事故发生率;

(2)预知性维修,提高设备管理水平,降低维修费用,减少维修时间,增加运行时间; (3)提高设备的设计、制造水平,改进产品质量; (4)确定复杂机器的最佳工作参数,提高效率; (5)降低噪声,泄露等污染,保护环境。

2、滑动轴承失效形式 (1)磨粒磨损

进入轴承间隙的硬颗粒(如灰尘、砂粒等),在起动、停车或轴颈与轴承发生边缘接触时,都将加剧轴承磨损,导致几何形状改变、精度丧失,轴承间隙加大,使轴承性能在预期寿命前急剧恶化。

(2)刮伤

进入轴承间隙中的硬颗粒或轴颈表面粗糙的轮廓峰顶,在轴承上划出线状伤痕,导致轴承因刮伤失效。

(3)咬合(胶合)

当轴承温升过高,载荷过大,油膜破裂时,或在润滑油供应不足条件下,轴颈和轴承的相对运动表面材料发生粘附和迁移,从而造成轴承损坏。 (4)疲劳剥蚀

在载荷反复作用下,轴承表面出现与滑动方向垂直的疲劳裂纹,当裂纹向轴承衬与衬背结合面扩展后,造成轴承衬材料的剥落。

(5)腐蚀

润滑剂在使用中不断氧化,所生成的酸性物质对轴承材料有腐蚀性,特别是对铸造铜铅合金中的铅,易受腐蚀而形成电状的脱落。

3、轴承故障诊断技术的发展趋势

近几年来,通信技术、电子技术、计算机技术、数据处理技术的飞速发展为轴承故障诊断的发展提供了强大的支持。轴承故障诊断的发展方向和发展趋势大致如下: (1)混合故障诊断技术研究

智能诊断技术是滚动轴承故障诊断技术的一个重要的研究方向。将多种不同的智能技术结合起来的混合诊断系统,是智能故障诊断研究的一个发展趋势。结合方式主要有基于规则的专家系统与神经网络的结合,实例推理与神经网络的结合模糊逻辑、神经网络与专家系统的结合等。

(2)多信息量融合,多层次诊断集成

集成知识库中的各种诊断知识,结合数据库中的各种故障数据,按照不同的故障情况进行综合分析、判断,定位故障点。主要对状态监测所得到的信息进行融合,然后结合层次诊断模型,按照深浅结合的推理层次进行诊断。它进一步把状态监测中的信号监测处理集成到诊断系统中,进行在线数据处理与在线诊断推理,实现非实时诊断到实时诊断的转变,也实现信息诊断与智能诊断的统一。 (3)远程协作诊断

基于因特网的滚动轴承故障远程协作诊断是将滚动轴承诊断技术与计算机网络技术相结合,用若千台中心计算机作为服务器,在企业的关键设备上建立状态监测点,采集设备状态数据;在技术力量较强的科研院所建立分析诊断中心,为企业提供远程技术支持和保障。跨地域远程协作诊断的特点是测试数据、分析方法和诊断知识的网络共享,因此必须使传统诊断技术的核心部分(即信号采集、信号分析和诊断专家系统)能够在网络上远程运行。 (4)诊断与控制相结合

根据当前设备的健康状况决定设备运行方式或策略,最终预知故障,从而防止故障的发生,是诊断技术的最高目标。它是把诊断系统和控制系统进一步结合,达到集监测、诊断、控制、管理于一身.它由单机诊断发展到分布式全系统诊断,信息量大,类型多,相应的也就需要多种数据处理和诊断推理方法的联合总之 ,在今后的研究中应进一步对诊断理论与诊断方法加以研究,建立一套完整的故障诊断指导理论和方法体系,将诊断理论和诊断方法能运用到实际的生成中,同时加强对便携式诊断和监测工具的研究,致力于建立简单的故障诊断平台,建立更人性化的人机工作环境,提高诊断的效率,提高人们的设备管理意识,促进滚动轴承及其它设备故障诊断技术的应用和发展。

二、支持向量机(SVM)

1、支持向量机简介

支持向量机(Support Vector Machine 简称SVM)是Cortes和Vapnik于1995年首先提出的,它在解决小样本、非线性及高维模式识别中表现出许多特有的优势,并能够推广应用到函数拟合等其他机器学习问题中。

它是建立在统计学习理论的VC维理论和结构风险最小原理基础上的,根据有限的样本信息在模型的复杂性和学习能力之间寻求最佳折衷,以期获得最好的推广能力。

所谓VC维是对函数类的一种度量,可以简单的理解为问题的复杂程度,VC维越高,一个问题就越复杂 。而SVM正是用来解决这个问题的,它基本不关乎维数的多少,和样本的维数无关(有这样的能力也因为引入了核函数 )。

结构风险最小原理: 机器学习本质上就是一种对问题真实模型的逼近 ,真实风险应该由两部分内容刻画,一是经验风险,代表了分类器在给定样本上的误差;二是置信风险,代表了我们在多大程度上可以信任分类器在未知样本上分类的结果。置信风险与两个量有关,一是样本数量,显然给定的样本数量越大,我们的学习结果越有可能正确,此时置信风险越小;二是分类函数的VC维,VC维越大,推广能力越差,置信风险会变大。统计学习的目标从经验风险最小化变为了寻求经验风险与置信风险的和最小,即结构风险最小。

支持向量机在形式上类似于多层前向网络,而且也可以被用于模式识别和非线性回归。但是,支持向量机方法能够客服多层前向网络的固有缺陷,有以下几个优点:

(l)它是专门针对有限样本情况的,其目标是得到现有信息下的最优解而不仅仅是样本数趋于无穷大时的最优值。

(2)算法最终将转化成为一个二次型寻优问题,从理论上说,得到的将是全局最优点。 (3)算法将实际问题通过非线性变换转换到高维的特征空间,在高维空间中构造线性判别函数来实现原空间中的非线性判别函数,这一特殊的性质能保证机器有较好的泛化能力,同时它巧妙地解决了维数问题,使得其算法复杂度与样本维数无关。

对于分类问题,神经网络仅仅能够解决问题并不能保证得到的分类器是最优的;而基于统计学习理论的支持向量机方法能够从理论上实现对不同类别间的最优分类,拥有最好的泛化性能。

2、支持向量机国内外研究现状

1995年vapnik出版“The Nature of Statistical Learning Theory”,在国际范围内掀起了学习研究统计学习理论(Statistical Learning Theory,SLT)和支持向量机算法(SupportVector Machines,SVM)的热潮,各领域的研究人员也纷纷将SLT理论和SVM算法分别应用到模式识别、回归分析、函数逼近和信号处理等领域。1992年至1995年间,一种新型的学习机器——支持向量机(SVM)在统计学习理论的基础上产生了,该算法在解决小样本问题的同时解决了神经网络算法中的高维问题和局部极值问题。

近几年,支持向量机在故障诊断方面的应用在国内外都有了一定的发展。PoyhonenS等应用于电子机器方面;Jun Feng Gao等将SVM用于往复式泵故障诊断;肖健华对SVM进行了理论研究,针对样本不对称情况进行了算法改进,并应用于齿轮故障诊断中;胡寿松将SVM用于非线性系统故障诊断;重庆大学博士马笑潇对SVM在智能故障诊断中的应用中进行了详细

的探讨;西安交通大学博士祝海龙在其博士学位论文中对统计学习理论的工程应用进行了不同领域的研究,涉及信号消噪、机械故障诊断和人脸检测,研究了汽车发动机振动故障的自动诊断;张周锁等对基于支持向量机的机械故障诊断方法进行了研究;董明等将其用于大型电力变压器故障诊断模型研究;杨云在电子装备系统故障智能诊断中使用了SVM算法;朱凌云等从数据挖掘的角度,运用SVM分类算法,进行自动缺陷识别的方法研究。

这些诊断研究针对不同故障对象,在理论和仿真方面都取得了基本令人满意的结果,这表明了支持向量机算法适合于故障智能诊断领域,但是这些研究大都处于实验室阶段,在实际应用中还存在着许多问题需要解决:①怎样建立更适合具体的问题分析的有效模型,;②如何选取最优核函数以及核函数参数。核函数及参数的选择直接影响到支持向量机的性能,在选取方面还没有完整的理论依据。③如何建立合适的多故障分类器以进行准确快速分类。④有效的早期故障诊断等方面还需要进一步的研究和现场实践。

三、支持向量机(SVM)的算法

1、支持向量分类(SVC)算法 1.1 线性可分情形

SVM算法是从线性可分情况下的最优分类面(Optimal Hyperplane)提出的。图中实心点和空心点分别表示两类训练样本,我们要用一条直线,将下图中实心的点和空心的点分开。

H为把两类没有错误地分开的分类线,H1,H 2分别为过各类样本中离分类线最近的点且平行于分类线的直线,H1和H 2之间的距离叫做两类的分类空隙或分类间隔。所谓最优分类线就是要求分类线不但能将两类无错误地分开,而且要使两类的分类空隙最大。前者是保证经验风险最小(为0),而通过后面的讨论可以看到,使分类空隙最大实际上就是使推广性的界中的置信范围最小,从而使真实风险最小。推广到高维空间,最优分类线就成为最优分类面。

一般地,d维空间中线性判别函数的一般形式为g?x??wx?b,分类面方程是

TwTx?b?0,我们将判别函数进行归一化,使两类所有样本都满足g?x??1,此时离分类

面最近的样本的

g?x??1,而要求分类面对所有样本都能正确分类,就是要求它满足

T yi(wxi?b)?1?0,i?1,2,?,n。 (1)

式(1)中使等号成立的那些样本叫做支持向量(Support Vectors)。两类样本的分类空隙(Margin)的间隔大小:

Margin=2/w (2)

因此,最优分类面问题可以表示成如下的约束优化问题,即在条件(1)的约束下,求函数

??w??121Tw?(ww) (3) 22的最小值。为此,可以定义如下的Lagrange函数:

n1TT L(w,b,?)?ww???i[yi(wxi?b)?1] (4)

2i?1其中,ai?0为Lagrange系数,我们的问题是对w和b求Lagrange函数的最小值。把式(4)分别对w、b、?i求偏微分并令它们等于0,得:

n?L?0?w???iyixi ?wi?1n?L?0???iyi?0 ?bi?1?L?0??i[yi(wTxi?b)?1]?0 ??i以上三式加上原约束条件可以把原问题转化为如下凸二次规划的对偶问题:

n1nn?T?max?ai????i?jyiyjxixj2i?1j?1i?1??ai?0,i?1,?,n ?s.t (5)

?n?aiyi?0??i?1???这是一个不等式约束下二次函数机制问题,存在唯一最优解。若?i为最优解,则

w*?*?ayx (6)

*iiii?1n?i*不为零的样本即为支持向量,因此,最优分类面的权系数向量是支持向量的线性组合。

b*可由约束条件?i[yi(wTxi?b)?1]?0求解,由此求得的最优分类函数是 :